刷题错题笔记

刷题错题笔记

  • N-最近邻
  • 前序遍历、中序遍历、后序遍历
  • 循环队列判断条件
  • STL中的优先队列是采用什么数据结构来实现的
  • 降低过拟合的方法
  • 降低欠拟合的方法
  • Xgboost对异常值很敏感
  • LIFO指后进先出
  • 类域界面方程法中,不能求线性不可分情况下分类问题近似或精确解的方法是感知器算法
  • N个圆盘的汉诺塔移动次数
  • 任何分布都能化为[0,1] 均匀分布
  • 堆的复杂度
  • 插入排序中第N个数需要比较多少次
  • 链地址法与散列函数
  • 多层隐藏层的好处
  • 池化优点
  • 网络退化与过拟合的区别
  • BN层作用
  • 全局平均池化

刷题练习的错题本……

N-最近邻

N-最近邻分类指距离该点最近的N个数据点中多数属于哪个类别,就划分到哪个类别。

前序遍历、中序遍历、后序遍历

前序遍历:中,左,右
中序遍历:左,中,右
后序遍历:左,右,中

循环队列判断条件

https://blog.csdn.net/tzs_1041218129/article/details/52311078

STL中的优先队列是采用什么数据结构来实现的

答案:堆

降低过拟合的方法

  1. 使用更多训练数据
  2. 降低模型复杂度(深度,神经元个数)
  3. 正则化
  4. 集成学习
  5. 通过特征选择减少特征数量

降低欠拟合的方法

  1. 添加新特征
  2. 增加模型复杂度
  3. 减少正则化系数

Xgboost对异常值很敏感

LIFO指后进先出

类域界面方程法中,不能求线性不可分情况下分类问题近似或精确解的方法是感知器算法

伪逆法:径向基(RBF)神经网络的训练算法,径向基解决的就是线性不可分的情况。
感知器算法:线性分类模型,无法处理非线性问题。
H-K算法:在最小均方误差准则下求得权矢量,二次准则解决非线性问题。
势函数法:势函数非线性。

N个圆盘的汉诺塔移动次数

答案: 2^n -1

任何分布都能化为[0,1] 均匀分布

  1. 任何分布都能化为[0,1] 均匀分布
  2. 通过Box-Muller-Wiener算法,可以实现正态分布与均匀分布之间的转换

堆的复杂度

建堆:O(n)
操作堆:O(logn)

插入排序中第N个数需要比较多少次

在它前方比它大的数字有M个,则为M+1次。

链地址法与散列函数

采用该方法计算平均查找次数时,空的哈希地址也需要计算一次查找次数。

多层隐藏层的好处

将隐藏节点的数量从指数级O(2^(n-1))减少到线性级O(3(n-1))

池化优点

均值池化:对背景的保留效果更好。
最大池化:对纹理的提取效果更好。

网络退化与过拟合的区别

网络退化:训练误差与测试误差同时上升
过拟合:训练误差下降,测试误差上升

BN层作用

防止数据分布变化产生的协变量偏移,和普通的标准化不同,为每一层的输出产生自适应的分布。
放在激活函数前:避免BN层破坏非线性分布,使得数据不落入激活函数饱和区域,缓解梯度消失。
放在激活函数后:对relu来说可以防止非线性特征分布趋于同化。

全局平均池化

在卷积层之后,最后一层之前,使用全局平均池化,等价于全连接层的提取全局信息效果,但是大大降低参数量和计算量,同时具有较好的可解释性。

你可能感兴趣的:(学习笔记)