大疆2018机器学习笔试

自己还是没准备,就被拉出去----所以总结一下,秋招加油~~还是挺基础的。

1. CNN计算

outsize  =(insize-flitersize+2*padding)/stride + 1

对于感受野,设当前层n感受野大小RF=1; stride等于当前层前面所有层stride的乘积

迭代: for i=n-1---1:

RF=(RF-1)*stride + size;

另外,特别注意···多通道的偏置数只有一个。

2. 过拟合解决办法

 加入正则项,求解结构风险最小化;增大数据的训练量;在神经网络模型使用Dropout方法。

3. 机器学习中的范数问题

L0范数是指向量中非0的元素的个数。L1范数是指向量中各个元素绝对值之和,也叫“稀疏规则算子”;L2范数是先平方然后求和开根。L2范数有助于处理 condition number不好的情况下矩阵求逆很困难的问题,有助于有噪声的情况。

4. 类别不平衡:

1. 过抽样
抽样处理不平衡数据的最常用方法,基本思想就是通过改变训练数据的分布来消除或减小数据的不平衡。

过抽样方法通过增加少数类样本来提高少数类的分类性能 ,最简单的办法是简单复制少数类样本,缺点是可能导致过拟合,没有给少数类增加任何新的信息。改进的过抽样方法通过在少数类中加入随机高斯噪声或产生新的合成样本等方法。

2.引入代价敏感因子,设计出代价敏感的分类算法。通常对小样本赋予较高的代价,大样本赋予较小的代价,期望以此来平衡样本之间的数目差异。

3.特征选择

样本数量分布很不平衡时,特征的分布同样会不平衡。尤其在文本分类问题中,在大类中经常出现的特征,也许在稀有类中根本不出现。因此,根据不平衡分类问题的特点,选取最具有区分能力的特征,有利于提高稀有类的识别率 。

4. 直接基于原始训练集进行学习,但是在用训练好的分类器进行预测的时候,将上面的

  1. y1y=y1y×mm+y′1−y′=y1−y×m−m+ 嵌入到决策过程中,这种方法称为“阈值移动(threshold-moving)”。

你可能感兴趣的:(大疆2018机器学习笔试)