过拟合(出现原因4种,解决方案6种)

出现过拟合的原因

1.训练集的数量级和模型的复杂度不匹配。训练集的数量级要小于模型的复杂度;
2.训练集和测试集特征分布不一致;
3.样本里的噪音数据干扰过大,大到模型过分记住了噪音特征,反而忽略了真实的输入输出间的关系;
4.权值学习选代次数足够多(Overtraining),拟合了训练数据中的噪声和训练样例中没有代表性的特征。

解决方案:
(simpler model structure、data augmentation、regularization、dropout 、early stopping、 ensemble 、重新清洗数据)
1.simpler model structure
调小模型复杂度,使其适合自己训练集的数量级(缩小宽度和减小深度)
2. data augmentation
训练集越多,过拟合的概率越小,在计算机视觉领域中,增广的方式是对图像旋转,缩放,剪切,添加噪声等。
3. regularization
参数太多,会导致我们的模型复杂度上升,容易过拟台,也就是我们的训练误差会很小。正则化是指通过引入额外新信息来解决机器学习中过拟合问题的一种方法。这种额外信息通常的形式是模型复杂性带来的惩罚度。 正则化可以保持模型简单,另外,规则项的使用还可以约束我们的模型的特性。
4、dropout
这个方法在神经网络里面很常用。dropout方法是ImageNet中提出的一种方法,通俗一点讲就是dropout方法在训练的时候让神经元以一定的概率不工作。具体看下图:
过拟合(出现原因4种,解决方案6种)_第1张图片
如上图所示,左边a图是没用用dropout方法的标准神经网络,右边b图是在训练过程中使用了 dropout方法的神经网络,即在训练时候以一定的概率p来跳过一定的神经元。
5、early stopping
对模型进行训练的过程即是对模型的参数进行学习更新的过程,这个参数学习的过程往往会用到一些选代方法,如梯度下降(Gradientdescent)学习算法。Earlystopping便是一种迭代次数截断的方法来防止过拟合的方法,即在模型对训练数据集迭代收敛之前停止迭代来防止过拟合。
Early stopping方法的具体做法是,在每一个Epoch结束时(一个Epoch集为对所有的训练数据的一轮遍历)计算validationdata的accuracy,当accuracy不再提高时,就停止训练。这种做法很符合直观感受,因为accurary都不再提高了,在继续训练也是无益的,只会提高训练的时间。那么该做法的一个重点便是怎样才认为validationaccurary不再提高了呢?并不是说 validation accuracy一降下来便认为不再提高了,因为可能经过这个Epoch后,accuracy降低了,但是随后的Epoch又让accuracy又上去了,所以不能根据一两次的连续降低就判断不再提高。一般的做法是,在训练的过程中,记录到目前为止最好的validation accuracy,当连续10次Epoch(或者更多次)没达到最佳accuracy时,则可以认为accuracy不再提高了。此时便可以停止迭代了(Early Stopping)。这种策略也称为“Noimprovement-in-n”,n即 Epoch的次数,可以根据实际情况取,如10、20、30……
6、ensemble
集成学习算法也可以有效的减轻过拟合。Bagging通过平均多个模型的结果,来降低模型的方差。Boosting不仅能够减小偏差,还能减小方差。

你可能感兴趣的:(机器学习,深度学习,人工智能,计算机视觉)