一文读懂:防止过拟合的所有方法

一文读懂:防止过拟合的所有方法_第1张图片

什么是过拟合

过拟合就是在训练集上表现得非常好,在测试集上表现得不好。也就是我们俗称的泛化能力弱

过拟合无法避免,只能缓解,那么如何缓解呢?方法太多了。这篇文章一一介绍。

数据集增强Augmentation

图像上,翻转,平移,缩放,旋转,镜像,增强对比度,增强亮度等诸多方式。
我在下面的内容中介绍了图像处理的图像增强的方法:
【预处理库函数】albumentations库的简单了解和使用

Early Stopping

训练模型的时候,训练误差往往是不断下降的,但是验证数据集的误差,是先下降后上升。 两个数据集的误差出现分歧的时候,说明模型开始过拟合了。所以Early Stopping就是当验证数据集的误差不在下降的时候,结束训练,保存模型参数。

正则化regularization

L1正则:模型中只有少部分特征对模型的泛化能力有贡献,所以L1就是限制模型中非零参数的数量。让大部分的模型参数都是0,只有真正对泛化能力其作用的参数才是非零的。

L2正则:我们希望模型找到的极小值是平坦的,为什么呢?
一文读懂:防止过拟合的所有方法_第2张图片
图中表示的意思,就是平坦的极小值,可以有更多的容忍,容忍什么呢?容忍训练数据集和测试数据集之前的分布偏差。现在,如果模型的某些参数特别大,那么就算输入的样本只有很小的区别,但是经过特别大的参数之后,模型给出的结果很可能是非常不同的。这就是太陡峭。所以L2正则就是限制模型参数的大小。参数的平方的和作为损失的一部分,当参数数值越大,那么梯度下降的损失越大,就会强迫参数变小。

这里有两幅图:
一文读懂:防止过拟合的所有方法_第3张图片
这一幅图体现的是假设只有两个参数的情况下,增加L1正则的情况。圆圈圈体现的是损失等值线,方框是L1正则的损失。假设没有L1正则,那么参数应该收敛到最小的那个圆圈中的。但是因为增加了L1正则,所以需要权衡两个部分的损失,然后找到接触的交点位置。因为圆形和矩形在矩形的顶点相交的可能性大,而矩形的顶点就是某一个参数为0的情况。所以L1正则会让模型参数有更大的可能性为0.
【在更多参数的模型中,会有更多的顶点。不过二维图像就画不出来了】


一文读懂:防止过拟合的所有方法_第4张图片
这个是L2正则的示意图。L2正则式一个原型因为是参数的平方和。相比L1的(0,1)这样的交点,L2更希望每一个参数都普遍较小,不希望某一个参数特别大。

Dropout

这个就是神经网络中,在全连接网络中经常用到的。

在每一个Batch数据训练的时候,Dropout层按照概率P随机让一些神经元失活,然后保留下来的神经元的参数被更新。dropout是只有在训练的时候才使用的,在测试的时候并不适用。

我个人理解的dropout其实就相当于一个多模型融合的过程。因为每一次都会失活一部分的神经元,所以每一次的模型都是不那么一样的,相当于不同的模型吧。

增加噪音

输入中增加噪音

输入中有噪音 ϵ \epsilon ϵ,那么输出中就会有一个类似于 ϵ ω \epsilon \omega ϵω,这样的损失项。 从而限制权值的大小。

当然这样也可以增加模型对输入的容忍度,我觉得也可以理解为一种数据增强。 去噪自编码器DAE就是利用这样的方法的。

权值中加噪音

这个用的不多,在初始化网络的时候,用0均值的高斯分布作为参数的初始化。

集成

集成主要是bagging,boosting,之前说的dropout我觉得也可以算作集成的方法

bagging

将数据集抽取一部分,比如抽取70%的样本,然后用这些样本去训练一个模型。然后再从数据集中抽取70%的样本,再训练一个新的。典型的就是随机森林。
【神经网络因为训练速度的问题,所以一般不用这样的方法。决策树lgb啥的可以用】

boosting

训练复杂神经网络比较慢,所以**可以通过训练多个简单的分类器,然后加权平均每一个分类器的输出。**这就是Boost的思想。【这句话给我背下来!】

之后整理一下Adaboost和XGBoost的这些算法。

其他

  • 限制网络的层数和复杂度

**END**

喜欢的话请关注我们的微信公众号~《你好世界炼丹师》或者知乎【你好世界炼丹师】。

  • 公众号主要讲统计学,数据科学,机器学习,深度学习,以及一些参加Kaggle竞赛的经验。
  • 公众号内容建议作为课后的一些相关知识的补充,饭后甜点。
  • 此外,为了不过多打扰,公众号每周推送一次,每次4~6篇精选文章。

微信搜索公众号:你好世界炼丹师。期待您的关注。

你可能感兴趣的:(PyTorch,从零学习深度网络,深度学习不得不了解的技巧)