深度学习知识点

fastai笔记

1.epoch设置
epoch太小,可能欠拟合,但可能因为太慢不得不减小epoch
epoch太大,会过拟合,导致准确率下降。
如下图,显然epoch=2时准确率下降,已经过拟合了
深度学习知识点_第1张图片
2.学习率选择
fast.ai中有一个learn.lr_find(),找学习率(x)和loss(y)的曲线中斜率最大的即可。但作者又说要找min的1e-1的更高一点,也就是1e-2.所以这里不太清晰。
深度学习知识点_第2张图片
3.总结
深度学习知识点_第3张图片
4.应该仅在全连接层上使用Dropout操作,并在卷积层之间使用批量标准化。
5.权重衰减(L2正则化)的作用
作用:权重衰减(L2正则化)可以避免模型过拟合问题。
思考:L2正则化项有让w变小的效果,但是为什么w变小可以防止过拟合呢?
原理:(1)从模型的复杂度上解释:更小的权值w,从某种意义上说,表示网络的复杂度更低,对数据的拟合更好(这个法则也叫做奥卡姆剃刀),而在实际应用中,也验证了这一点,L2正则化的效果往往好于未经正则化的效果。(2)从数学方面的解释:过拟合的时候,拟合函数的系数往往非常大,为什么?如下图所示,过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某些很小的区间里,函数值的变化很剧烈。这就意味着函数在某些小区间里的导数值(绝对值)非常大,由于自变量值可大可小,所以只有系数足够大,才能保证导数值很大。而正则化是通过约束参数的范数使其不要太大,所以可以在一定程度上减少过拟合情况。
深度学习知识点_第4张图片

你可能感兴趣的:(fastai)