梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam

梯度下降优化基本公式:

一、三种梯度下降优化框架

这三种梯度下降优化框架的区别在于每次更新模型参数时使用不同的样本数。

(一)Batch Gradient Descent

批/全量梯度下降每次更新模型参数时使用全部的训练样本。
,为训练样本数

  • 优点:每次更新都会朝着正确的方向进行,最终能够保证收敛于极值点,因此更新比较稳定。
  • 缺点:每次的学习时间过长,训练集很大时会消耗大量内存,且不能进行在线模型参数更新。

(二)Stochastic Gradient Descent

随机梯度下降每次更新参数时从训练样本中随机选择一个样本。

  • 优点:每次的学习很快速,且可以进行在线更新。
  • 缺点:每次的更新可能并不会完全朝着正确的方向进行,高频率的参数更新导致了高方差,因此带来了优化波动。
梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第1张图片
图1.1 随机梯度下降的优化波动

关于优化波动,带来的好处是在有很多local minima的区域,优化波动可能会使得优化的方向从当前的local minima跳到另一个更好的local minima,甚至是global minima,最终收敛于一个较好的minima。由于波动,迭代次数增多,收敛速度下降,不过最终会和批梯度下降一样具有收敛性。

(三)Mini-batch Gradient Descent

小批量梯度下降每次更新模型参数时从训练样本中随机选择个样本,,常取32~256。

  • 优点:结合了批梯度下降的稳定性和随机梯度下降的随机性。相对于随机梯度下降,小批量梯度下降降低了收敛波动性,即降低了参数更新的方差,使得参数更新更加稳定;相对于批梯度下降,小批量梯度下降提高了每次的更新速度,不用担心内存瓶颈,可利用矩阵运算进行高效计算,在GPU的帮助下,小批量梯度下降和随机梯度下降更新一次参数的时间差不多,并且批梯度下降容易卡在较浅的local minima处或不那么麻烦的saddle point处,这时候给它随机梯度下降的随机性就能够逃脱出来。

一般,SGD指小批量梯度下降。SGD存在的问题:

  • 对于非凸函数,常卡在次优的local minima处以及较为麻烦的如周围都是plateau的saddle point处。
  • 选择一个合理的很困难。太小,收敛太慢;太大,loss变大或在local minima附近振荡。
  • 手动调整时,无论是哪种调整方式,都需要事先进行固定设置,无法自适应学习的训练数据的特点。
  • 模型所有参数每次更新时都是使用相同的。如果数据特征是稀疏的或者每个特征有着不同的取值统计特征与空间,便不能在每次更新中对每个特征使用相同的。如对那些很少出现的特征应该使用较大的。

二、梯度下降优化策略

以下,将记作。

(一)Momentum

,为动量项

其中,动量项超参数越大,之前梯度方向对当前方向的影响也越大。

  • 优点:更新模型参数时,对那些当前梯度方向与之前方向一致的参数梯度进行加强,使得在当前方向上更快了;对那些当前梯度方向与之前方向不一致的参数梯度进行减弱,使得在当前方向上更慢了。因此在更新中可以获得更快的收敛速度与减少振荡。下降中后期,在local minima处来回振荡时,当前梯度趋于0,动量项的存在使得更新幅度增大,有助于跳出较浅的local minima。

(二)Nesterov Accelerated Gradient

NAG计算“超前梯度”更新动量项。

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第2张图片
图2.1 NAG

既然参数要沿着方向更新(蓝线),不妨计算下未来位置处的梯度(红线),再将动量项与其合并作为最终的更新项(绿线)。

  • 优点:阻止过快更新来提高响应性。

可以在梯度下降的过程中自动调节。大原则是随更新次数的增大而减小,同时也要针对不同的参数设置不同的。有很多这样的自动调节的梯度下降方法,名称常以"Ada"开头。

(三)Adagrad

,为过去到当前时刻的参数梯度平方和
,为平滑参数,常为1e-8
作为regularizer项,其分母部分使用1阶导数的函数计算近似了2阶导数的计算,没有增加额外的花费来估计2阶导数。训练前期,梯度较小,regularizer项较大,放大梯度;训练后期,梯度较大,regularizer项较小,约束梯度。

  • 优点:能够对每个参数自适应不同的学习速率。对于稀疏特征,能得到较大的学习更新;对于非稀疏特征,能得到较小的学习更新。因此适合处理稀疏数据。
  • 缺点:学习速率单调递减,最终会趋于0,学习停止过快。

(四)Adadelta

,为过去到当前时刻的参数梯度值平方的加权平均


,为过去到前一时刻的参数更新值平方的加权平均
Adadelta作者用2个反复近似的式子来说明一阶方法比起二阶方法到底差在哪里。
一阶方法如SGD中:。
二阶方法如牛顿法中:。
注:用矩阵对角线近似逆矩阵:;对的一阶导数取log正比于。
一阶方法与参数成逆相关,二阶方法与参数成正相关。
基于一阶梯度近似代替二阶梯度的思想,有{\Delta\theta\approx\frac{\frac{\delta{J}}{\delta\theta}}{\frac{\delta^2{J}}{\delta\theta^2}}\approx\frac{1}{\frac{\delta^2{J}}{\delta\theta^2}}\cdot{g}\approx\frac{\Delta\theta}{\frac{\delta{J}}{\delta\theta}}\cdot{g}\approx\frac{RMS[\Delta\theta]_{t-1}}{RMS[g]_t}\cdot{g}},RMS指Root Mean Square。

  • 优点:缓解了Adagrad中学习速率衰减过快的问题。不依赖于全局。

(五)RMSprop

是Adadelta的特例,无有。

(六)Adam

,为梯度的加权平均,一阶矩变量,有偏
,为梯度平方的加权平均,二阶矩变量,有偏,梯度的加权有偏方差
和均初始化为,Adam作者发现它们会倾向于为,特别是在和趋于1时。
为了改进这个问题,对和进行偏差修正,近似于期望的无偏估计。



经过偏置校正后,每一次迭代的学习率都有个确定的范围,使得参数比较平稳。

三、梯度下降策略的选择

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第3张图片
图3.1 梯度下降策略的选择1

Adagrad、Adadelta、RMSprop在loss surface上能够立刻转移到正确的移动方向上达到快速的收敛,而Momentum、NAG会导致偏离,相较于Momentum,NAG能够在偏移之后更加迅速地修正其路线。

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第4张图片
图3.2 梯度下降策略的选择2

在saddle point处,SGD、Momentum、NAG一直在鞍点梯度为0的方向上振荡,Adagrad、Adadelta、RMSprop能够很快地向梯度不为0的方向上转移。
如果数据特征是稀疏的,最好使用自适应的梯度优化策略。
实验中,SGD常能够收敛到更好的minima,但是相对于其他的GD,可能花费的时间更长,并且依赖于初始值以及学习速率退火策略,并且容易陷入local minima以及鞍点。

四、一些建议

(一)调整学习速率

恰好,可以走到局部最小值点;太小,走得太慢,也可以走到局部最小值点;太大,很可能走不到局部最小值点,卡在某处上;太太大,很可能走出去。

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第5张图片
图4.1 学习速率的选择

(二)特征缩放

变化,变化小,对loss影响小;变化,变化大,对loss影响大。

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第6张图片
图4.2 不同尺度的特征的影响

一般来说,椭圆形中不同方向的需求不一样,需要使用如"Ada"的自适应梯度下降方法;圆形中更新次数较少。因为无论椭圆形还是圆形,更新时都是沿着等高线的法线方向,而圆形直接向着圆心走。

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第7张图片
图4.3 椭圆形 vs 圆形

通过将特征归一化,使得特征各个维度上的均值为0、方差为1来实现特征缩放.

梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam_第8张图片
图4.4 特征归一化

你可能感兴趣的:(梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam)