类神经网络训练(二)

ADAPTIVE LEARNING RATE

在训练过程中Critical Point 不一定是我们训练过程中最大的阻碍,当Loss不再下降时,我们的Gradient不一定很小。例如下图,还在Error Surface的两个谷壁反复震荡。

类神经网络训练(二)_第1张图片

当我们给训练设置同样的Learning Rate 会出现下面的情况:

1 Learning Rate = 10^{-2},步幅大,反复横跳;(左下图)

2 Learning Rate = 10^{-7},  步幅小,起初训练正常,随后无法逼近Local Minima;(右下图)

类神经网络训练(二)_第2张图片

我们需要更好的Gradient Descend方法,为每一个Learning Rate参数定制化,我们的原则是如果Gradient大,我们希望此时Learning Rate小一点,反之我们可以让Learning Rate 大一点。

ROOT MEAN SQUARE

于是我们使用Root Mean Square,如下图所示,它也被用在Adagrad中。

类神经网络训练(二)_第3张图片

类神经网络训练(二)_第4张图片

由于即使是同一个参数,它Learning Rate 也会随着时间而改变,我们接着引入新的方法。

RMSProp

 在这个方法中,新增了一个参数\alpha,如果\alpha接近0,代表刚算出来的gi相较于之前算出的gradient 比较重要,如果\alpha接近1 ,代表现在算出来的 gi相对不重要,而之前的算出来的gradient比较重要。它是一个超参数。

类神经网络训练(二)_第5张图片

目前较好的Adam方法,就是将RMSProp和Momentum结合一起使用。

 类神经网络训练(二)_第6张图片

Learning Rate Scheduling:让 η 与时间有关

Learning Rate Decay:随着时间增加让 η 越来越小,因为随着时间增加越更新离目标点越接近。

Warm Up:随着时间 η先增大,后减小。

类神经网络训练(二)_第7张图片

Optimization Summary:

最后针对基础的Gradient Desecent有三个地方进行优化。

1 Momentum:它考虑了过去所有的Gradient而非眼前,并且考虑方向;

2 Learning Rate Scheduling:常用的Warm Up能很好提高性能;

3 RMS:Root Mean Square Prop,可以手动设置\alpha来调整 ,针对过去的Gradient,但不考虑其方向,只考虑大小;

 类神经网络训练(二)_第8张图片

 LOSS FUNCTION

在Classification中,可以用MSE和Cross-Entropy两种Loss function,但是他们是不同的。

类神经网络训练(二)_第9张图片

Soft-Max:

类神经网络训练(二)_第10张图片

在分类问题中,选用Cross-Entropy是明显优于MSE的,由下面例子可知,如果使用MSE在Loss很大的时候,仍然会产生Stuck,导致训练终止。而此时Cross-entropy是表现优的。

 类神经网络训练(二)_第11张图片

所以对Loss Function的选择也会影响Optimization的过程。

你可能感兴趣的:(神经网络,深度学习,人工智能)