手算梯度下降法,详解神经网络迭代训练过程

神经网络本质上是一个计算流程,在前端接收输入信号后,经过一层层复杂的运算,在最末端输出结果。然后将计算结果和正确结果相比较,得到误差,再根据误差通过相应计算方法改进网络内部的相关参数,使得网络下次再接收到同样的数据时,最终计算输出得到的结果与正确结果之间的误差能越来越小。

这里需要搞清楚一个重要概念,就是如何计算误差,我们列一个表,展示一个在最外层有三个节点的网络对误差的三种计算情况:

手算梯度下降法,详解神经网络迭代训练过程_第1张图片
这里写图片描述

上表列出三种误差处理情况,第一种计算误差的方式是将简单的将网络计算结果与正确结果相减,但采用这种做法,如果我们把所有误差相加在一起,结果居然为零,因为第一个节点的结果与正确结果的差值和第二个节点结果与正确结果的差值刚好相反,于是误差就相互抵消掉,由此直接将两者相减不是一种理想的误差计算方式。

第二种是相减后求绝对值。这样一来每个节点间的误差在加总时就不会相互抵消,但绝对值的存在使得函数图像会变成一个"V"字型,在最低点处是一个箭头,于是这个函数在最低点处不连续,梯度下降法不能运用于不连续的函数。

第三者是两者相减后求平方,这种做法使得误差函数变成一条光滑的曲线,这是梯度下降法运用的最佳场景。在上一节中我们讲过,我们要根据数据点所在的切线斜率来“适当”的调整变量的值,后面我们会看到,这里的“适当”就得依赖切线的斜率大小,一条光滑曲线,也就是一条“连续”曲线,它在最低点附件切线的斜率会越来越小,这样的话变量改变的幅度也会越来越小,进而使得我们能够准确的定位到最低点。这里的”连续“指的就是高等数学或微积分上的”连续“。

一个神经网络本质上是一个含有多个变量的函数,其中每条链路上的权重对应着一个变量,任何一条链路权重的改变会对网络末端的多个节点输出产生影响,可谓是牵一发而动全身。如果我们把第三中误差计算方法,也就是error_sum = (节点输出的结果-正确结果)^2加总,作为最终误差,那么我们的目的就是不断的修改网络中每条链路权重值,使得erro_sum的值最小,这与我们上一节所讲的求一个复杂函数最小值的目的是一致的。

前面我们说过,如果一个函数拥有两个变量,那么函数的值就会在三维空间形成一个曲面。如果一个函数拥有多个变量,那么它的结果就会形成一个多维度的超平面,这已经超出我们人脑的想象范围,我们最多可以想象一个三维的物体。如果我们沿着某个变量的方向对这个超平面切一刀,在切面的边缘就会形成一条曲线,例如你拿刀把一个苹果切开,在切开的平面边缘对应着一条曲线,如下图:

手算梯度下降法,详解神经网络迭代训练过程_第2张图片
这里写图片描述

大家注意看,切面曲线的最低点处,对应着整个苹果的最低点处。同理我们对一个包含多个变量构成的函数所形成的超平面,我们沿着某个变量的方向对平面切一刀,在切面的边缘也会有一条曲线:

手算梯度下降法,详解神经网络迭代训练过程_第3张图片
这里写图片描述

我们前面所的error_sum,它是由(节点计算那结果-正确结果)^2加总构成的,而“节点计算结果”却是受到网络中每一条链路权重的影响,因此我们可以认为error_sum是一个含有多个变量的函数,每个变量对应着网络中每条链路的权重。如果我们以某条链路的权重为准,往这个超平面切一刀,那么切面的边缘就是一条一维曲线,这个曲线的最低点就对应着整个超平面的最低点,假设这条曲线如上图,那么我们通过上一节讲解的梯度下降法调整这条链路的权重值,就会使得error_sum的值向最低点走去。

假设一个神经网络只含有两条路径,也就是说error_sum对应着两个变量,这意味着erro_sum是的结果是三维空间上的一个曲面,那么我们对每一个变量做曲面的切面,根据切面的边缘曲线做切线,进而得到每个变量该如何变化才能走到曲面的最低点,这两个变量各自的变化合在一起形成了曲面上一个点走到最低点的路径,如下图:

手算梯度下降法,详解神经网络迭代训练过程_第4张图片
这里写图片描述

接下来的问题是,如何沿着某个变量的方向对曲面切一刀后,找到改点在切面边缘曲线上的斜率,在数学上对应着对根据某个变量对函数求偏导数,公式如下:

手算梯度下降法,详解神经网络迭代训练过程_第5张图片
这里写图片描述

偏导数的结果就是链路权重在error_sum函数这个超平面上做切面后,切面边缘处的切线,根据切线斜率,我们就可以调整链路W(j,k)的值,从而使得error_sumn变小。接下来我们通过一个具体实例,看看如何通过偏导数求得error_sum的最小值,假设我们有如下网络:

手算梯度下降法,详解神经网络迭代训练过程_第6张图片
这里写图片描述

网络的输出层有两个节点,k1和k2,他们输出的值由O1和O2表示,相应的误差由e1和e2表示。根据前面描述,error_sum等于e12+e22,也就是(t1-o1)2+(t2-o2)2。由于O1与O2是由中间层与最外层节点间的链路权重决定的,于是调整这两层节点间链路权重就能影响最外层的输出结果,上图已经把影响最终输出的四条链路标注出来。于是我们分别根据这四个权重变量求偏导数,这样我们才能确定这些变量如何变化才会影响最终输出结果:

手算梯度下降法,详解神经网络迭代训练过程_第7张图片
这里写图片描述

我们一定要注意,最外层节点O(k),只与内层连接到它的链路权重w(jk)相关,其他未跟它连接的链路权重无论如何变化,都不会影响最外层节点O(k)的输出结果。同时求偏导数时,除了参与求导的变量会留下来,其他无关变量会在求导的过程中被消除掉,上面公式中,参与求导的是变量w(jk),与该变量对应的就是O(k),所以上面的公式可以简化如下:

手算梯度下降法,详解神经网络迭代训练过程_第8张图片
这里写图片描述

接下来我们根据微积分原理,对上面的求导运算进行展开,由于t(k)对应的是正确数值,因此它是个常量,于是变量w(jk)与它没有关联,而节点输出O(k)与权重w(jk)是紧密相关的,因为信号从中间层节点j输出后,经过链路w(jk)后进入节点k才产生了输出O(k)。也就是说O(k)是将w(jk)经由某种函数运算后所得的结果,于是根据求导的链式法则,我们有:

手算梯度下降法,详解神经网络迭代训练过程_第9张图片
这里写图片描述

结合上下两个公式,我们可以把对变量O(k)的求导做进一步展开后如下:


手算梯度下降法,详解神经网络迭代训练过程_第10张图片
这里写图片描述

接下来我们得看上边公式右边,对W(jk)的求导如何展开,前面我们早已了解,O(k)的值是由进入它的链路权重乘以经过链路的信号量,加总后再经过激活函数运算后所得的结果,于是上边公式右边对变量w(jk)求导的部分就可以展开如下:

手算梯度下降法,详解神经网络迭代训练过程_第11张图片
这里写图片描述

上面的变量O(j)就是中间层节点j输出到链路jk上的信号量。现在的问题是,如何对激活函数求导,我们完全可以根据求导数的方法,一步一步的算出来,这里我们忽略这些繁琐机械的流程,直接给出激活函数求导后的结果:

这里写图片描述

于是我们把这几步连续求导的结果结合起来,得到如下公式:

手算梯度下降法,详解神经网络迭代训练过程_第12张图片
这里写图片描述

这里要注意到,我们是把经过链路jk的信号量与链路权重做乘积之后再传入激活函数,而所谓的“jk的信号量与链路权重做乘积"实际上对应的正是一个有关权重w(jk)的函数f=w(jk)*O(j),因此根据求导的链式法则,我们对f也要做一次导数,求导结果正好是O(j)。我们可以把上面式子里的2拿掉,因为我们关心的是切线斜率的方向,也就是上面求导结果是正是负,这涉及到我们是应该增加w(jk)还是应该减少w(jk),正负确定了,至于具体值是多少,并不影响我们最后的运算,所以经过链式法则一系列求导后,我们得到最终结果如下:


手算梯度下降法,详解神经网络迭代训练过程_第13张图片
这里写图片描述

上面所得结果可以分解成三部分,第一部分是正确结果与节点输出结果的差值,也就是误差,红色部分对应的是节点的激活函数,所有输入该节点的链路把经过其上的信号与链路权重做乘积后加总,在把加总结果进行激活函数运算,最后一部分是链路w(jk)前端节点输出的信号值。

我们这里谈到的数学是涉及神经网络最核心的部分,除了这里有些数学知识需要掌握外,其他的就都是有关工程实践的问题了。我们这里运算的是中间层和最外层节点间的链路权重求偏导数结果,那么输入层和中间层之间链路权重的求偏导数过程其实是完全一模一样的!我们只需要把上面等式中的k换成j,j换成i就可以了,所以输入层和中间层间,链路权重的偏导公式如下:

手算梯度下降法,详解神经网络迭代训练过程_第14张图片
这里写图片描述

前面我们讲梯度下降法时说,要根据变量对应切线的斜率对变量做”适度“调整,调整的方向与斜率的方向相反,我们可以根据下面公式进行权重调整:

手算梯度下降法,详解神经网络迭代训练过程_第15张图片
这里写图片描述

公式中的变量a,表示学习率,它决定了调整步伐的大小,前面的符号用于表示调整的方向与斜率的方向相反,如果斜率是赋值,那么我们就增加变量w(jk)的值,如果斜率是正的,我们就减少变量w(jk)的值。无论是中间层和输出层,还是输入层和中间层,我们都使用上面的公式修改链路权重。

我们把上边公式中右边减号后面的部分当做链路调整的增量,记作△w(jk),那么就有:
△w(jk) = E(k) * (S(k)*(1 - S(k)))*O(j)
其中E(k) = (T(k) - O(k))也就是节点k对应的误差,S(k)对应的就是节点k对输入的信号量求和后做激活函数的结果,O(j)是节点j的输出信号量,这几部分分别对应上面求偏导公式中的紫色,红色,和绿色部分,如此一来,每个节点的增量就可以对应成矩阵运算:

手算梯度下降法,详解神经网络迭代训练过程_第16张图片
这里写图片描述

我们 一眼上面的矩阵运算会让我们眼花,为了让大家更清楚上面公式中各部分分量的组成,我们把前面的求导公式再次做个变换:

手算梯度下降法,详解神经网络迭代训练过程_第17张图片
这里写图片描述

红色部分就是矩阵运算右边对应的分量S(k)。接下来我们对一个实例的手算进一步对加深对推导过程的理解。下面三层网络是我们前几节运算过的例子,我们重新把它拿出来,根据我们前面推导的权重变换流程,手动做一次网络的训练流程:

手算梯度下降法,详解神经网络迭代训练过程_第18张图片
这里写图片描述

我们要计算中间层节点1与输出层节点1之间链路权重的增量,根据最外层节点得到的误差1.5,中间层节点1对应的信号量是0.4,中间层节点2对应的信号量是0.5,当前两个节点间的链路权重w(11)是2.0,我们直接套入前面推导的偏导公式进行计算:

手算梯度下降法,详解神经网络迭代训练过程_第19张图片
这里写图片描述

让我们一步一步的套入公式进行计算,如果我们要更改w(11)的值,计算步骤如下:
第一步t(k) - O(k) 对应最外层输出节点的误差,例如e1 = 1.5。

第二步就是求和
这里写图片描述
,对应的计算就是(2.0*0.4)+(0.5*3.0) = 0.8+1.5=2.3
第三步计算sigmod:1/1+exp(-2.3)对应的值为0.909,于是中间部分对应为9.909*(1-0.909) = 0.082

第四步计算O(j),也就是0.4.
把所有结果合在一起算就是:-1.5*0.082*0.4 = -0.0492,如果我们把学习率设置为1,那么w(11)的修改量为:-1*(1)*(-0.0492) = 0.0492,修改后的W(11)值就是2.0+0.0492=2.0492。

我们看到一次变动的步伐很小,但实际应用时,上面的修改步骤会进行成千上万次,于是最后W(11)有可能会产生很明显的变化。从下一节开始,我们就进入到使用python编码实现我们这几节所讲的算法理论。

更多技术信息,包括操作系统,编译器,面试算法,机器学习,人工智能,请关照我的公众号:


手算梯度下降法,详解神经网络迭代训练过程_第20张图片
这里写图片描述

你可能感兴趣的:(手算梯度下降法,详解神经网络迭代训练过程)