机器学习系列12:反向传播算法

当我们要运用高级算法进行梯度下降时,需要计算两个值,代价函数代价函数的偏导数

代价函数我们之前已经知道怎么求了,现在只需要求代价函数的偏导数即可。

 

采用如下方法,先进行前向传播算法,然后再进行反向传播算法(Backpropagation Algorithm),反向传播算法与前向传播算法方向相反,它用来求代价函数的偏导数。具体过程看下图:

用 δ 作为误差,计算方法为:

 

有时我们在运用反向传播算法时会遇到 bug,而且这个 bug 还不容易被发现,因此我们就需要用梯度检验(Gradient Checking)。这种算法的思想就是运用导数估计值去对导数真实值进行检验,去检查反向传播算法运行时是否存在 bug。

 

都知道,函数在某点的导数近似于该点相邻的两点所连直线的斜率。

在函数图像上蓝色线代表该点的导数,红色线代表导数的近似值:

在向量中进行计算就需要对向量中每一个元素都计算一遍,这就需要进行一个循环,而这个循环会非常慢。

循环之后得到的结果与运用反向传播得到的结果进行比较,如果两个结果近似相等,那我们就可以认为反向传播算法运行正常,之后就可以关闭梯度检验,继续运行反向传播算法。因为梯度检验的循环导致运行速度太慢了。

 

 

总结

 

在训练一个完整的神经网络之前,我们首先要选择一个神经网络结构,也就是选择一个神经元之间关系的模型,通常会是以下这几种情况:

一般地来讲,最左边这种隐藏层只有一层的结构是最常见的,也是使用最多的。

 

在选好神经网络结构后,就可以训练神经网络模型了,一共有 6 个步骤:

1.随机初始化权重;

2.运用前向传播算法对每一个输入值 x^((i)) 得到输出值;

3.计算代价函数;

4.运用反向传播算法计算代价函数的偏导数;

5.使用梯度检验确定反向传播算法是否正常工作,如果检验没有问题,就要关闭梯度检验,因为梯度检验算法运行速度非常慢;

6.使用高级优化算法去进行梯度下降,使得代价函数最小化,从而得到参数向量。

 

 

ps. 本篇文章是根据吴恩达机器学习课程整理的学习笔记。如果想要一起学习机器学习,可以关注微信公众号「SuperFeng」,期待与你的相遇。

你可能感兴趣的:(机器学习系列,机器学习,神经网络,反向传播算法,梯度检验,机器学习笔记)