9.8 自主驾驶
笔记内容
九、神经网络的学习(Neural Networks: Learning)
9.1 代价函数
假设神经网络的训练样本有 m 个,每个包含一组输入 x 和一组输出信号 y,L 表示神经网络层数,Si表示每层的 neuron 个数( 表示输出层神经元个数), 代表最后一层中处理单元的个数。 (?????)
将神经网络的分类定义为两种情况:二类分类和多类分类,
二类分类:=1, y=0 or 1 表示哪一类;
K 类分类:=K, yi = 1 表示分到第 i 类;(K>2)
我们回顾逻辑回归问题中我们的代价函数为:
在逻辑回归中,我们只有一个输出变量,又称标量(scalar),也只有一个因变量 y;但是在神经网络中,我们可以有很多输出变量,我们的 hθ(x)是一个维度为 K 的向量,并且我们训练集中的因变量也是同样维度的一个向量,因此我们的代价函数会比逻辑回归更加复杂一些,为:
这个看起来复杂很多的代价函数背后的思想还是一样的,我们希望通过代价函数来观察算法预测的结果与真实情况的误差有多大,唯一不同的是,对于每一行特征,我们都会给出 K 个预测,基本上我们可以利用循环,对每一行特征都预测 K 个不同结果,然后在利用循环在 K 个预测中选择可能性最高的一个,将其与 y 中的实际数据进行比较。
归一化的那一项只是排除了每一层 θ0 后,每一层的 θ 矩阵的和。最里层的循环 j 循环所有的行(由 sl +1 层的激活单元数决定),循环 i 则循环所有的列,由该层(sl 层)的激活单元数所决定。即:hθ(x)与真实值之间的距离为每个样本-每个类输出的加和,对参数进行正则化(regularization) 的 bias 项处理所有参数的平方和。
9.2 反向传播算法
之前在计算神经网络预测结果的时候我们采用了一种正向传播方法,我们从第一层开始正向一层一层进行计算,直到最后一层的 hθ(x)。
现在,为了计算代价函数的偏导数 ,我们需要采用一种反向传播算法,也就是首先计算最后一层的误差,然后再一层一层反向求出各层的误差,直到倒数第二层。 以一个例子来说明反向传播算法。
假设我们的训练集只有一个实例,我们的神经网络是一个四层的神经网络,其中 K=4,SL=4,L=4:
前向传播算法:我们从最后一层的误差开始计算,误差是激活单元的预测 与实际值 之间的误差(k=1:K)。
其中 g'(z(3))是 S 形函数的导数 ,。而 则是权重导致的误差的和 。下一步是继续计算第二层的误差:
因为第一层是输入变量,不存在误差。我们有了所有的误差的表达式后,便可以计算代价函数的偏导数了,假设 λ=0,即我们不做任何归一化处理时有:
重要的是清楚地知道上面式子中上下标的含义:
l 代表目前所计算的是第几层
j 代表目前计算层中的激活单元的下标,也将是下一层的第 j 个输入变量的下标。
i 代表下一层中误差单元的下标,是受到权重矩阵中第 i 行影响的下一层中的误差单元的下标。
如果我们考虑 归一化 处理,并且我们的训练集是一个特征矩阵而非向量。在上面的特殊情况中, 我们需要计算每一层的误差单元来计算代价函数的偏导数。在更为一般的情况中,我们同样需要计算每一层的误差单元,但是我们需要为整个训练集计算误差单元,此时的误差单元也是一个矩阵,我们用 来表示这个误差矩阵 , 第 l 层的第 i 个激活单元受到第 j 个参数影响而导致的误差。
我们的算法表示为: 即首先 用正向传播方法计算出每一层的激活单元 ,利用训练集的结果与神经网络预测的结果求出最后一层的误差,然后利用该误差运用反向传播法计算出直至第二层的所有误差 。
在求出了 之后,我们便可以计算代价函数的偏导数了,计算方法如下:
在 Octave 中,如果我们要使用 fminuc 这样的优化算法来求解求出权重矩阵,我们需要将矩阵首先展开成为向量,在利用算法求出最优解后再重新转换回矩阵。假设我们有三个权重矩阵,Theta1,Theta2 和 Theta3,尺寸分别为 10*11,10*11 和 1*11,下面的代码可以实现这样的转换:
9.3 反向传播算法的直观理解
在上一段视频中,我们介绍了反向传播算法,对很多人来说,当第一次看到这种算法时,第一印象通常是,这个算法需要那么多繁杂的步骤,简直是太复杂了,实在不知道这些步骤,到底应该如何合在一起使用。就好像一个黑箱,里面充满了复杂的步骤。做过编程练习的同学应该可以感受到这些练习或多或少能帮助你,将这些复杂的步骤梳理了一遍,巩固了反向传播算法具体是如何实现的,这样你才能自己掌握这种算法。
在这段视频中,我想更加深入地讨论一下反向传播算法的这些复杂的步骤,并且希望给你一个更加全面直观的感受,理解这些步骤究竟是在做什么。但可能你即使看了这段视频,你还是觉得反向传播依然很复杂,依然像一个黑箱,太多复杂的步骤,这也是没关系的。为了更好地理解反向传播算法,我们再来仔细研究一下前向传播的原理:
前向传播算法:
反向传播算法:
9.4 实现注意:展开参数
在上一段视频中,我们谈到了怎样使用 反向传播算法计算代价函数的导数 。在这段视频中,我想快速地向你介绍一个细节的实现过程,怎样把你的 参数从矩阵展开成向量 ,以便我们在高级最优化步骤中的使用需要。
9.5 梯度检验
当我们对一个较为复杂的模型(例如神经网络)使用梯度下降算法时,可能会存在一些不容易察觉的错误,意味着虽然代价看上去在不断减小,但最终的结果可能并不是最优解。为了避免这样的问题,我们采取一种叫做 梯度的数值检验(Numerical Gradient Checking)方法。这种方法的思想是通过 估计梯度值来检验我们计算的导数值是否真的是我们要求的 。
对梯度的估计采用的方法是在代价函数上沿着切线的方向选择离两个非常近的点然后计算两个点的平均值用以估计梯度。即对于某个特定的 θ,我们计算出在 θ-ε 处和 θ+ε 的代价值(ε 是一个非常小的值,通常选取 0.001),然后求两个代价的平均,用以估计在 θ 处的代价值。
当 θ 是一个向量时,我们则需要对偏导数进行检验。因为代价函数的偏导数检验 只针对一个参数的改变 进行检验,下面是一个只针对 θ1 进行检验的示例:
最后我们还需要对通过 反向传播方法 计算出的偏导数进行检验。
根据上面的算法,计算出的偏导数存储在矩阵 中。检验时,我们要将该矩阵展开成为向量,同时我们也将 θ 矩阵展开为向量,我们针对每一个 θ 都计算一个近似的梯度值,将这些值存储于一个近似梯度矩阵中,最终将得出的这个矩阵同 进行比较。
9.6 随机初始化
任何优化算法都需要一些初始的参数。到目前为止我们都是初始所有参数为 0,这样的初始方法对于逻辑回归来说是可行的,但是对于神经网络来说是不可行的。如果我们令所有的初始参数都为 0,这将意味着我们第二层的所有激活单元都会有相同的值。同理,如果我们初始所有的参数都为一个非 0 的数,结果也是一样的。
我们通常初始参数为正负 ε 之间的随机值,假设我们要随机初始一个尺寸为 10×11 的参数矩阵,代码如下:
Theta1 = rand(10, 11) * (2*eps) – eps
9.7 小结
使用神经网络时的步骤:
网络结构
第一件要做的事是 选择网络结构 ,即决定选择多少层以及决定每层分别有多少个单元。
第一层的单元数即我们 训练集的特征数量 。
最后一层的单元数是我们训练集的 结果的类的数量 。
如果隐藏层数大于 1,确保每个隐藏层的单元个数相同 ,通常情况下隐藏层单元的个数越多越好。我们真正要决定的是隐藏层的层数和每个中间层的单元数。
训练神经网络
1. 参数的随机初始化