深度学习与神经网络学习笔记(四)

六、神经网络概览

1、整体神经网络的表示

  在之前的学习中我们了解到了神经网络的最简单结构,接下来的内容就是把这样一个简单的神经网络拓展成一个很大的神经网络结构的过程。我们以前看到的神经网络是这样的:

深度学习与神经网络学习笔记(四)_第1张图片

  而中间的那个小圆点就是 y^ 的一个计算过程(就是下图的a):

深度学习与神经网络学习笔记(四)_第2张图片

  现在我们将会拓展到更大的一个神经网络中,类似于:

深度学习与神经网络学习笔记(四)_第3张图片

   x1x3 表示输入层,输入层后面的三个小圆点表示一个层,我们现在定义它为第一层(隐藏层),而输入层之后的那个小圆点就是第二层(输出层),其中每一个小圆点都包含了一个2图中的过程。第二层的每个小圆点所计算出来的 y^ 值都是下一层的x值,就这样一层一层地叠加起来的,这个图中的神经网络,我们称为双层神经网络,而这样的话我们就要使用一种上标来表示其中的层数:

深度学习与神经网络学习笔记(四)_第4张图片

  这也是为了能够把层数和其中的样本数量区分开来,上图就是两层的神经网络的计算过程,其中也包括了反向传播,也就是求导过程,但是两层的网络的求导过程或许就比较麻烦,我们可以采用循环的方式来让机器完成,这里就不给出了,后面会细讲的。

2、神经网络的输出

  下面我们就细讲填一下神经网络是怎么向量化输入和输出的,我们也主要是通过吴老大的笔记来了解:

深度学习与神经网络学习笔记(四)_第5张图片

  这里我们可以看出吴老大讲的是真的很细,他把每个小圆点的内容都写了出来,图中 z[1]1z[1]4 的表达式就是小圆点中的 z(x) 函数的具体求解过程,而其中的 w[1]1w[1]4 都分别表示一个 31 的矩阵(因为这里每个 w 都要对应三个 x 的输入变量,所以分别要三个才能满足要求),不同的是 b 参数是一个 31 的矩阵(因为 b 参数是一个常数项,所以不用针把每个参数的常数项分开来计算,统一起来可能会更加简单),我们可以看出下面蓝色笔写的表达式是表示一个 43 的参数w的矩阵乘以 31 的x变量的矩阵再加上一个 41 的参数 b 的矩阵,最后得到 z 的矩阵,而通过激活函数,我们就可以通过 z 矩阵获得 a 矩阵的值。

  这里还要说一句就是每个符号的上标表示的是神经网络的层数,而下标表示的是每层对应的第几个变量。这里最后求出来的 y^ 就是 a[2] ,它就是一个对应的数字,而不是矩阵了。

  这是重点:但是这只是一个样本的神经网络图,而如果我们要训练整个网络的话,我们还要把所有样本向量化,然后统一求解,这类似于上图的一个过程,而这个过程就是把 x 变成了一个 3m 的矩阵(m为样本数量),求出来的 z[1] a[1] 就变成了一个 4m 的矩阵,而 z[2] a[2] y^ )变成了一个 1m 的矩阵。

深度学习与神经网络学习笔记(四)_第6张图片

深度学习与神经网络学习笔记(四)_第7张图片

  这是吴老大的笔记,大概意思就是我上面写的那段文字,看哪个看得懂就看哪个。

你可能感兴趣的:(神经网络和机器学习)