深度学习基础(一)神经网络

由生物学基础我们知道,神经网络是有无数个神经元和连接这些神经元的突触构成的,某个神经元接受一系列的电信号刺激,当这个刺激达到一定的阀值后,这个神经元就被激活,通过突触将某些信息传递给下一个神经元。每个神经元可以看成是一个激活函数(activation function),输入值为强度大小不同的电刺激,输出值为传递给下一个神经元的刺激。

我们先来看神经网络最简单的形式,神经元。

深度学习基础(一)神经网络_第1张图片

输入:

x1,x2,x3 和 +1

输出:

\textstyle h_{W,b}(x) = f(W^Tx) = f(\sum_{i=1}^3 W_{i}x_i +b)

最常见的激活函数形式有:

 f(z) = \frac{1}{1+\exp(-z)}.                           

深度学习基础(一)神经网络_第2张图片

f(z) = \tanh(z) = \frac{e^z - e^{-z}}{e^z + e^{-z}},


深度学习基础(一)神经网络_第3张图片

神经网络由多个神经元组成:

深度学习基础(一)神经网络_第4张图片

为了方便表示,我们定义一些符号:

nl:神经网络的层数  Ll为输入层   L_{n_l} 为输出层

W^{(l)}_{ij}  :是第l层的第j个单元与第l+1层的第i个单元之间的参数

 a^{(l)}_i   :表示的是第l层的第i个单元被激活(激活函数的输出值) l=1时候代表输入值x

z^{(l)}_i :表示的是第l层的第i个单元的所有输入值

\textstyle z_i^{(2)} = \sum_{j=1}^n W^{(1)}_{ij} x_j + b^{(1)}_i

a^{(l)}_i = f(z^{(l)}_i).

于是我们有:

深度学习基础(一)神经网络_第5张图片


将z向量化表示后:

深度学习基础(一)神经网络_第6张图片

最后化简得到:

\begin{align}z^{(l+1)} &= W^{(l)} a^{(l)} + b^{(l)}   \\a^{(l+1)} &= f(z^{(l+1)})\end{align}

这个就是所谓的向前传导(forward propagation),可以理解为刺激由左往右逐层传递,最后输出一个值。


参考资料http://deeplearning.stanford.edu/wiki/index.php/UFLDL_Tutorial

你可能感兴趣的:(深度学习基础(一)神经网络)