神经网络算法开篇——逻辑回归

准备做一系列神经网络算法,适合初学入门,是一种笔记的形式,由浅入深,参考吴恩达老师视频。

1 神经网络算法与大脑神经元的关系

神经网络算法开篇——逻辑回归_第1张图片

图片来源网络 

说起神经网络算法,你可能都听过,很神秘,甚至会和大脑神经元联系在一起,但我想说的是他们之间不能说没有联系,只能说毫无关联。

当前这都是一些玩笑话,神经网络算法初期受到大脑神经元的启发,但发展到现在没有谁能清楚明白的说明大脑是怎样工作的,所以强说他们之间的关系是毫无根据的,特别是初学者强行要把神经网络算法与大脑神经元联系在一起,除了增加一层神秘感,还有的就是增加学习难度。

如果你想学习神经网络算法,大可不必去了解神经元的任何知识,首要学习的是简单的逻辑回归。

神经网络算法开篇——逻辑回归_第2张图片神经网络算法开篇——逻辑回归_第3张图片

2 逻辑回归

logistic回归又称logistic回归分析,是一种广义的线性回归分析模型。

神经网络算法开篇——逻辑回归_第4张图片

图1 

 这是一个浅层的2层神经网络,图中每一个圆圈代表一个计算单元,具体如下: 

神经网络算法开篇——逻辑回归_第5张图片

图2 

[x1 x2 x3]从上一层输入经过加权求和、\sigma函数激活输出a,公式如下: 

z=x_{1}*w_{1}+x_{2}*w_{2}+x_{3}*w_{3}+b

a=\sigma (z)

其中激活函数σ常用有sigmoid函数,tanh函数,ReLU函数。

图1中每个计算单位从左到右依次经过图2一遍计算过程为一次前向传播。

3  常用激活函数

常用有sigmoid函数,tanh函数,ReLU函数。

3.1 sigmoid

公式

g(z)=1/(1+e^{-z})

图形

神经网络算法开篇——逻辑回归_第6张图片

 求导

g(z)=g(z)(1-g(z))

3.2 tanh

公式

g(z)=(e^{z}-e^{-z})/(e^{z}+e^{-z})

图形

神经网络算法开篇——逻辑回归_第7张图片

求导

{g}'(z)=1-g(z)^{2}

3.3 ReLU

公式

g(z)=\left\{\begin{matrix} z, z>0 \\ 0 , z<0\end{matrix}\right.

图形

神经网络算法开篇——逻辑回归_第8张图片

求导

{g}'(z)=\left\{\begin{matrix} 1, z>0 \\ 0 , z<0\end{matrix}\right.

3.4 ReLU改进

公式

g(z)=\left\{\begin{matrix} z\, , z>0 \\ az , z<0\end{matrix}\right. 

图形

神经网络算法开篇——逻辑回归_第9张图片

导数

{g}'(z)=\left\{\begin{matrix} 1, z>0 \\ a , z<0\end{matrix}\right.

你可能感兴趣的:(deep,learning,机器学习,逻辑回归,深度学习,神经网络,算法)