neuron
:神经元
activation
:激活
layer
:层(一组神经元)
hidden layer
:隐藏层
output layer
:输出层
数据量增大时,传统机器学习、小型神经网络、中型神经网络、大型神经网络的的性能变化,在大数据的今天一定要学深度学习
神经网络一层(layer
)由一个或者多个神经元构成
每一层的输出值也称为激活值
(activate
)
第一层的输入特征也被称为输入层
最后一层为输出层
在构建大型神经网络时,我们不可能手动将特征
连接到神经元,一般是下图这样
也可以是下图这样
中间的这一层三个神经元的也被称为隐藏层
通常说几层神经网络时,包括最后一层输出层
,但是不包括第0层输入层
第i层的输出的激活值写做 a [ i ] a^{[i]} a[i]
所以上图中layer 4省略的为: a 2 [ 3 ] = g ( w [ 3 ] ∗ a [ 2 ] + b [ 3 ] ) a^{[3]}_2=g(w^{[3]}*a^{[2]}+b^{[3]}) a2[3]=g(w[3]∗a[2]+b[3])
前向传播
:神经元产生激活值传播给向下一层的神经元,作为下一层神经元输入值
layer 1有25个神经元,layer 2有15个神经元,layer 3 有一个神经元
简化代码:
进一步简化代码:
使用Tensorflow
或者Pytorch
能简便构建和训练神经网络,不过不能只会用,要弄懂这些代码在干些什么!
上图为layer n的神经元,接受layer n-1的激活值 x 1 , x 2 , . . . , x n x_1,x_2,...,x_n x1,x2,...,xn乘于权重加上偏置 b b b,传入激活函数中,得到这个神经元的激活值 a a a
左侧代码为单个隐藏层的实现代码,右侧为整个四层的神经网络实现代码
将左侧的代码中的输入数据 X X X和偏置 b b b都改为矩阵的形式,再利用矩阵相关加速运算
训练模型的步骤:
1定义模型
2.定义损失函数
3.最小化损失函数
中间为手写字体识别只包含0,1,的二分类,使用sigmoid激活函数,使用二元交叉熵作为损失函数
右侧为在Tensorflow中训练这个模型的步骤
ReLU全名Rectified Linear Unit
,意思是修正线性单元
。
ReLU函数其实是分段线性函数
,把所有的负值都变为0,而正值不变,这种操作被成为单侧抑制
ReLU激活函数可写为: R e L U ( z ) = m a x ( 0 , z ) ReLU(z)=max(0,z) ReLU(z)=max(0,z)
Sigmoid激活函数可写为: S i g m o i d ( z ) = 1 1 + e − z Sigmoid(z)=\frac{1}{1+e^{-z}} Sigmoid(z)=1+e−z1
线性激活函数可写为: g ( z ) = z g(z)=z g(z)=z
tanh激活函数可写为: g ( z ) = 1 − e − 2 x 1 + e − 2 x g(z)=\frac{1-e^{-2x}}{1+e^{-2x}} g(z)=1+e−2x1−e−2x
可以为神经网络中的神经元选择不同的激活函数
输出层
的激活函数二分类问题选择Sigmoid激活函数
作为输出层的激活函数
回归问题选择线性激活函数
作为输出层的激活函数
如果回归问题结果非负可以选择ReLU激活函数
作为输出层的激活函数
选择输出层
的激活函数时,通常根据输出的预测值 y ^ \hat{y} y^来选择
隐藏层
的激活函数ReLU激活函数
是现在神经网络中隐藏层最常用的激活函数
如果神经网络使用的激活函数都是线性的,那么神经网络就只是线性回归模型,神经网络无法拟合比线性回归更复杂的模型
Softmax
是Sigmoid
的推广,可以进行多分类任务
Softmax 激活函数:
将输入向量的值映射到(0,1)这个区间,转化为概率的形式,且转化后向量元素和为1,公式为:
向 量 A = [ a 1 , a 2 , a 3 . . . a 4 ] T s o f t m a x ( a i ) = e a i ∑ j = 1 k e a i 例 如 : 假 设 向 量 a = [ 3.2 , 5.1 , − 5.7 ] T 经 过 函 数 运 算 后 a s o f t m a x = [ 0.127 , 0.87 , 0.003 ] T 向量A=[a_1,a_2,a_3...a_4]^T\\ softmax(a_i)=\frac{e^{a_i}}{\sum_{j=1}^ke^{a_i}}\\\\ 例如: 假设向量a=\left[\ \ 3.2,\ \ 5.1,-5.7\ \ \right]^T\\ 经过函数运算后a_{softmax}=\left[\ \ 0.127,\ \ 0.87,\ \ 0.003\ \ \right]^T\\ 向量A=[a1,a2,a3...a4]Tsoftmax(ai)=∑j=1keaieai例如:假设向量a=[ 3.2, 5.1,−5.7 ]T经过函数运算后asoftmax=[ 0.127, 0.87, 0.003 ]T
可以看出softmax激活函数
的特性:让小的值变得很小,最大的值变得更大,使得分类效果更加明显更加利于分类
突出了最大值
多标签分类,与一般的多分类问题不同,一般的多分类问题,如手写字识别,其真正的标签只有一个,而多标签分类,如下图的人、汽车、公共汽车识别,识别出的结果可能有多个
如何解决多分类问题:以上图为例子
1.可以将其视为三个完全独立的机器学习问题,需要三个神经网络分别检测
2.训练一个神经网络同时检测这人、汽车、公共汽车
w j = w j − α ∂ ∂ w j J ( W ⃗ , b ) w_j=w_j-\alpha\frac{\partial}{\partial w_j}J(\vec{W},b) wj=wj−α∂wj∂J(W,b)
Adam算法,当学习率过小时可以自动增加 α \alpha α使得梯度下降的速度更快;
当学习率过大时,也可以使得学习率自动更小。
Adam算法可以自动调整学习率
Adam算法没有使用单一的全局学习率,对模型的每个参数使用不同的学习率如下图: