深度学习笔记(二)——感知器·补充知识点(算法概念)

文章目录

  • 线性可分与线性不可分问题
  • step激活函数
  • sigmoid激活函数
  • 误差修正学习法
  • 误差反向传播算法
    • 梯度下降法(最值下降)
    • 误差反向传播算法简提

                         QQ:3020889729                                                                                 小蔡

线性可分与线性不可分问题

线性可分问题
深度学习笔记(二)——感知器·补充知识点(算法概念)_第1张图片
线性不可分问题
深度学习笔记(二)——感知器·补充知识点(算法概念)_第2张图片

step激活函数

深度学习笔记(二)——感知器·补充知识点(算法概念)_第3张图片
对应一般表达式: 即,输入对应的输出要么是0,要么是1
深度学习笔记(二)——感知器·补充知识点(算法概念)_第4张图片

sigmoid激活函数

sigmoid激活函数
f ( u ) = 1 1 + e − u f\left( u \right) = \frac{1}{{1 + {{\rm{e}}^{ - u}}}} f(u)=1+eu1
u = ∑ w i x i u = \sum {w_i}{x_i} u=wixi i = 1 , 2 , 4 ⋯ N {\rm{i}} = 1,2,4 \cdots N i=1,2,4N

u u u越大, f ( u ) f\left( u \right) f(u)的值越接近1。
深度学习笔记(二)——感知器·补充知识点(算法概念)_第5张图片

误差修正学习法

概念:
将输入对应的实际输出 y y y于期望输出 r r r进行比较,计算误差,进而调整权重 ω i {\omega _i} ωi和阈值 h h h

方法基本表示如下:

修正参数 表达形式
权重 ω i ← ω i  +  α ( r  -  y ) x i {\omega _i} \leftarrow {\omega _i}{\text{ + }}\alpha (r{\text{ - }}y){x_i} ωiωi + α(r - y)xi
阈值 h ← h − α ( r − y ) h \leftarrow h - \alpha \left( {r - y} \right) hhα(ry)
α \alpha {} α 确定连接权重调整值 Δ ω i \Delta {\omega _i} Δωi的参数(修正率或者学习率)

运行方式讲解:(①实际输出与期望输出不相等的情况与②相等的情况两种运行方式)

  1. y y y= r r r时, ω i {\omega _i} ωi h h h均不变。
  2. y y y!= r r r时, ω i {\omega _i} ωi h h h发生如下变化:

未激活状态: y y y=0, r r r=1

参数 趋势
h h h 减小
x i {x_i} xi=1的连接权重 ω i {\omega _i} ωi 增大
x i {x_i} xi=0的连接权重 ω i {\omega _i} ωi 不变

激活过度状态: y y y=1, r r r=0

参数 趋势
h h h 增大
x i {x_i} xi=1的连接权重 ω i {\omega _i} ωi 减小
x i {x_i} xi=0的连接权重 ω i {\omega _i} ωi 不变

误差反向传播算法

梯度下降法(最值下降)

在误差反向传播算法中,采用梯度下降算法来实现权重的调整——即 ∇ u \nabla u u
概念:
该算法通过求解当前 u u u的梯度(偏导),得到当前最大变化率(理解成曲线的最大斜率也可以)。然后根据所求的梯度值,来调整权重—— Δ ω = − η α E α w i \Delta \omega = - \eta \frac{{\alpha E}}{{\alpha {w_i}}} Δω=ηαwiαE

误差反向传播算法简提

简单讲一下,该算法的思路——具体的算法过程后期整理后补上。

误差反向传播算法起始于多层感知机,后来被用到卷积神经网络等多层网络结构中——所以在这个算法过程中,误差很重要。误差在最后的输出层计算得出(一般采用最小二乘法求误差),然后反过来往下传递,进行相关参数( ω i {\omega _i} ωi h h h)修正。
深度学习笔记(二)——感知器·补充知识点(算法概念)_第6张图片
补充:
由输出层往下传递误差E时,计算的权重变化值存在以下情况:
下一层的权重计算会受到上一层权重变化值影响。

你可能感兴趣的:(深度学习笔记)