Task04:详读西瓜书+南瓜书第5章

目录

  • 5.1 神经元模型
    • M-P精神元模型
    • 激活函数
  • 5.2 感知机
    • 感知机(模型)
    • 损失函数(策略)
    • 随机梯度下降法(算法)
  • 5.3 误差逆传播算法(BP算法)
    • 神经网络
    • BP算法
    • 全局最小与局部极小

5.1 神经元模型

Task04:详读西瓜书+南瓜书第5章_第1张图片
这是生物上神经元的一个作用。

M-P精神元模型

1943年,Miculloch和Pitts受到生物神经网络启发,将生物上的神经元情形抽象,提出了机器学习中的“M-P神经元模型”。如图所示
Task04:详读西瓜书+南瓜书第5章_第2张图片
Task04:详读西瓜书+南瓜书第5章_第3张图片

①这里的xi就表示来自第i个神经元的输入。这个神经元会收到n个来自其他神经元传递过来的输入信号。与前面线性回归中一个样例有n维属性相同。
②每一个输入进来的信号都有相应的权重w,因此输入进来n个输入的时候。就会计算出一个加权和Task04:详读西瓜书+南瓜书第5章_第4张图片

③神经元会有一个阈值。加权和与阈值比较Task04:详读西瓜书+南瓜书第5章_第5张图片

④通过激活函数处理产生神经元的输出,也就是f()

激活函数

M-P神经元模型最理想的激活函数是阶跃(sgn)函数,它将神经元输入值与阈值的差值映射为输出值“0”或“1”。

然而阶跃函数不连续,不光滑,故在M-P神经元模型中,实际是采用Sigmoid函数来作为激活函数的, Sigmoid函数将较大范围内变化的输入值挤压到 (0,1) 输出值范围内,所以也称为挤压函数(squashing function)。

事实上在对数几率回归那里我们也是使用sigmoid函数代替了阶跃函数。
它们的图形如图所示
Task04:详读西瓜书+南瓜书第5章_第6张图片

5.2 感知机

感知机是由两层神经元组成的。
输入层接收外界输入信号后传递给输出层。
输出层是一个M-P神经元。
显然,输出层会输出激活函数处理后的y值
Task04:详读西瓜书+南瓜书第5章_第7张图片

感知机(模型)

感知机模型:使用的激活函数是sgn(阶跃函数)的神经元
显然,其结果会输出0或1,属于分类任务Task04:详读西瓜书+南瓜书第5章_第8张图片

损失函数(策略)

Task04:详读西瓜书+南瓜书第5章_第9张图片
我们希望错误集合的值最小。也就是求损失函数的最小值。
Task04:详读西瓜书+南瓜书第5章_第10张图片

随机梯度下降法(算法)

区分梯度下降法和随机梯度下降法
梯度下降法;是对所有样本求梯度
随机梯度下降法:是随机挑选一个样本进行梯度下降
感知机学习算法使用的是随机梯度下降法
步骤1:首先对损失函数求偏导,得
Task04:详读西瓜书+南瓜书第5章_第11张图片
步骤2:一次随机选取一个误分类点使其梯度下降。更新权重:
Task04:详读西瓜书+南瓜书第5章_第12张图片
相应地, 中的某个分量 的更新公式即为西瓜书公式(5.2),最终解出来的 通常不唯 一。
在这里插入图片描述

5.3 误差逆传播算法(BP算法)

神经网络

Task04:详读西瓜书+南瓜书第5章_第13张图片
Task04:详读西瓜书+南瓜书第5章_第14张图片

BP算法

Task04:详读西瓜书+南瓜书第5章_第15张图片
步骤:
1.计算输出层误差
2.误差反向传播
3.更新权重值和阈值Task04:详读西瓜书+南瓜书第5章_第16张图片

全局最小与局部极小

局部极小:参数空间中的某个点,其领域点的误差函数值均不小于该点的函数值;
全局最小:参数空间中所有点的误差函数值均不小于该点的误差函数值;
实际上我们求得的都是局部最小点。求出的该点也无法直接判断。而是通过在测试集中进行测试而观察该点的情况。
Task04:详读西瓜书+南瓜书第5章_第17张图片

你可能感兴趣的:(吃瓜教程,算法,机器学习,神经网络)