机器学习 第五章 神经网络

    • 5.1 神经元模型
    • 5.2 感知机与多层网络
    • 6.3 误差逆传播算法
    • 5.4 全局最小与局部极小
    • 5.5 其他常见神经网络
    • 5.6 深度学习

5.1 神经元模型

神经网络中最基本的单位是神经元模型,在生物神经网络中,每个神经元与其他神经元相连,当“兴奋”时,就会向相连的神经元发送化学物质,改变神经元内电位,若超过了某个“阈值”,那么它就会被激活,即“兴奋”起来。
M-P神经元模型:

机器学习 第五章 神经网络_第1张图片

“激活函数”可以处理输入信号以产生神经元的输出

典型的神经元激活函数:

机器学习 第五章 神经网络_第2张图片

5.2 感知机与多层网络

感知机由两层神经元组成,输入层接受外界信号给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”。

机器学习 第五章 神经网络_第3张图片

感知机能容易的实现与,或,非运算。

感知机只有输出层神经元进行激活函数处理,即只拥有一层神经元,学习能力有限。感知机能解决的与或非均为线性可分问题,但不能解决异或这种简单的非线性可分问题

机器学习 第五章 神经网络_第4张图片

若要解决,就需要使用多层功能神经元

机器学习 第五章 神经网络_第5张图片

机器学习 第五章 神经网络_第6张图片

6.3 误差逆传播算法

训练多层网络,误差逆传播(BP)是最杰出的代表,是迄今最成功的神经网络学习算法。
BP算法不仅可用于多层前馈神经网络,还可用于其他类型的神经网络。

机器学习 第五章 神经网络_第7张图片

这里写图片描述

机器学习 第五章 神经网络_第8张图片

BP 算法工作流程:

机器学习 第五章 神经网络_第9张图片

BP算法的目标是要最小化训练集D的累积误差

这里写图片描述

根据图5.8如果类似的推导出基于累计误差最小化的更新规则,就得到了累计误差逆传播算法,
标准BP算法每次针对单个训练样例更新权值与阈值。累计BP算法其优化目标是最小化整个训练集上的累计误差。在很多任务中,累计误差下降到一定程度后,进一步下降会非常缓慢,这是标准BP算法往往会获得较好的解,尤其当训练集非常大时效果更明显。

这里写图片描述

由于强大的表示能力,BP神经网络经常遭遇过拟合,训练误差持续降低,但测试误差却可能上升。有两种策略可以缓解。第一是 早停。第二是 正则化。

5.4 全局最小与局部极小

机器学习 第五章 神经网络_第10张图片

机器学习 第五章 神经网络_第11张图片

机器学习 第五章 神经网络_第12张图片

此外,遗传算法也常用来训练神经网络以更好地逼近全局最小。

5.5 其他常见神经网络

RBF网络

机器学习 第五章 神经网络_第13张图片

这里写图片描述

ART网络

机器学习 第五章 神经网络_第14张图片

机器学习 第五章 神经网络_第15张图片

SOM网络

机器学习 第五章 神经网络_第16张图片

结构:

机器学习 第五章 神经网络_第17张图片

SOM训练目标:为每个输出层神经元找到合适的权向量以保持拓扑结构

级联相关网络

将网络的结构也当做学习的目标之一,往往在训练过程中找到适合数据的网络结构

机器学习 第五章 神经网络_第18张图片

与一般的前馈神经网络相比,级联相关网络无需设置网络层数,隐层神经元数目,且训练速度较快,但数据较小时容易陷入过拟合。

Elman网络

机器学习 第五章 神经网络_第19张图片

Bolyzmann机

这里写图片描述

机器学习 第五章 神经网络_第20张图片

机器学习 第五章 神经网络_第21张图片

5.6 深度学习

典型的深度学习模型就是很深层的神经网络。

这里写图片描述

另一种节省开销的策略是”权共享“,即让一组神经元使用相同的权连接。这个策略在卷积神经网络中发挥的重要作用,以CNN进行手写数字识别任务为例,如图

机器学习 第五章 神经网络_第22张图片

机器学习 第五章 神经网络_第23张图片

机器学习 第五章 神经网络_第24张图片

你可能感兴趣的:(机器学习)