机器学习之神经网络学习及其模型

1、神经元模型

历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。
机器学习之神经网络学习及其模型_第1张图片
神经网络最基本的成分是神经元模型
机器学习之神经网络学习及其模型_第2张图片其中,W表示的是向量,代表的是权重,函数f称为激活函数,

  • 其中f()我们一般选择sigmoid函数(这里选择对数几率函数)
  • 对数几率函数相较于阶跃函数优点:连续光滑,任意阶可导
    机器学习之神经网络学习及其模型_第3张图片

2、感知机与多层网络

感知器的例子
城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。
他决定考虑三个因素。

天气:周末是否晴天?
同伴:能否找到人一起去?
价格:门票是否可承受?

这就构成一个感知器。上面三个因素就是外部输入,最后的决定就是感知器的输出。如果三个因素都是 Yes(使用1表示),输出就是1(去参观);如果都是 No(使用0表示),输出就是0(不去参观)。
机器学习之神经网络学习及其模型_第4张图片
单层感知机:有两层神经元组成,只有一层M-P神经元的网络模
机器学习之神经网络学习及其模型_第5张图片单层感知机学习参数的调整
机器学习之神经网络学习及其模型_第6张图片单层感知机只能解决线性可分的问题,对于非线性可分问题,需要考虑使用

多层功能神经元

多层前馈神经网络:

  1. 多层:有隐含层
  2. 前馈:不存在信号的逆向传播,不存在环和回路
  3. 不存在同层连接,不存在跨层连接
    机器学习之神经网络学习及其模型_第7张图片

3、误差逆传播算法

BP算法(误差逆传播算法)

机器学习之神经网络学习及其模型_第8张图片
1.初始化
2.反复调整(信号向前传播->误差逆向传播->权值与阈值更新)

BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含层到输出层的权重和偏置,输入层到隐含层的权重和偏置。

训练流程图
机器学习之神经网络学习及其模型_第9张图片
BP算法可能出现的问题
1.初始化问题:

初始化为不同的小随机数
不同:保证网络可以学习
小随机数:防止过大提前进入饱和状态
如果跌入局部最优,就要重新初始化

2.步长设置问题:

学习率(0到1之间)控制着算法的每一轮迭代中更新的步长
若太大,容易发生振荡,若太小,收敛速度缓慢。

3.结构学习问题:

  • 输入层个数: 若给点属性为连续值,则等于训练数据的维度 若为离散值,等于维度+编码方式
  • 输出层个数: 若为分类问题,与待分类类别数目大致成二为底的对数函数关系
  • 隐层神经元个数: 试错法或者经验确定
    一个包含足够多神经元的隐层,多层前馈神经网络就可以任意精度比较任意函数,所以,总可以找到一个合适的隐层神经元个数。

4.权值阈值更新问题:

  • 标准BP算法:

    每次更新只针对单个样例,参数更新非常频繁,不同样例的更新效果可能会有“抵消现象”,为了达到累计误差最小点,可能需要更多次的迭代。

  • 累计BP算法:

    直接针对累计误差最小化,读取整个数据集D之后才更新一次,更新频率低。但降到一定程度时,下降非常缓慢。
    5.过拟合问题:

  • 过拟合:训练误差持续降低,但是测试误差却上升

    解决策略
    ①早停
    ②正则化

4、全局最小和局部最小

由于初始化的时候随机初始化为不同的随机小数,则很有可能将网络跌入局部最优。不同的初始点,可能得到的最优解可能不同。
机器学习之神经网络学习及其模型_第10张图片跳出局部最优的策略:

  1. 以多组不同参数值初始化多个神经网络,从不同 的点开始搜索最优点,可能会得到的结果不同, 从中选择有可能获得更接近全局最小的结果。
  2. 模拟退火技术
    模拟退火在每一步都以一定概率接受比当前解更差 的结果,从而有助于跳出局部最优。
  3. 使用随机梯度下降,即使跌入局部极小点,因为 加入了随机因素,可能跳出局部最优。

5、常见的其他神经网络

1.RBF网络
单隐层前馈神经网络
使用径向基函数作为隐层神经元激活函数,输出层是对隐层神经元输出的线性组合

2.ART网络
竞争学习型,由比较层,识别层,识别阈值和重置模块组成
有较好的“可塑性,稳定性”
可进行增量学习,在线学习

3.SOM网络
竞争学习型的无监督神经网络,将高维输入数据映射到低维空间

4.级联相关网络
不仅学习连接权,阈值,还要学习网络结构。希望在训练过程中找到最符合数据特点的网网络结构。

5.Elman网络
允许网络中出现环状结构,从而可以让一些神经元的输出反馈回来作为输入信号。

6、神经网络的例子

机器学习之神经网络学习及其模型_第11张图片所谓"车牌自动识别",就是高速公路的探头拍下车牌照片,计算机识别出照片里的数字。
机器学习之神经网络学习及其模型_第12张图片这个例子里面,车牌照片就是输入,车牌号码就是输出,照片的清晰度可以设置权重(w)。然后,找到一种或多种图像比对算法,作为感知器。算法的得到结果是一个概率,比如75%的概率可以确定是数字1。这就需要设置一个阈值(b)(比如85%的可信度),低于这个门槛结果就无效。

一组已经识别好的车牌照片,作为训练集数据,输入模型。不断调整各种参数,直至找到正确率最高的参数组合。以后拿到新照片,就可以直接给出结果了。
机器学习之神经网络学习及其模型_第13张图片

7、输出的连续性

上面的模型有一个问题没有解决,按照假设,输出只有两种结果:0和1。但是,模型要求w或b的微小变化,会引发输出的变化。如果只输出0和1,未免也太不敏感了,无法保证训练的正确性,因此必须将"输出"改造成一个连续性函数。

这就需要进行一点简单的数学改造。

首先,将感知器的计算结果wx + b记为z。

z = wx + b

然后,计算下面的式子,将结果记为σ(z)。

σ(z) = 1 / (1 + e^(-z))

这是因为如果z趋向正无穷z → +∞(表示感知器强烈匹配),那么σ(z) → 1;如果z趋向负无穷z → -∞(表示感知器强烈不匹配),那么σ(z) → 0。也就是说,只要使用σ(z)当作输出结果,那么输出就会变成一个连续性函数。

原来的输出曲线是下面这样。
机器学习之神经网络学习及其模型_第14张图片现在变成了这样。
机器学习之神经网络学习及其模型_第15张图片推荐博客
神经网络,BP算法,计算图模型

你可能感兴趣的:(机器/深度学习,神经网络,机器学习,人工智能,算法)