历史上,科学家一直希望模拟人的大脑,造出可以思考的机器。人为什么能够思考?科学家发现,原因在于人体的神经网络。
神经网络最基本的成分是神经元模型
其中,W表示的是向量,代表的是权重,函数f称为激活函数,
感知器的例子
城里正在举办一年一度的游戏动漫展览,小明拿不定主意,周末要不要去参观。
他决定考虑三个因素。
天气:周末是否晴天?
同伴:能否找到人一起去?
价格:门票是否可承受?
这就构成一个感知器。上面三个因素就是外部输入,最后的决定就是感知器的输出。如果三个因素都是 Yes(使用1表示),输出就是1(去参观);如果都是 No(使用0表示),输出就是0(不去参观)。
单层感知机:有两层神经元组成,只有一层M-P神经元的网络模
单层感知机学习参数的调整
单层感知机只能解决线性可分的问题,对于非线性可分问题,需要考虑使用
多层功能神经元
多层前馈神经网络:
1.初始化
2.反复调整(信号向前传播->误差逆向传播->权值与阈值更新)
BP神经网络的过程主要分为两个阶段,第一阶段是信号的前向传播,从输入层经过隐含层,最后到达输出层;第二阶段是误差的反向传播,从输出层到隐含层,最后到输入层,依次调节隐含层到输出层的权重和偏置,输入层到隐含层的权重和偏置。
初始化为不同的小随机数
不同:保证网络可以学习
小随机数:防止过大提前进入饱和状态
如果跌入局部最优,就要重新初始化
2.步长设置问题:
学习率(0到1之间)控制着算法的每一轮迭代中更新的步长
若太大,容易发生振荡,若太小,收敛速度缓慢。
3.结构学习问题:
4.权值阈值更新问题:
标准BP算法:
每次更新只针对单个样例,参数更新非常频繁,不同样例的更新效果可能会有“抵消现象”,为了达到累计误差最小点,可能需要更多次的迭代。
累计BP算法:
直接针对累计误差最小化,读取整个数据集D之后才更新一次,更新频率低。但降到一定程度时,下降非常缓慢。
5.过拟合问题:
过拟合:训练误差持续降低,但是测试误差却上升
解决策略
①早停
②正则化
由于初始化的时候随机初始化为不同的随机小数,则很有可能将网络跌入局部最优。不同的初始点,可能得到的最优解可能不同。
跳出局部最优的策略:
1.RBF网络
单隐层前馈神经网络
使用径向基函数作为隐层神经元激活函数,输出层是对隐层神经元输出的线性组合
2.ART网络
竞争学习型,由比较层,识别层,识别阈值和重置模块组成
有较好的“可塑性,稳定性”
可进行增量学习,在线学习
3.SOM网络
竞争学习型的无监督神经网络,将高维输入数据映射到低维空间
4.级联相关网络
不仅学习连接权,阈值,还要学习网络结构。希望在训练过程中找到最符合数据特点的网网络结构。
5.Elman网络
允许网络中出现环状结构,从而可以让一些神经元的输出反馈回来作为输入信号。
所谓"车牌自动识别",就是高速公路的探头拍下车牌照片,计算机识别出照片里的数字。
这个例子里面,车牌照片就是输入,车牌号码就是输出,照片的清晰度可以设置权重(w)。然后,找到一种或多种图像比对算法,作为感知器。算法的得到结果是一个概率,比如75%的概率可以确定是数字1。这就需要设置一个阈值(b)(比如85%的可信度),低于这个门槛结果就无效。
一组已经识别好的车牌照片,作为训练集数据,输入模型。不断调整各种参数,直至找到正确率最高的参数组合。以后拿到新照片,就可以直接给出结果了。
上面的模型有一个问题没有解决,按照假设,输出只有两种结果:0和1。但是,模型要求w或b的微小变化,会引发输出的变化。如果只输出0和1,未免也太不敏感了,无法保证训练的正确性,因此必须将"输出"改造成一个连续性函数。
这就需要进行一点简单的数学改造。
首先,将感知器的计算结果wx + b记为z。
z = wx + b
然后,计算下面的式子,将结果记为σ(z)。
σ(z) = 1 / (1 + e^(-z))
这是因为如果z趋向正无穷z → +∞(表示感知器强烈匹配),那么σ(z) → 1;如果z趋向负无穷z → -∞(表示感知器强烈不匹配),那么σ(z) → 0。也就是说,只要使用σ(z)当作输出结果,那么输出就会变成一个连续性函数。