目录
一、第一阶段
1.1、MP模型
1.2、感知机
二、第二阶段
2.1、多层感知机(DNN)
2.2、BP神经网络
2.3、卷积神经网络(CNN)
2.4、循环神经网络(RNN)
2.5、长短时记忆网络(LSTM)
三、第三阶段
3.1、Hopfield网络
3.2、玻尔兹曼机
3.3、受限玻尔兹曼机
深度学习是基于神经网络发展起来的技术,而神经网络的发展具有历史悠久的历史,而且发展历程也是一波三折
总结起来可以分为三个阶段
1943年美国神经生理学家沃伦.麦卡洛克和数学家沃尔特.皮茨对生物神经元进行建模,首次提出一种形似神经元模型。这个模型通过电阻等元件构建的物理网络得以实现,被称为M-P模型。
y=f(∑wixi - h)
其中h为一个设定的阈值,如果y>0,则输出1;如果y<0,则输出0
存在问题:当时没有通过训练样本进行训练来确定参数的方法,只能人为的事先计算后确定。
1958年罗森布拉特提出感知机,经过训练后,计算机能够确定神经元的连接权重,
即:根据训练样本自动获取样本组合,确定参数,有监督学习
实际输出:y
期望输出:r
如果y=r:wi和h不变
如果y≠ r:
1⃣️y=0,r=1,减小h,增大xi=1的连接权重,xi=0的连接不变
2⃣️y=1,r=0,增大h,降低xi=1的连接权重,xi=0的连接不变
存在问题:线性不可分
也称为前馈神经网络,多层结构的感知机递阶组成的输入值向前传播的网络。
一般有三成组成:输入层、中间层、输出层
输入层:用随机数确定输入层与中间层连接权重
中间层、输出层:中间层与输出层的连接权重进行误差修正学习
存在问题:输入数据不同,但是中间层的输出值却相同,无法准确分类。
即误差反向传播,通过比较实际输出和期望输出得到误差信号,把误差信号从输出层向前传播得到各层的误差信号,再通过调整各层的连接权重减小误差。
调整权重的方法采取梯度下降法
利用二维空间关系达到了减少需要学习的参数数目的目标。
主要运用于图像处理,每层通过一个数字滤波器对观测到的数据进行特征提取
卷积层:输入样本与卷积核进行内积运算,降低复杂度/提高泛化
池化层:将平面某一位置及其相邻位置的特征进行统计汇总,将汇总结果作为这一位置在该平面的值,降维/稳健。
不仅存在前馈连接,还存在反馈连接
专门用于处理和预测序列数据的神经网络(NLP)
隐藏层的输入来自输入层以及上一时刻隐藏层的输出
存在问题:RNN也有梯度消失的问题,因此很难处理长序列的数据,长期依赖
LSTM单元自循环,靠“门”结构让信息有选择的影响循环神经网络的每个时刻的状态。
网络不分层,单元之间相互连接,联想记忆。(比如看到苹果,就想到红色)
存在问题:当需要记忆的模式太多或模式之间较为相似,不能正确辨别--串扰
在Hopfield网络基础上,让每个单元按照一定的概率分布发生状态变化,避免陷入局部最优解。
存在问题:训练困难
由可见层和隐藏层构成,同时有可见变量和隐藏变量构成,相同层内单元无连接。
存在问题:计算量庞大
除此以外还有进一步优化的对比散度算法,利用近似算法
还有深度信念网络、MCMC采样等等
本文主要大体概述一下神经网络的框架,具体的分析在以后的章节里进行进一步的分解,包括梯度下降问题、正则化以及激活函数等。