机器学习 西瓜书 Day06 神经网络的尾巴

p108- p120
今天首先先把昨天没看完的NN部分的尾巴补上

5.5 其他常见神经网络

5.5.1 RBFNN

单隐层前向反馈神经网络
使用径向基函数作为隐层神经元激活函数
输出层是隐层神经元输出的线性组合

计算公式 见p108 5.18
常见的 径向基函数 见5.19

经证明:具有足够多隐层神经元的RBF网络能以任意精度逼近任意连续函数
两步训练RBF:1)确定中心ci 2) 使用BP确定w,c

5.5.2 ART网络

竞争型学习

常用无监督学习策略。
网格的输出神经元相互竞争,每一时刻仅有一个竞争获胜的神经元被激活,其他被抑制。

ART是竞争型学习的重要代表
由比较层、识别层、识别阈值、重置模块
识别层神经元数目是可以动态增加的

识别层接到比较层的输入后相互竞争:计算输入向量和每个识别层神经元对应模式代表向量的距离,距离最小者胜,胜者将其余全部抑制。

如果输入向量与获胜者相似度大于阈值,则当前输入样本被归为此类别,同时更新连接权使得 再输入相似样本时,该神经元更容易获胜。

若不大于阈值,则在识别层增设一个神经元,其代表向量为当前输入向量。

5.5.3 SOM网络

竞争学习型的无监督网络,能将高维数据映射到低维空间。

详细没太看懂。。

5.5.4 级联相关网络

结构自适应网络

将网络结构也作为学习的目标之一。

两个主要成分:“级联”,“相关”
训练速度较快,但容易陷入过拟合。

5.5.5 Elman网络

递归神经网络

允许网络中出现递归结构,使得t时刻的输出状态不仅与t时刻的输入有关,还和t-1的网络状态有关,有利于处理和时间有关的动态变化。

Elman网络

5.5.6 Boltzmann机

有一类神经网络 定义了 “能量”
能量最小化时达到理想状态,训练的目的在于最小化这个能量函数。

Boltzman机能量定义式:见p111 5.20
Boltzman机中每个神经元都是布尔型的,只有0,1两种状态。

B机训练过程就是将每个训练样本视为一个状态向量,使其出现的概率尽可能大。

5.6 深度学习

参数越大,容量越大,模型越复杂,越能完成复杂任务,但效率低,容易过拟合

计算能力的提高:缓解效率性
训练数据的增加:降低过拟合风险

所以深度学习就火了

CNN

从另一角度理解:
多隐层堆叠,每一层对上一层进行处理的机制:
通过多层处理,将低层的特征表示转化为高层特征,从而用简单模型即可完成复杂任务。


终于看完神经网络了= = 这个尾巴好长啊
下面进入今天的正题 SVM

你可能感兴趣的:(机器学习 西瓜书 Day06 神经网络的尾巴)