李宏毅机器学习笔记三

Contents

  • 16 Unsupervised Learning: Auto-encoder
  • 25-26 Recurrent Neural Network

16 Unsupervised Learning: Auto-encoder

李宏毅机器学习笔记三_第1张图片
李宏毅机器学习笔记三_第2张图片
PCA是线性的
encoder 在做降维,本身是一个神经网络。

c的维度特别小,称为瓶颈层
李宏毅机器学习笔记三_第3张图片
auto-encoder 比 PCA多了几层。W的设置,保持对称,可以减少参数,防止过拟合。但并不是必要。

symmetric 对称的,保持平衡的
李宏毅机器学习笔记三_第4张图片
reconstruct 的loss大小并不是重点,直接令输出=输入,loss=0,重要的是code的好坏
李宏毅机器学习笔记三_第5张图片
每种颜色代表一种数字,可以看出,auto-encoder分的更开

李宏毅机器学习笔记三_第6张图片
为了auto-encodet做的更好,给input增加噪声,期望 x ^ \hat{x} x^ x x x接近。

待续

25-26 Recurrent Neural Network

李宏毅机器学习笔记三_第7张图片
李宏毅机器学习笔记三_第8张图片
李宏毅机器学习笔记三_第9张图片
注:lexicon 全部词汇,词汇表
李宏毅机器学习笔记三_第10张图片
李宏毅机器学习笔记三_第11张图片
李宏毅机器学习笔记三_第12张图片
相同的输入要求有不同输出,这需要NN有记忆功能。
李宏毅机器学习笔记三_第13张图片
李宏毅机器学习笔记三_第14张图片
更新记忆:
李宏毅机器学习笔记三_第15张图片
李宏毅机器学习笔记三_第16张图片
可见输入相同的 [ 1 1 ] \begin{bmatrix}1\\1\end{bmatrix} [11],输出不同, [ 4 4 ] \begin{bmatrix}4\\4\end{bmatrix} [44] [ 12 12 ] \begin{bmatrix}12\\12\end{bmatrix} [1212],因为存在记忆。

更新记忆:
李宏毅机器学习笔记三_第17张图片
李宏毅机器学习笔记三_第18张图片
改变序列顺序,影响输出,如先输入 [ 2 2 ] \begin{bmatrix}2\\2\end{bmatrix} [22],后输 [ 1 1 ] \begin{bmatrix}1\\1\end{bmatrix} [11]
李宏毅机器学习笔记三_第19张图片
李宏毅机器学习笔记三_第20张图片
李宏毅机器学习笔记三_第21张图片
李宏毅机器学习笔记三_第22张图片
李宏毅机器学习笔记三_第23张图片
李宏毅机器学习笔记三_第24张图片
三个门,每个门有控制信号,决定门打开还是关闭,如在输入门中,门关闭外部的信息就无法读入,输出门关闭信息就无法输出,遗忘门决定信息遗忘(用新的信息代替)或者继续保留,这些门的信息可以学习。
李宏毅机器学习笔记三_第25张图片
假设cell 的初始值为 c:
李宏毅机器学习笔记三_第26张图片
各输入门的激活函数一般为sigmoid,那么其输出值为0到1之间的数,为0表示门关闭,1打开
李宏毅机器学习笔记三_第27张图片
f ( z i ) f(z_i) f(zi) 是控制 g ( z ) g(z) g(z) 能否输入的关卡, f ( z i ) = 1 f(z_i)=1 f(zi)=1 g ( z ) g(z) g(z) 值可以直接输入;
f ( z f ) = 1 f(z_f)=1 f(zf)=1,表示保留记忆
李宏毅机器学习笔记三_第28张图片
f ( z 0 ) = 0 f(z_0)=0 f(z0)=0表示信息无法读出
李宏毅机器学习笔记三_第29张图片
x 2 = 0 x_2=0 x2=0 表示记忆值保持不变

李宏毅机器学习笔记三_第30张图片
李宏毅机器学习笔记三_第31张图片
李宏毅机器学习笔记三_第32张图片
李宏毅机器学习笔记三_第33张图片
李宏毅机器学习笔记三_第34张图片
李宏毅机器学习笔记三_第35张图片
李宏毅机器学习笔记三_第36张图片
李宏毅机器学习笔记三_第37张图片
李宏毅机器学习笔记三_第38张图片
李宏毅机器学习笔记三_第39张图片
李宏毅机器学习笔记三_第40张图片
李宏毅机器学习笔记三_第41张图片
连接更多:
李宏毅机器学习笔记三_第42张图片
下面是完整形态:
李宏毅机器学习笔记三_第43张图片
还可以加入窥视孔peephole:
李宏毅机器学习笔记三_第44张图片
李宏毅机器学习笔记三_第45张图片
李宏毅机器学习笔记三_第46张图片
李宏毅机器学习笔记三_第47张图片
李宏毅机器学习笔记三_第48张图片

李宏毅机器学习笔记三_第49张图片
李宏毅机器学习笔记三_第50张图片
更坏的情况:
李宏毅机器学习笔记三_第51张图片
梯度爆炸可使用梯度修剪解决
李宏毅机器学习笔记三_第52张图片
上图说明,RNN不易训练的原因不在于激活函数的选择,而是由于同一结构反复使用

李宏毅机器学习笔记三_第53张图片
RNN的记忆值每个时间都会被洗掉,而LSTM则保留了上一个记忆,所以不会梯度消失

未完待续。。。

你可能感兴趣的:(李宏毅机器学习笔记三)