LSTM RNN



LSTM RNN_第1张图片
LSTM RNN_第2张图片

LSTM RNN_第3张图片
LSTM RNN_第4张图片

LSTM RNN_第5张图片


LSTM RNN_第6张图片

LSTM RNN_第7张图片
LSTM RNN_第8张图片

LSTM RNN_第9张图片


Gate 也是Vector控制的  

主分线剧情  



LSTM RNN_第10张图片


LSTM RNN_第11张图片


LSTM RNN_第12张图片


LSTM RNN_第13张图片


LSTM RNN_第14张图片


LSTM RNN_第15张图片


LSTM RNN_第16张图片


LSTM RNN_第17张图片


LSTM RNN_第18张图片


LSTM RNN_第19张图片


LSTM RNN_第20张图片


LSTM RNN_第21张图片


Batch  。。。。。。。。。tensor flow

LSTM RNN_第22张图片

当把几个RNN堆起来时,得到的这个新的网络就可以输出比单独一个RNN更为复杂的结果。

LSTM RNN_第23张图片

训练 Recurrent Neural Networks 的问题?

RNN 是很难被训练的,训练的时候也使用 Back Propagation,所以这也存在着梯度消失的问题,而且这个梯度消失的问题会是指数级别的。

原因就是,RNN的每个时间点,就相当于一个前馈神经网络的整个层,

所以训练100步的模型就相当于训练一个100层的前馈网络。

这就造成了随着时间的推移,梯度会以指数级的速度减小,进而造成信息的衰变。

LSTM RNN_第24张图片

如何解决?

有很多方式可以解决这个问题,其中之一就是 Gating。

这个技术的好处就是它可以决定,什么时候需要忘记当前的输入,什么时候需要记住它,以便将来的步骤里会用到它。

今天最流行的 Gating 就是 LSTM 和 GRU。

当然也有一些其他的方法 Gradient clipping, Better optimizer, Steeper Gates。

其他参考文章

LSTM


人工智能技术文章list

你可能感兴趣的:(LSTM RNN)