LSTM (Long Short-Term Memory)

LSTM (Long Short-Term Memory)

LSTM的产生

LSTM产生的原因:
第一代RNN在处理长序列时,该记住的信息没记住,可能不该记住的信息却记得很牢。

而LSTM通过引入巧妙的可控自循环,能产生让梯度能够得以长时间可持续流动的路径。

标准的RNN结构如下,这个重复的结构模块只有一个非常简单的结构,例如一个tanh层。

LSTM (Long Short-Term Memory)_第1张图片

LSTM 同样是这样的结构,但是重复的模块拥有一个不同的结构。不同于单一神经网络层,这里是有四个,以一种非常特殊的方式进行交互。

LSTM (Long Short-Term Memory)_第2张图片

各个 符号的意义:
LSTM (Long Short-Term Memory)_第3张图片

LSTM通过各种门来实现信息的添加与删除,
门可以实现选择性地让信息通过,主要是通过一个sigmoid层(门)和点乘操作来实现的。
Sigmoid 函数可以将信号转化为[0,1]之间的数(相当于一个筛子),再通过点乘操作来筛选数据。
比如,0表示“不让任何信息通过”,1表示“让所有信息通过”,而0.5表示“让一半信息通过”
LSTM (Long Short-Term Memory)_第4张图片

上图即为门与点乘操作

LSTM

结构图

LSTM (Long Short-Term Memory)_第5张图片

遗忘门:

LSTM (Long Short-Term Memory)_第6张图片

遗忘门决定我们会从上一个细胞状态中丢弃什么信息, 通过 h t − 1 h_{t-1} ht1 x t x_{t} xt 通过sigmoid 函数生成一个遗忘门 f T f_{T} fT, 来筛选上一个细胞状态 C t − 1 C_{t-1} Ct1, 来决定要记住什么和要遗忘什么。

输入门:

LSTM (Long Short-Term Memory)_第7张图片

输入门决定让多少新的信息加入到cell状态中来,这里新的信息指的是上一个状态的隐藏状态 h t − 1 h_{t-1} ht1和当前状态的输入 x t x_{t} xt, 他俩经过一个tanh层生成一个备选向量 C ~ t \tilde{C}_{t} C~t,同时也生成了一个输入门 i t i_{t} it,将 C ~ t \tilde{C}_{t} C~t 经过输入门 i t i_{t} it 后得到的信息就是新加入的信息。

更新细胞状态:

我们将上个细胞状态 C t − 1 C_{t-1} Ct1 经过遗忘门 f t f_{t} ft 得到的遗忘后的上一个状态与经过筛选后的新信息相加就得到了当前细胞的状态 C t C_{t} Ct

LSTM (Long Short-Term Memory)_第8张图片

输出门:

LSTM (Long Short-Term Memory)_第9张图片

当前时刻的输出, 基于当前的细胞状态进行输出
再次通过 h t − 1 h_{t-1} ht1 x t x_{t} xt生成一个输出门,去筛选当前细胞状态经过tanh层的结果

总公式

LSTM (Long Short-Term Memory)_第10张图片

你可能感兴趣的:(机器学习)