RNN 网络结构及训练过程简介

本文通过整理李宏毅老师的机器学习教程的内容,简要介绍 RNN(recurrent neural network)的网络结构及训练过程。

RNN 网络结构, 李宏毅


RNN


RNN 的特点在于存储功能,即可以记忆前面时刻的信息。

最简单的 RNN 结构如下:
RNN 网络结构及训练过程简介_第1张图片

当然,网络结构可以很深,多少层都可以:
RNN 网络结构及训练过程简介_第2张图片

如果存储的是隐藏层(hidden layer)的值,则称为 Elman Network;
如果存储的是输出值,则称为 Jordan Network:
RNN 网络结构及训练过程简介_第3张图片

据说 Jordan Network 的表现更好,因为所存储的是输出值,其中包含了优化目标的信息。

RNN 可以是双向的:
RNN 网络结构及训练过程简介_第4张图片

LSTM(Long Short-Term Memory)


LSTM 单元的结构简图如下:
RNN 网络结构及训练过程简介_第5张图片

其内部的具体结构如下:
RNN 网络结构及训练过程简介_第6张图片

需要注意的是,遗忘门(forget gate)这个称呼与我们的直觉相反,即打开时数据保留,关闭时数据清除。

将上述 LSTM 单元视为神经网络中的神经元,即可构成网络结构,其输入数量是普通神经元的 4 倍:
RNN 网络结构及训练过程简介_第7张图片

在实际计算过程中,输入数据在进入三个门之前会分别乘三个矩阵:
RNN 网络结构及训练过程简介_第8张图片

下图为前后两个时刻的输入数据之间的关系,可以看出,实际的 LSTM 输入数据还要加上前一时刻的隐藏层(hidden layer)的输出 h t h^t ht,以及前一时刻的存储数据 c t c^t ct(该操作称为 peephole):
RNN 网络结构及训练过程简介_第9张图片

LSTM 不会只有一层,现在通常都会有至少五六层,其层级之间的连接结构如下:

RNN 网络结构及训练过程简介_第10张图片

现在通常讲的 RNN 都是 LSTM。

Keras 框架支持三种 RNN:

  • LSTM
  • GRU:少了一个门的 LSTM,会把输入门(input gate)和遗忘门(forget gate)联动起来,其中一个打开,则另一个关闭,这样相当于减少了三分之一的参数,但据说表现跟 LSTM 差不多
  • SimpleRNN:前一节介绍的最基本的 RNN

训练过程


以句法分析为例,优化目标为最小化交叉熵(cross entropy):

RNN 网络结构及训练过程简介_第11张图片

训练过程中,更新参数的方法叫 BPTT(backpropagation through time),即考虑时间信息的反向传播法。

此外,在训练过程中,RNN 的 total loss 容易出现很大的波动:
RNN 网络结构及训练过程简介_第12张图片

这是因为,RNN 的 error surface 会有比较陡峭的地方,解决该问题的技巧是对梯度(gradient)做裁剪(clipping):
RNN 网络结构及训练过程简介_第13张图片

前述波动的来源并不是 sigmoid 函数,因为如果换成 ReLU 函数也会很差,所以激活函数并不是这里的关键点。

从一个最简单的例子可以看出,问题出在权重参数的变化会在后续时刻被不断放大,即便在学习率(learning rate)很小时也是一样:
RNN 网络结构及训练过程简介_第14张图片

然而,LSTM 可以解决梯度消失(gradient vanishing)的问题,也就是 error surface 很平坦的问题,因此可以把学习率设置得比较小,但是并不能解决 error surface 很崎岖的问题(gradient explode):
RNN 网络结构及训练过程简介_第15张图片

LSTM 能够解决梯度消失问题的原因,是存储数据不会被随时清除,因此也需要保证遗忘门在多数时间是开启的。

另外两种解决梯度消失问题的方法是 Clockwise RNN 和 SCRN:
RNN 网络结构及训练过程简介_第16张图片

值得一提的是,一篇 Hinton 推荐的论文提到,当使用单位矩阵(identity matrix)初始化参数、并使用 ReLU 函数作为激活函数时,普通 RNN 的表现效果会很好,甚至超过 LSTM。但是如果是通常的训练方式,即使用随机矩阵初始化参数,ReLU 函数的表现效果就不如 sigmoid 函数。

你可能感兴趣的:(机器学习,rnn,人工智能,深度学习)