《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络

论循环神经网络 – 一类预测未来的网络。它们可以分析时间序列数据,诸如股票价格,并告诉你什么时候买入和卖出。在自动驾驶系统中,他们可以预测行车轨迹,避免发生交通意外。更一般地说,它们可在任意长度的序列上工作,而不是截止目前我们讨论的只能在固定长度的输入上工作的网络。举个例子,它们可以把语句,文件,以及语音范本作为输入,使得它们在诸如自动翻译,语音到文本或者情感分析的自然语言处理系统中极为有用。

在本章中,我们将看到循环神经网络背后的基本概念,他们所面临的主要问题梯度消失/爆炸,以及广泛用于反抗这些问题的方法:LSTM 和 GRU cell(单元)。如同以往,沿着这个方式,我们将展示如何用 TensorFlow 实现循环神经网络。最终我们将看看及其翻译系统的架构。


循环神经元

到目前为止,我们主要关注的是前馈神经网络,其中激活仅从输入层到输出层的一个方向流动。 循环神经网络看起来非常像一个前馈神经网络,除了它也有连接指向后方。 让我们看一下最简单的 RNN,它由一个神经元接收输入,产生一个输出,并将输出发送回自己,如图 14-1(左)所示。 在每个时间步t(称为一个帧),这个循环神经元接收输入 x(t) x ( t ) 以及它自己的前一时间步长 y(t1) y ( t − 1 ) 的输出。 我们可以用时间轴来表示这个微小的网络,如图 14-1(右)所示。 这被称为随着时间的推移展开网络。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第1张图片

你可以轻松创建一个循环神经元层。 在每个时间步t,每个神经元都接收输入向量 x(t) x ( t ) 和前一个时间步 y(t1) y ( t − 1 ) 的输出向量,如图 14-2 所示。 请注意,输入和输出都是向量(当只有一个神经元时,输出是一个标量)。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第2张图片

每个循环神经元有两组权重:一组用于输入 x(t) x ( t ) ,另一组用于前一时间步长 y(t1) y ( t − 1 ) 的输出。 我们称这些权重向量为 wx w x wy w y 。如公式 14-1 所示( b b 是偏差项, φ(·) φ ( · ) 是激活函数,例如 ReLU R e L U ),可以计算单个循环神经元的输出。
这里写图片描述
就像前馈神经网络一样,我们可以使用上一个公式的向量化形式,对整个小批量计算整个层的输出
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第3张图片
Y(t) Y ( t ) m×nneurons m × n n e u r o n s 矩阵,包含在最小批次中每个实例在时间步 t t 处的层输出( m m 是小批次中的实例数, nneurons n n e u r o n s 是神经元数)。
X(t) X ( t ) m×ninputs m × n i n p u t s 矩阵,包含所有实例的输入的 ( ninputs n i n p u t s 是输入特征的数量)。
Wx W x ninputs×nneurons n i n p u t s × n n e u r o n s 矩阵,包含当前时间步的输入的连接权重的。
Wy W y nneurons×nneurons n n e u r o n s × n n e u r o n s 矩阵,包含上一个时间步的输出的连接权重。
权重矩阵 Wx W x Wy W y 通常连接成单个权重矩阵W,形状为 ( ninputs+nneurons)×nneurons n i n p u t s + n n e u r o n s ) × n n e u r o n s (见公式 14-2 的第二行)
b b 是大小为 nneurons n n e u r o n s 的向量,包含每个神经元的偏置项。

注意, Y(t) Y ( t ) X(t) X ( t ) Y(t1) Y ( t − 1 ) 的函数,它是 X(t1) X ( t − 1 ) Y(t2) Y ( t − 2 ) 的函数,它是 X(t2)Y(t3) X ( t − 2 ) 和 Y ( t − 3 ) 的函数,等等。 这使得 Y(t) Y ( t ) 是从时间t = 0开始的所有输入(即 X(0)X(1)...X(t) X ( 0 ) , X ( 1 ) , . . . , X ( t ) )的函数。 在第一个时间步, t=0 t = 0 ,没有以前的输出,所以它们通常被假定为全零。

记忆单元

由于时间t的循环神经元的输出,是由所有先前时间步骤计算出来的的函数,你可以说它有一种记忆形式。一个神经网络的一部分,跨越时间步长保留一些状态,称为存储单元(或简称为单元)。单个循环神经元或循环神经元层是非常基本的单元,但本章后面我们将介绍一些更为复杂和强大的单元类型。

一般情况下,时间步t处的单元状态,记为 h(t) h ( t ) (h代表“隐藏”),是该时间步的某些输入和前一时间步的状态的函数: h(t)=f(h(t1),x(t)) h ( t ) = f ( h ( t − 1 ) , x ( t ) ) 。 其在时间步t处的输出,表示为 y(t) y ( t ) ,也和前一状态和当前输入的函数有关。 在我们已经讨论过的基本单元的情况下,输出等于单元状态,但是在更复杂的单元中并不总是如此,如图 14-3 所示。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第4张图片

输入和输出序列

RNN 可以同时进行一系列输入并产生一系列输出。 例如,这种类型的网络对于预测时间序列(如股票价格)非常有用:你在过去的N天内给出价格,并且它必须输出向未来一天移动的价格(即从N - 1天前到明天)。【左上】

或者,你可以向网络输入一系列输入,并忽略除最后一个之外的所有输出。 换句话说,这是一个向量网络的序列。 例如,你可以向网络提供与电影评论相对应的单词序列,并且网络将输出情感评分(例如,从-1 [恨]到+1 [爱])。【右上】

相反,你可以在第一个时间步中为网络提供一个输入(而在其他所有时间步中为零),然后让它输出一个序列。 这是一个向量到序列的网络。 例如,输入可以是图像,输出可以是该图像的标题。【左下】

最后,你可以有一个序列到向量网络,称为编码器,后面跟着一个称为解码器的向量到序列网络。 例如,这可以用于将句子从一种语言翻译成另一种语言。 你会用一种语言给网络喂一个句子,编码器会把这个句子转换成单一的向量表示,然后解码器将这个向量解码成另一种语言的句子。 这种称为编码器 - 解码器的两步模型,比用单个序列到序列的 RNN(如左上方所示的那个)快速地进行翻译要好得多,因为句子的最后一个单词可以 影响翻译的第一句话,所以你需要等到听完整个句子才能翻译。【右下】

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第5张图片


TensorFlow 中的基本 RNN

首先,我们来实现一个非常简单的 RNN 模型,而不使用任何 TensorFlow 的 RNN 操作,以更好地理解发生了什么。 我们将使用 tanh 激活函数创建由 5 个循环神经元的循环层组成的 RNN。 我们将假设 RNN 只运行两个时间步,每个时间步输入大小为 3 的向量。 下面的代码构建了这个 RNN,展开了两个时间步骤:

import tensorflow as tf

n_inputs = 3
n_neurons = 5

X0 = tf.placeholder(tf.float32, [None, n_inputs])
X1 = tf.placeholder(tf.float32, [None, n_inputs])

Wx = tf.Variable(tf.random_normal(shape=[n_inputs, n_neurons],dtype=tf.float32))
Wy = tf.Variable(tf.random_normal(shape=[n_neurons,n_neurons],dtype=tf.float32))
b = tf.Variable(tf.zeros([1, n_neurons], dtype=tf.float32))

Y0 = tf.tanh(tf.matmul(X0, Wx) + b)
Y1 = tf.tanh(tf.matmul(Y0, Wy) + tf.matmul(X1, Wx) + b)

init = tf.global_variables_initializer()

这个网络看起来很像一个双层前馈神经网络,有一些改动:首先,两个层共享相同的权重和偏差项,其次,我们在每一层都有输入,并从每个层获得输出。 为了运行模型,我们需要在两个时间步中都有输入,如下所示:

X0_batch = np.array([[0, 1, 2], [3, 4, 5], [6, 7, 8], [9, 0, 1]]) # t = 0
X1_batch = np.array([[9, 8, 7], [0, 0, 0], [6, 5, 4], [3, 2, 1]]) # t = 1

with tf.Session() as sess:
    init.run()
    Y0_val, Y1_val = sess.run([Y0, Y1], feed_dict={X0: X0_batch, X1: X1_batch})

这个小批量包含四个实例,每个实例都有一个由两个输入组成的输入序列。 最后, Y0val Y 0 v a l Y1val Y 1 v a l 在所有神经元和小批量中的所有实例的两个时间步中包含网络的输出

>>> print(Y0_val) # output at t = 0
[[-0.2964572 0.82874775 -0.34216955 -0.75720584 0.19011548]  # instance 0
 [-0.12842922 0.99981797 0.84704727 -0.99570125 0.38665548]  # instance 1
 [ 0.04731077 0.99999976 0.99330056 -0.999933 0.55339795]    # instance 2
 [ 0.70323634 0.99309105 0.99909431 -0.85363263 0.7472108]]  # instance 3

使用 TensorFlow 的 RNN(Using static_rnn()) 操作创建相同的模型。
import numpy as np
import tensorflow as tf

if __name__ == '__main__':
    n_inputs = 3
    n_neurons = 5
    X0 = tf.placeholder(tf.float32, [None, n_inputs])
    X1 = tf.placeholder(tf.float32, [None, n_inputs])
    Wx = tf.Variable(tf.random_normal(shape=[n_inputs, n_neurons], dtype=tf.float32))
    Wy = tf.Variable(tf.random_normal(shape=[n_neurons, n_neurons], dtype=tf.float32))
    b = tf.Variable(tf.zeros([1, n_neurons], dtype=tf.float32))
    Y0 = tf.tanh(tf.matmul(X0, Wx) + b)
    Y1 = tf.tanh(tf.matmul(Y0, Wy) + tf.matmul(X1, Wx) + b)
    init = tf.global_variables_initializer()

    # Mini-batch: instance 0,instance 1,instance 2,instance 3
    X0_batch = np.array([[0, 1, 2], [3, 4, 5], [6, 7, 8], [9, 0, 1]])  # t = 0
    X1_batch = np.array([[9, 8, 7], [0, 0, 0], [6, 5, 4], [3, 2, 1]])  # t = 1
    with tf.Session() as sess:
        init.run()
        Y0_val, Y1_val = sess.run([Y0, Y1], feed_dict={X0: X0_batch, X1: X1_batch})

    print(Y0_val,'\n')
    print(Y1_val)

时间上的静态展开

static_rnn()函数通过链接单元来创建一个展开的 RNN 网络。 下面的代码创建了与上一个完全相同的模型:

X0 = tf.placeholder(tf.float32, [None, n_inputs])
X1 = tf.placeholder(tf.float32, [None, n_inputs])

basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
output_seqs, states = tf.contrib.rnn.static_rnn(basic_cell, [X0, X1],
                                                dtype=tf.float32)
Y0, Y1 = output_seqs

首先,我们像以前一样创建输入占位符。 然后,我们创建一个BasicRNNCell,你可以将其视为一个工厂,创建单元的副本以构建展开的 RNN(每个时间步一个)。 然后我们调用static_rnn(),向它提供单元工厂和输入张量,并告诉它输入的数据类型(用来创建初始状态矩阵,默认情况下是全零)。 static_rnn()函数为每个输入调用单元工厂的call ()函数,创建单元的两个副本(每个单元包含 5 个循环神经元的循环层),并具有共享的权重和偏置项,像前面一样。static_rnn()函数返回两个对象。 第一个是包含每个时间步的输出张量的 Python 列表。 第二个是包含网络最终状态的张量。 当你使用基本的单元时,最后的状态就等于最后的输出。

如果有 50 个时间步长,则不得不定义 50 个输入占位符和 50 个输出张量。而且,在执行时,你将不得不为 50 个占位符中的每个占位符输入数据并且还要操纵 50 个输出。我们来简化一下。下面的代码再次构建相同的 RNN,但是这次它需要一个形状为[None,n_steps,n_inputs]的单个输入占位符,其中第一个维度是最小批量大小。然后提取每个时间步的输入序列列表。 X_seqs是形状为n_steps的 Python 列表,包含形状为[None,n_inputs]的张量,其中第一个维度同样是最小批量大小。为此,我们首先使用transpose()函数交换前两个维度,以便时间步骤现在是第一维度。然后,我们使 unstack()函数沿第一维(即每个时间步的一个张量)提取张量的 Python 列表。接下来的两行和以前一样。最后,我们使用stack()函数将所有输出张量合并成一个张量,然后我们交换前两个维度得到最终输出张量,形状为[None, n_steps,n_neurons](第一个维度是小批量大小)。

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
X_seqs = tf.unstack(tf.transpose(X, perm=[1, 0, 2]))

basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
output_seqs, states = tf.contrib.rnn.static_rnn(basic_cell, X_seqs,
                                                dtype=tf.float32)
outputs = tf.transpose(tf.stack(output_seqs), perm=[1, 0, 2])

现在我们可以通过给它提供一个包含所有小批量序列的张量来运行网络:

X_batch = np.array([
        # t = 0      t = 1 
        [[0, 1, 2], [9, 8, 7]], # instance 1
        [[3, 4, 5], [0, 0, 0]], # instance 2
        [[6, 7, 8], [6, 5, 4]], # instance 3
        [[9, 0, 1], [3, 2, 1]], # instance 4
    ])

with tf.Session() as sess:
    init.run()
    outputs_val = outputs.eval(feed_dict={X: X_batch})

我们得到所有实例,所有时间步长和所有神经元的单一outputs_val张量
但是,这种方法仍然会建立一个每个时间步包含一个单元的图。 如果有 50 个时间步,这个图看起来会非常难看。 这有点像写一个程序而没有使用循环(例如,Y0 = f(0,X0);Y1 = f(Y0,X1);Y2 = f(Y1,X2);…;Y50 = f(Y49,X50))。 如果使用大图,在反向传播期间(特别是在 GPU 内存有限的情况下),你甚至可能会发生内存不足(OOM)错误,因为它必须在正向传递期间存储所有张量值,以便可以使用它们在反向传播期间计算梯度。

幸运的是,有一个更好的解决方案:dynamic_rnn()函数。

Dynamic Unrolling Through Time

dynamic_rnn()函数使用while_loop()操作,在单元上运行适当的次数,如果要在反向传播期间将 GPU内存交换到 CPU 内存,可以设置swap_memory = True,以避免内存不足错误。 方便的是,它还可以在每个时间步(形状为[None, n_steps, n_inputs])接受所有输入的单个张量,并且在每个时间步(形状[None, n_steps, n_neurons])上输出所有输出的单个张量。 没有必要堆叠,拆散或转置。 以下代码使用dynamic_rnn()函数创建与之前相同的 RNN。

n_steps = 2
n_inputs = 3
n_neurons = 5

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])

basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
outputs, states = tf.nn.dynamic_rnn(basic_cell, X, dtype=tf.float32)
init = tf.global_variables_initializer()

X_batch = np.array([
        [[0, 1, 2], [9, 8, 7]], # instance 1
        [[3, 4, 5], [0, 0, 0]], # instance 2
        [[6, 7, 8], [6, 5, 4]], # instance 3
        [[9, 0, 1], [3, 2, 1]], # instance 4
    ])

with tf.Session() as sess:
    init.run()
    outputs_val = outputs.eval(feed_dict={X: X_batch})

>>>print(outputs_val)
[[[-0.0948875  -0.78635412 -0.75976855  0.81456447 -0.86596668]
  [-0.99999809 -0.99989897 -0.99999422  0.99959809 -0.4085584 ]]

 [[-0.98823678 -0.99379838 -0.99848306  0.99407357 -0.9553898 ]
  [ 0.21658944 -0.20340651  0.02591269  0.44528607 -0.40116802]]

 [[-0.99991536 -0.99983823 -0.99999166  0.99982721 -0.98561245]
  [-0.99981058 -0.99268609 -0.99952865  0.99385983 -0.25559649]]

 [[-0.99883717  0.84198505 -0.97267133 -0.86984301  0.99912703]
  [-0.97511095 -0.34840977 -0.92128128  0.39821982  0.27953893]]]

在反向传播期间,while_loop()操作会执行相应的步骤:在正向传递期间存储每次迭代的张量值,以便在反向传递期间使用它们来计算梯度。

处理变长输入序列

到目前为止,我们只使用固定大小的输入序列(全部正好两个步长)。 如果输入序列具有可变长度(例如,像句子)呢? 在这种情况下,你应该在调用dynamic_rnn()(或static_rnn())函数时设置sequence_length参数;它必须是一维张量,表示每个实例的输入序列的长度。 例如:

n_steps = 2
n_inputs = 3
n_neurons = 5

reset_graph()

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)

seq_length = tf.placeholder(tf.int32, [None])
outputs, states = tf.nn.dynamic_rnn(basic_cell, X, dtype=tf.float32,
                                    sequence_length=seq_length)

例如,假设第二个输入序列只包含一个输入而不是两个输入。 为了适应输入张量X,必须填充零向量(因为输入张量的第二维是最长序列的大小,即 2)

X_batch = np.array([
        # step 0     step 1
        [[0, 1, 2], [9, 8, 7]], # instance 1
        [[3, 4, 5], [0, 0, 0]], # instance 2 (padded with zero vectors)
        [[6, 7, 8], [6, 5, 4]], # instance 3
        [[9, 0, 1], [3, 2, 1]], # instance 4
    ])
seq_length_batch = np.array([2, 1, 2, 2])

当然,你现在需要为两个占位符X和seq_length提供值:

with tf.Session() as sess:
    init.run()
    outputs_val, states_val = sess.run(
        [outputs, states], feed_dict={X: X_batch, seq_length: seq_length_batch})

现在,RNN 输出序列长度的每个时间步都会输出零向量(查看第二个时间步的第二个输出):

>>>print(outputs_val)
[[[ 0.73155707  0.34835717  0.50581998 -0.22882833 -0.44022718]
  [-0.61832315  0.99999994  0.86584806  0.97933769  0.9902246 ]]

 [[ 0.8438704   0.99697548  0.84789461  0.4303219   0.09275495]
  [ 0.          0.          0.          0.          0.        ]]

 [[ 0.91159219  0.99999052  0.95954454  0.81892216  0.57740247]
  [-0.77545464  0.99987745  0.97847283  0.73172009  0.888776  ]]

 [[-0.99952269  0.99977839  0.59744656  0.99309695  0.99847412]
  [-0.62120003  0.54000849  0.96938425  0.19893228  0.1944804 ]]]

此外,状态张量包含每个单元的最终状态(不包括零向量):

>>>print(states_val)
[[-0.61832315  0.99999994  0.86584806  0.97933769  0.9902246 ]
 [ 0.8438704   0.99697548  0.84789461  0.4303219   0.09275495]
 [-0.77545464  0.99987745  0.97847283  0.73172009  0.888776  ]
 [-0.62120003  0.54000849  0.96938425  0.19893228  0.1944804 ]]

处理变长输出序列

如果输出序列长度不一样呢? 如果事先知道每个序列的长度(例如,如果知道长度与输入序列的长度相同),那么可以按照上面所述设置sequence_length参数。 不幸的是,通常这是不可能的:例如,翻译后的句子的长度通常与输入句子的长度不同。 在这种情况下,最常见的解决方案是定义一个称为序列结束标记(EOS 标记)的特殊输出。 任何在 EOS 后面的输出应该被忽略(我们将在本章稍后讨论)。


训练 RNN

好,现在你知道如何建立一个 RNN 网络(或者更准确地说是一个随着时间的推移而展开的 RNN 网络)。 但是你怎么训练呢?

为了训练一个 RNN,诀窍是在时间上展开(就像我们刚刚做的那样),然后简单地使用常规反向传播(见图 14-5)。 这个策略被称为时间上的反向传播(BPTT)。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第6张图片

就像在正常的反向传播中一样,展开的网络(用虚线箭头表示)有第一个正向传递。然后使用损失函数评估输出序列 《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第7张图片
(其中 tmin t m i n tmax t m a x 是第一个和最后一个输出时间步长,不计算忽略的输出),并且该损失函数的梯度通过展开的网络向后传播(实线箭头);最后使用在 BPTT 期间计算的梯度来更新模型参数。 请注意,梯度在损失函数所使用的所有输出中反向流动,而不仅仅通过最终输出(例如,在图 14-5 中,损失函数使用网络的最后三个输出 Y(2) Y ( 2 ) Y(3) Y ( 3 ) Y(4) Y ( 4 ) ,所以梯度流经这三个输出,但不通过 Y(0) Y ( 0 ) Y(1) Y ( 1 ) )。 而且,由于在每个时间步骤使用相同的参数 W W b b ,所以反向传播将做正确的事情并且总结所有时间步骤。

训练序列分类器

我们训练一个 RNN 来分类 MNIST 图像。 卷积神经网络将更适合于图像分类(见第 13 章),但这是一个你已经熟悉的简单例子。 我们将把每个图像视为 28 行 28 像素的序列(因为每个MNIST图像是28×28像素)。 我们将使用 150 个循环神经元的单元,再加上一个全连接层,其中包含连接到上一个时间步的输出的 10 个神经元(每个类一个),然后是一个 softmax 层
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第8张图片
建模阶段非常简单, 它和我们在第 10 章中建立的 MNIST 分类器几乎是一样的,只是展开的 RNN 替换了隐层。 注意,全连接层连接到状态张量,其仅包含 RNN 的最终状态(即,第 28 个输出)。 另请注意,y是目标类的占位符。

n_steps = 28
n_inputs = 28
n_neurons = 150
n_outputs = 10

learning_rate = 0.001

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.int32, [None])

basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
outputs, states = tf.nn.dynamic_rnn(basic_cell, X, dtype=tf.float32)

logits = tf.layers.dense(states, n_outputs)
xentropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=y, logits=logits)
loss = tf.reduce_mean(xentropy)
optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
training_op = optimizer.minimize(loss)
correct = tf.nn.in_top_k(logits, y, 1)
accuracy = tf.reduce_mean(tf.cast(correct, tf.float32))

init = tf.global_variables_initializer()

加载 MNIST 数据,并按照网络的预期方式将测试数据重塑为[batch_size, n_steps, n_inputs]。 我们之后会关注训练数据的重塑。

from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets("/tmp/data/")
X_test = mnist.test.images.reshape((-1, n_steps, n_inputs))
y_test = mnist.test.labels

现在我们准备训练 RNN 了。 执行阶段与第 10 章中 MNIST 分类器的执行阶段完全相同,不同之处在于我们在将每个训练的批量提供给网络之前要重新调整。

n_epochs = 100
batch_size = 150

with tf.Session() as sess:
    init.run()
    for epoch in range(n_epochs):
        for iteration in range(mnist.train.num_examples // batch_size):
            X_batch, y_batch = mnist.train.next_batch(batch_size)
            X_batch = X_batch.reshape((-1, n_steps, n_inputs))
            sess.run(training_op, feed_dict={X: X_batch, y: y_batch})
        acc_train = accuracy.eval(feed_dict={X: X_batch, y: y_batch})
        acc_test = accuracy.eval(feed_dict={X: X_test, y: y_test})
        print(epoch, "Train accuracy:", acc_train, "Test accuracy:", acc_test)

我们获得了超过 98% 的准确性, 另外,通过调整超参数,使用 He 初始化初始化 RNN 权重,更长时间训练或添加一些正则化(例如,droupout),你肯定会获得更好的结果。

你可以通过将其构造代码包装在一个变量作用域内(例如,使用variable_scope(“rnn”, initializer = variance_scaling_initializer())来使用 He 初始化)来为 RNN 指定初始化器。


为预测时间序列而训练

现在让我们来看看如何处理时间序列,如股价,气温,脑电波模式等等。 在本节中,我们将训练一个 RNN 来预测生成的时间序列中的下一个值。 每个训练实例是从时间序列中随机选取的 20 个连续值的序列,目标序列与输入序列相同,除了向后移动一个时间步。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第9张图片
首先,我们来创建一个 RNN。 它将包含 100 个循环神经元,并且我们将在 20 个时间步骤上展开它,因为每个训练实例将是 20 个输入那么长。 每个输入将仅包含一个特征(在该时间的值)。 目标也是 20 个输入的序列,每个输入包含一个值。 代码与之前几乎相同:

n_steps = 20 
n_inputs = 1 
n_neurons = 100 
n_outputs = 1

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs]) 
y = tf.placeholder(tf.float32, [None, n_steps, n_outputs]) cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu) 
outputs, states = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)

一般来说,你将不只有一个输入功能。 例如,如果你试图预测股票价格,则你可能在每个时间步骤都会有许多其他输入功能,例如竞争股票的价格,分析师的评级或可能帮助系统进行预测的任何其他功能。

在每个时间步,我们现在有一个大小为 100 的输出向量。但是我们实际需要的是每个时间步的单个输出值。 最简单的解决方法是将单元包装在OutputProjectionWrapper中。 单元包装器就像一个普通的单元,代理每个方法调用一个底层单元,但是它也增加了一些功能。Out putProjectionWrapper在每个输出之上添加一个完全连接的线性神经元层(即没有任何激活函数)(但不影响单元状态)。 所有这些完全连接的层共享相同(可训练)的权重和偏差项。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第10张图片

包装单元是相当容易的。 通过将BasicRNNCell包装到OutputProjectionWrapper中来调整前面的代码:

cell =tf.contrib.rnn.OutputProjectionWrapper(
    tf.contrib.rnn.BasicRNNCell(num_units=n_neurons,activation=tf.nn.relu),
    output_size=n_outputs)

现在我们需要定义损失函数。 我们将使用均方误差(MSE),就像我们在之前的回归任务中所做的那样。 接下来,我们将像往常一样创建一个 Adam 优化器,训练操作和变量初始化操作

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第11张图片

尽管使用OutputProjectionWrapper是将RNN输出序列的维度降低到每个时间步长(每个实例)只有一个值的最简单的解决方案,但它并不是最有效的。 有一个更棘手但更有效的解决方案:您可以将[batch_size,n_steps,n_neurons]的RNN输出重新整形为[batch_size * n_steps,n_neurons],然后应用具有适当输出大小的单个完全连接层(在我们的示例中仅为1) ),这将导致形状的输出张量[batch_size * n_steps,n_outputs],然后将此张量重新整形为[batch_size,n_steps,n_outputs]。

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第12张图片

要实现此解决方案,我们首先恢复到基本单元格,而不使用OutputProjectionWrapper:

cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons, activation=tf.nn.relu) rnn_outputs, states = tf.nn.dynamic_rnn(cell, X, dtype=tf.float32)

然后我们使用reshape()操作堆叠所有输出,应用完全连接的线性层(不使用任何激活函数;这只是一个投影),最后使用reshape()取消堆叠所有输出:

stacked_rnn_outputs = tf.reshape(rnn_outputs, [-1, n_neurons]) stacked_outputs = fully_connected(stacked_rnn_outputs, n_outputs, activation_fn=None) outputs = tf.reshape(stacked_outputs, [-1, n_steps, n_outputs])

其余代码与之前相同。 这可以显著地提升速度,因为只有一个完全连接的层而不是每个时间步骤一个。

生成 RNN

到现在为止,我们已经训练了一个能够预测未来时刻样本值的模型,正如前文所述,可以用模型来生成新的序列。

为模型提供 长度为n_steps的种子序列, 比如全零序列,然后通过模型预测下一时刻的值;把该预测值添加到种子序列的末尾,用最后面 长度为n_steps的序列做为新的种子序列,做下一次预测,以此类推生成预测序列。

如图 14-11 所示,这个过程产生的序列会跟原始时间序列相似。

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第13张图片

sequence = [0.] * n_steps
for iteration in range(300):
    X_batch = np.array(sequence[-n_steps:].reshape(1, n_steps, 1)
    y_pred = sess.run(outputs, feed_dict={X: X_batch}
    sequence.append(y_pred[0, -1, 0]

深度RNN

为了用 TensorFlow 实现深度 RNN,可先创建一些神经单元,然后堆叠进MultiRNNCell。

以下代码中创建了 3 个相同的神经单元(当然也可以用不同类别的、包含不同不同数量神经元的单元)

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第14张图片

n_neurons = 100 n_layers = 3

basic_cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons) multi_layer_cell = tf.contrib.rnn.MultiRNNCell([basic_cell] * n_layers) outputs, states = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

这些代码就完成了这部分堆叠工作。status变量包含了每层的一个张量,这个张量就代表了该层神经单元的最终状态(维度为[batch_size, n_neurons])。

如果在创建MultiRNNCell时设置了state_is_tuple=False,那么status变量就变成了单个张量,它包含了每一层的状态,其在列的方向上进行了聚合,维度为[batch_size, n_layers*n_neurons]。

注意在 TensorFlow 版本 0.11.0 之前,status是单个张量是默认设置。

在多个 GPU 上分布式部署深度 RNN 网络

简单地忽略设备块。 细胞实际上是后来创建的。 当你调用dynamic_rnn()时,它调用MultiRNNCell,它调用每个单独的BasicRNNCell,它创建实际的单元格(包括它们的变量)。 不幸的是,这些类都没有提供任何方法来控制创建变量的设备。 如果您尝试将dynamic_rnn()调用放在设备块中,则整个RNN将固定到单个设备。 所以你被卡住了吗? 幸运的是没有! 诀窍是创建自己的单元格包装器:

import tensorflow as tf

class DeviceCellWrapper(tf.contrib.rnn.RNNCell):
    def __init__(self, device, cell):
        self._cell = cell self._device = device
    @property 
    def state_size(self):
        return self._cell.state_size
    @property 
    def output_size(self):
        return self._cell.output_size
    def __call__(self, inputs, state, scope=None):
        with tf.device(self._device):
            return self._cell(inputs, state, scope)

这个包装器简单地代理每个方法调用到另一个单元格,除了它将call ()函数包装在一个设备块中。 2现在,您可以在不同的GPU上分发每个图层:

devices = ["/gpu:0", "/gpu:1", "/gpu:2"] 
cells = [DeviceCellWrapper(dev,tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)) for dev in devices] 
multi_layer_cell = tf.contrib.rnn.MultiRNNCell(cells) 
outputs, states = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

不要设置state_is_tuple = False,否则MultiRNNCell会在单个GPU上将所有单元状态连接成单个张量。

Dropout 的应用

对于深层深度 RNN,在训练集上很容易过拟合。Dropout 是防止过拟合的常用技术。

可以简单的在 RNN 层之前或之后添加一层 Dropout 层,但如果需要在 RNN 层之间应用 Dropout 技术就需要DropoutWrapper。

下面的代码中,每一层的 RNN 的输入前都应用了 Dropout,Dropout 的概率为 50%。

keep_prob = 0.5

cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
cell_drop = tf.contrib.rnn.DropoutWrapper(cell, input_keep_prob=keep_prob)
multi_layer_cell = tf.contrib.rnn.MultiRNNCell([cell_drop]*n_layers)
rnn_outputs, states = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

同时也可以通过设置output_keep_prob来在输出应用 Dropout 技术。

然而在以上代码中存在的主要问题是,Dropout 不管是在训练还是测试时都起作用了,而我们想要的仅仅是在训练时应用 Dropout。

很不幸的是DropoutWrapper不支持is_training这样一个设置选项。因此必须自己写 Dropout 包装类,或者创建两个计算图,一个用来训练,一个用来测试。后则可通过如下面代码这样实现。

import sys
is_training  = (sys.argv[-1] == "train")

X = tf.placeholder(tf.float32, [None, n_steps, n_inputs])
y = tf.placeholder(tf.float32, [None, n_steps, n_outputs])
cell = tf.contrib.rnn.BasicRNNCell(num_units=n_neurons)
if is_training:
    cell = tf.contrib.rnn.DropoutWrapper(cell, input_keep_prob=keep_prob)
multi_layer_cell = tf.contrib.rnn.MultiRNNCell([cell]*n_layers)
rnn_outpus, status = tf.nn.dynamic_rnn(multi_layer_cell, X, dtype=tf.float32)

[...] # bulid the rest of the graph
init = tf.global_variables_initializer()
saver = tf.train.Saver()

with tf.Session() as sess:
    if is_training:
        init.run()
        for iteration in range(n_iterations):
            [...] # train the model
        save_path = saver.save(sess, "/tmp/my_model.ckpt")
    else:
        saver.restore(sess, "/tmp/my_model.ckpt")
        [...] # use the model
长时训练的困难

在训练长序列的 RNN 模型时,那么就需要把 RNN 在时间维度上展开成很深的神经网络。正如任何深度神经网络一样,其面临着梯度消失/爆炸的问题,使训练无法终止或收敛。

很多之前讨论过的缓解这种问题的技巧都可以应用在深度展开的 RNN 网络:好的参数初始化方式,非饱和的激活函数(如 ReLU),批量规范化(Batch Normalization), 梯度截断(Gradient Clipping),更快的优化器。

即便如此, RNN 在处理适中的长序列(如 100 输入序列)也在训练时表现的很慢。

最简单和常见的方法解决训练时长问题就是在训练阶段仅仅展开限定时间步长的 RNN 网络,一种称为截断时间反向传播的算法。

在 TensorFlow 中通过截断输入序列来简单实现这种功能。例如在时间序列预测问题上可以在训练时减小n_steps来实现截断。理所当然这种方法会限制模型在长期模式的学习能力。一种变通方案时确保缩短的序列中包含旧数据和新数据,从而使模型获得两者信息(如序列同时包含最近五个月的数据,最近五周的和最近五天的数据)。

问题时如何确保从去年的细分类中获取的数据有效性呢?这期间短暂但重要的事件对后世的影响,甚至时数年后这种影响是否一定要考虑在内呢(如选举结果)?这种方案有其先天的不足之处。

在长的时间训练过程中,第二个要面临的问题时第一个输入的记忆会在长时间运行的 RNN 网络中逐渐淡去。确实,通过变换的方式,数据穿流在 RNN 网络之中,每个时间步长后都有一些信息被抛弃掉了。那么在一定时间后,第一个输入实际上会在 RNN 的状态中消失于无形。

比如说,你想要分析长篇幅的影评的情感类别,影评以”I love this movie”开篇,并辅以各种改善影片的一些建议。试想一下,如果 RNN 网络逐渐忘记了开头的几个词,RNN 网络的判断完全有可能会对影评断章取义。

为了解决其中的问题,各种能够携带长时记忆的神经单元的变体被提出。这些变体是有效的,往往基本形式的神经单元就不怎么被使用了。

首先了解一下最流行的一种长时记忆神经单元:长短时记忆神经单元 LSTM。


LSTM 单元

长短时记忆单元在 1997 年由 S.H. 和 J.S. 首次提出 [3],并在接下来的几年内经过 A.G,H.S [4],W.Z [5] 等数位研究人员的改进逐渐形成。如果把 LSTM 单元看作一个黑盒,从外围看它和基本形式的记忆单元很相似,但 LSTM 单元会比基本单元性能更好,收敛更快,能够感知数据的长时依赖。TensorFlow 中通过BasicLSTMCell实现 LSTM 单元。

stm_cell = tf.contrib.rnn.BasicLSTMCell(num_units=n_neurons)

LSTM 单元的工作机制:
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第15张图片

观察 LSTM 单元内部,除了一些不同外跟常规 RNN 单元极其相似。这些不同包括 LSTM 单元状态分为两个向量: h(t) h ( t ) c(t) c ( t ) (c代表 cell)。可以简单认为 h(t) h ( t ) 是短期记忆状态, c(t) c ( t ) 是长期记忆状态。

好,我们来打开盒子。LSTM 单元的核心思想是其能够学习从长期状态中存储什么,忘记什么,读取什么。长期状态 c(t1) c ( t − 1 ) 从左向右在网络中传播,依次经过遗忘门(forget gate)时丢弃一些记忆,之后加法操作增加一些记忆(从输入门中选择一些记忆)。输出 c(t) c ( t ) 不经任何转换直接输出。每个单位时间步长后,都有一些记忆被抛弃,新的记忆被添加进来。另一方面,长时状态经过 tanh 激活函数通过输出门得到短时记忆 h(t) h ( t ) ,同时它也是这一时刻的单元输出结果 y(t) y ( t ) 。接下来讨论一下新的记忆时如何产生的,门的功能是如何实现的。

首先,当前的输入向量 x(t) x ( t ) 和前一时刻的短时状态 h(t1) h ( t − 1 ) 作为输入传给四个全连接层,这四个全连接层有不同的目的:
其中主要的全连接层输出 g(t) g ( t ) ,它的常规任务就是解析当前的输入 x(t) x ( t ) 和前一时刻的短时状态 h(t1) h ( t − 1 ) 。在基本形式的 RNN 单元中,就与这种形式一样,直接输出了 h(t) h ( t ) y(t) y ( t ) 。与之不同的是 LSTM 单元会将一部分 g(t) g ( t ) 存储在长时状态中。
其它三个全连接层被称为门控制器(gate controller)。其采用 Logistic 作为激活函数,输出范围在 0 到 1 之间。正如在结构图中所示,这三个层的输出提供给了逐元素乘法操作,当输入为 0 时门关闭,输出为 1 时门打开。分别为:
遗忘门(forget gat)由 f(t) f ( t ) 控制,来决定哪些长期记忆需要被擦除;
输入门(input gate) 由 i(t) i ( t ) 控制,它的作用是处理哪部分 g(t) g ( t ) 应该被添加到长时状态中,也就是为什么被称为部分存储。
输出门(output gate)由 o(t) o ( t ) 控制,在这一时刻的输出 h(t) h ( t ) y(t) y ( t ) 就是由输出门控制的,从长时状态中读取的记忆。
简要来说,LSTM 单元能够学习到识别重要输入(输入门作用),存储进长时状态,并保存必要的时间(遗忘门功能),并学会提取当前输出所需要的记忆。

这也解释了 LSTM 单元能够在提取长时序列,长文本,录音等数据中的长期模式的惊人成功的原因。

公式 14-3 总结了如何计算单元的长时状态,短时状态,和单个输入情形时每单位步长的输出(小批量的方程形式与单输入的形式相似)。

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第16张图片

WxiWxfWxoWxg W x i , W x f , W x o , W x g 是四个全连接层关于输入向量 x^{(t)} 的权重。
WhiWhfWhoWhg W h i , W h f , W h o , W h g 是四个全连接层关于上一时刻的短时状态 h^{(t-1)} 的权重。
bibfbobg b i , b f , b o , b g 是全连接层的四个偏置项,需要注意的是 TensorFlow 将其初始化为全 1 向量,而非全 0,为了阻止网络初始训练状态下,各个门关闭从而忘记所有记忆。

窥孔连接 Peephole Connections

基本形式的 LSTM 单元中,门的控制仅有当前的输入 x^{(t)} 和前一时刻的短时状态 h^{(t-1)}。不妨让各个控制门窥视一下长时状态,获取一些上下文信息不失为一种尝试。该想法由 F.G.he J.S. 在 2000 年提出。他们提出的 LSTM 的变体拥有叫做窥孔连接的额外连接:把前一时刻的长时状态 c^{(t-1)} 加入遗忘门和输入门控制的输入,当前时刻的长时状态加入输出门的控制输入。

TensorFLow 中由LSTMCell实现以上变体 LSTM,并设置use_peepholes=True。

lstm_cell = tf.contrib.rnn.LSTMCell(num_units=n_neurons, use_peepholes=True)

在众多 LSTM 变体中,一个特别流行的变体就是 GRU 单元。

《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第17张图片

门控循环单元(图 14-14)在 2014 年的 K.Cho et al. 的论文中提出,并且此文也引入了前文所述的编解码网络。

门控循环单元是 LSTM 单元的简化版本,能实现同样的性能,这也说明了为什么它能越来越流行。简化主要在一下几个方面:

长时状态和短时状态合并为一个向量 h(t) h ( t )
用同一个门控制遗忘门和输入门。如果门控制输入 1,输入门打开,遗忘门关闭,反之亦然。也就是说,如果当有新的记忆需要存储,那么就必须实现在其对应位置事先擦除该处记忆。这也构成了 LSTM 本身的常见变体。
GRU 单元取消了输出门,单元的全部状态就是该时刻的单元输出。与此同时,增加了一个控制门 r(t) r ( t ) 来控制哪部分前一时间步的状态在该时刻的单元内呈现。
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第18张图片
在 TensoFlow 中创建 GRU 单元很简单:

gru_cell = tf.contrib.rnn.GRUCell(n_units=n_neurons)

LSTM 或 GRU 单元是近年来 RNN 成功背后的主要原因之一,特别是在自然语言处理(NLP)中的应用。


自然语言处理

现在,大多数最先进的 NLP 应用(如机器翻译,自动摘要,解析,情感分析等),现在(至少一部分)都基于 RNN。 在最后一节中,我们将快速了解机器翻译模型的概况。 TensorFlow 的很厉害的 Word2Vec 和 Seq2Seq 教程非常好地介绍了这个主题,所以你一定要阅读一下。

单词嵌入

在我们开始之前,我们需要选择一个词的表示形式。 一种选择可以是,使用单热向量表示每个词。 假设你的词汇表包含 5 万个单词,那么第n个单词将被表示为 50,000 维的向量,除了第n个位置为 1 之外,其它全部为 0。 然而,对于如此庞大的词汇表,这种稀疏表示根本就不会有效。 理想情况下,你希望相似的单词具有相似的表示形式,这使得模型可以轻松地将所学的关于单词的只是,推广到所有相似单词。 例如,如果模型被告知”I drink milk”是一个有效的句子,并且如果它知道”milk”接近于”water”,而不同于”shoes”,那么它会知道”I drink water” 也许是一个有效的句子,而”I drink shoes”可能不是。 但你如何提出这样一个有意义的表示呢?

最常见的解决方案是,用一个相当小且密集的向量(例如 150 维)表示词汇表中的每个单词,称为嵌入,并让神经网络在训练过程中,为每个单词学习一个良好的嵌入。 在训练开始时,嵌入只是随机选择的,但在训练过程中,反向传播会自动更新嵌入,来帮助神经网络执行任务。 通常这意味着,相似的词会逐渐彼此靠近,甚至最终以一种相当有意义的方式组织起来。 例如,嵌入可能最终沿着各种轴分布,它们代表性别,单数/复数,形容词/名词。 结果可能真的很神奇。

在TensorFlow中,首先需要创建一个变量来表示词汇表中每个词的嵌入(随机初始化):

vocabulary_size = 50000
embedding_size = 150
embeddings = tf.Variable(
    tf.random_uniform([vocabulary_size, embedding_size], -1.0, 1.0))

现在假设你打算将句子”I drink milk”提供给你的神经网络。 你应该首先对句子进行预处理并将其分解成已知单词的列表。 例如,你可以删除不必要的字符,用预定义的标记词(如”[UNK]”)替换未知单词,用”[NUM]”替换数字值,用”[URL]”替换 URL 等。 一旦你有了一个已知单词列表,你可以在字典中查找每个单词的整数标识符(从 0 到 49999),例如[72,3335,288]。 此时,你已准备好使用占位符将这些单词标识符提供给 TensorFlow,并应用embedding_lookup()函数来获取相应的嵌入:

train_inputs = tf.placeholder(tf.int32, shape=[None])  # from ids...
embed = tf.nn.embedding_lookup(embeddings, train_inputs)  # ...to embeddings

一旦你的模型习得了良好的词嵌入,它们实际上可以在任何 NLP 应用中高效复用:毕竟,”milk”依然接近于”water”,而且不管你的应用是什么,它都不同于”shoes”。 实际上,你可能需要下载预训练的单词嵌入,而不是训练自己的单词嵌入。 就像复用预训练层(参见第 11 章)一样,你可以选择冻结预训练嵌入(例如,使用trainable=False创建嵌入变量),或者让反向传播为你的应用调整它们。 第一种选择将加速训练,但第二种选择可能会产生稍高的性能。

用于机器翻译的编解码器网络
《Hands-On Machine Learning with Scikit-Learn & TensorFlow》读书笔记 第十四章 循环神经网络_第19张图片

英语句子被送进编码器,解码器输出法语翻译。 请注意,法语翻译也被用作解码器的输入,但后退了一步。 换句话说,解码器的输入是它应该在前一步输出的字(不管它实际输出的是什么)。 对于第一个单词,提供了表示句子开始的标记(””)。 解码器预期以序列末尾标记(EOS)结束句子(””)。

请注意,英语句子在送入编码器之前会反转。 例如,”I drink milk”与”milk drink I”相反。这确保了英语句子的开头将会最后送到编码器,这很有用,因为这通常是解码器需要翻译的第一个东西。

每个单词最初由简单整数标识符表示(例如,单词”milk”为 288)。 接下来,嵌入查找返回词的嵌入(如前所述,这是一个密集的,相当低维的向量)。 这些词的嵌入是实际送到编码器和解码器的内容。

在每个步骤中,解码器输出输出词汇表(即法语)中每个词的得分,然后 Softmax 层将这些得分转换为概率。 例如,在第一步中,单词”Je”有 20% 的概率,”Tu”有 1% 的概率,以此类推。 概率最高的词会输出。 这非常类似于常规分类任务,因此你可以使用softmax_cross_entropy_with_logits()函数来训练模型。

请注意,在推断期间(训练之后),你不再将目标句子送入解码器。 相反,只需向解码器提供它在上一步输出的单词,如图 14-16 所示(这将需要嵌入查找,它未在图中显示)。

图 14-16:在推断期间,将之前的输出单词提供为输入

好的,现在你有了大方向。 但是,如果你阅读 TensorFlow 的序列教程,并查看rnn/translate/seq2seq_model.py中的代码(在 TensorFlow 模型中),你会注意到一些重要的区别:

首先,到目前为止,我们已经假定所有输入序列(编码器和解码器的)具有恒定的长度。但显然句子长度可能会有所不同。有几种方法可以处理它 - 例如,使用static_rnn()或dynamic_rnn()函数的sequence_length参数,来指定每个句子的长度(如前所述)。然而,教程中使用了另一种方法(大概是出于性能原因):句子分到长度相似的桶中(例如,句子的单词 1 到 6 分到一个桶,单词 7 到 12 分到另一个桶,等等),并且使用特殊的填充标记(例如””)来填充较短的句子。例如,”I drink milk”变成” milk drink I”,翻译成”Je bois du lait ”。当然,我们希望忽略任何 EOS 标记之后的输出。为此,本教程的实现使用target_weights向量。例如,对于目标句子”Je bois du lait ”,权重将设置为[1.0,1.0,1.0,1.0,1.0,0.0](注意权重 0.0 对应目标句子中的填充标记)。简单地将损失乘以目标权重,将消除对应 EOS 标记之后的单词的损失。

其次,当输出词汇表很大时(就是这里的情况),输出每个可能的单词的概率将会非常慢。 如果目标词汇表包含 50,000 个法语单词,则解码器将输出 50,000 维向量,然后在这样的大向量上计算 softmax 函数,计算量将非常大。 为了避免这种情况,一种解决方案是让解码器输出更小的向量,例如 1,000 维向量,然后使用采样技术来估计损失,而不必对目标词汇表中的每个单词计算它。 这种采样 Softmax 技术是由 SébastienJean 等人在 2015 年提出的。在 TensorFlow 中,你可以使用sampled_softmax_loss()函数。

第三,教程的实现使用了一种注意力机制,让解码器能够窥视输入序列。 注意力增强的 RNN 不在本书的讨论范围之内,但如果你有兴趣,可以关注机器翻译,机器阅读和图像说明的相关论文。

最后,本教程的实现使用了tf.nn.legacy_seq2seq模块,该模块提供了轻松构建各种编解码器模型的工具。 例如,embedding_rnn_seq2seq()函数会创建一个简单的编解码器模型,它会自动为你处理单词嵌入,就像图 14-15 中所示的一样。 此代码可能会很快更新,来使用新的tf.nn.seq2seq模块。

你现在拥有了,了解所有 seq2seq 教程的实现所需的全部工具。 将它们取出,并训练你自己的英法翻译器吧!


Q&A

1、你能想象 seq2seq RNN 的几个应用吗? seq2vec 的 RNN 呢?vex2seq 的 RNN 呢?
以下是一些RNN应用程序:
•对于序列到序列的RNN:预测天气(或任何其他时间序列),机器翻译(使用编码器 - 解码器架构),视频字幕,语音到文本,音乐生成(或其他序列生成),识别一首歌的和弦。
•对于序列到矢量RNN:按音乐类型对音乐样本进行分类,分析书评的情绪,根据大脑植入物的读数预测失语症患者正在考虑的单词,预测用户想要的概率根据她的观看历史观看电影(这是协作过滤的许多可能实现之一)。
•对于矢量到序列RNN:图像字幕,基于当前艺术家的嵌入创建音乐播放列表,基于一组参数生成旋律,在图片中定位行人(例如,来自自己的视频帧) - 驾驶汽车的相机)。

2、为什么人们使用编解码器 RNN 而不是简单的 seq2seq RNN 来自动翻译?
一般来说,如果你一次翻译一个单词,结果就会很糟糕。例如,法语句子“Je vous en prie”的意思是“欢迎你”,但如果你一次翻译一个词,你会得到“我在祷告。”嗯?首先阅读整个句子然后翻译它会好得多。普通序列 - 序列RNN将在读取第一个字之后立即开始翻译句子,而编码器 - 解码器RNN将首先读取整个句子然后翻译它。也就是说,人们可以想象一个简单的序列到序列的RNN,只要不确定接下来要说什么就会输出静音(就像人类翻译者必须翻译直播时那样)。

3、如何将卷积神经网络与 RNN 结合,来对视频进行分类?
为了基于视觉内容对视频进行分类,一种可能的架构可以是(比方说)每秒一帧,然后通过卷积神经网络运行每一帧,将CNN的输出馈送到序列到矢量RNN ,最后通过softmax层运行其输出,为您提供所有类概率。对于培训,您只需使用交叉熵作为成本函数。如果您也想将音频用于分类,您可以将每秒音频转换为光谱仪,将此光谱仪输入CNN,并将此CNN的输出馈送到RNN(以及其他CNN的相应输出)。

4、使用dynamic_rnn()而不是static_rnn()构建 RNN 有什么好处?
使用dynamic_rnn()而不是static_rnn()构建RNN具有以下几个优点:

•它基于while_loop()操作,该操作能够在反向传播期间将GPU的内存交换到CPU的内存,从而避免内存不足错误。
•它可以说更容易使用,因为它可以直接将单个张量作为输入和输出(涵盖所有时间步骤),而不是张量列表(每个时间步长一个)。无需堆叠,取消堆叠或转置。

•它生成一个较小的图形,更容易在TensorBoard中可视化。

5、你如何处理长度可变的输入序列? 那么长度可变输出序列呢?
要处理可变长度输入序列,最简单的选项是在调用static_rnn()或dynamic_rnn()函数时设置sequence_length参数。另一种选择是填充较小的输入(例如,用零)以使它们与最大输入相同(如果输入序列都具有非常相似的长度,则这可能比第一选项快)。要处理可变长度输出序列,如果事先知道每个输出序列的长度,可以使用sequence_length参数(例如,考虑序列 - 序列序列RNN,用暴力分数标记视频中的每一帧:输出序列与输入序列的长度完全相同)。如果您事先不知道输出序列的长度,则可以使用填充技巧:始终输出相同大小的序列,但忽略序列结束标记之后的任何输出(通过在计算时忽略它们)成本函数)。

6、在多个 GPU 上分配深层 RNN 的训练和执行的常见方式是什么?
要在多个GPU上分发深度RNN的训练和执行,常见的技术就是将每个层放在不同的GPU上(参见第12章)。

你可能感兴趣的:(hands-on,ML,with,Sklearn&TF)