keras之seq2seq简单演示

资料来自这里

我比较懒,这里只画个重点,seq2seq的原理,包含2步,第一步学习获取输入序列的内部状态,第二步以第一步的状态向量为初始状态,对给定序列产生一个时间偏移1步的序列。

代码也在这个网站,想学习的自己看看吧。

工作原理

  • 有一个RNN层(或其堆叠)作为“编码器”:它负责处理输入序列并返回其自身的内部状态。注意,我们将丢弃编码器RNN的输出,只恢复状态。该状态将在下一步骤中用作解码器的“上下文”或“环境”。
  • 另外还有一个RNN层(或其堆叠)作为“解码器”:在给定目标序列前一个字符的情况下,对其进行训练以预测目标序列的下一个字符。具体来说,就是训练该层使其能够将目标序列转换成向将来偏移了一个时间步长的同一个序列,这种训练过程被称为“teacher forcing(老师强迫)”。有一点很重要,解码器将来自编码器的状态向量作为初始状态,这样,解码器就知道了它应该产生什么样的信息。实际上就是解码器以输入序列为条件,对于给定的targets[...t]学习生成targets[t+1...],。

你可能感兴趣的:(ai)