基于Pytorch实现Seq2Seq模型进行机器翻译(实现了Attention机制、编码器&解码器的多层双向结构)
本文实现了带有Attention机制的Seq2Seq,并实现了其内部的LSTMencoder&decoder的多层或双向结构。(decoder单向,因为它要输出正确顺序的序列) ⭐ Seq2Seq原理学习(包含attention机制的讲解)参考这篇:点击进入 Seq2Seq原理也十分简单,就是由两个LSTM组成:一个作为encoder,一个作为Decoder。 比如在机器翻译任务中:☀训练阶段: