Seq2Seq -- 循环神经网络

1、Seq2Seq 出现解决的问题

上文针对于LSTM进行了讲解,随着发展,在机器翻译领域,普通的LSTM优势渐渐就追不上人们内心对准确率增长的期待;借鉴LSTM的思想,达到期待,在机器领域应运而生了--Seq2Seq模型。

2、Seq2Seq 介绍

Seq2Seq 结构

如图,整个模型可以分为两部分:LSTM Encoder 和 LSTM Decoder。这种组成,一般被称作为 Encoder - Decoder 结构。在LSTM Encoder部分,试图用一个LSTM 将原始的语料信息编码起来;对应的在LSTM Decoder部分,试图将编码后的原始语料和翻译语料一同解码,形成一个解码器。

中间传递的是对原始语料编码后的最终隐含状态。

这种结构,是对LSTM的一种结构上的拓展,分为Encoder 和 Decoder使得结构很清晰,这种思想也一直借鉴。但是,试图用LSTM将信息都保存下来还是很困难,随着句子长度越来越长,前面输入的信息很容易被稀释。

3、参考资料

  • 全面解析RNN,LSTM,Seq2Seq,Attention注意力机制

你可能感兴趣的:(Seq2Seq -- 循环神经网络)