自然语言处理之Seq2seq的注意力机制,循环模型的问题,self-attention及Transformer结构讲解
Encoder-decoder模型特点:1.典型的end2end模型2.不论序列长度,固定大小的中间向量,可能造成信息缺失(前面的信息被后面的覆盖)3.根据不同的任务可以选取不同的编码器和解码器(cnn,rnn,lstm,gru等)缺点:Encoder将输入(Source)编码为固定大小的向量的过程是一个“信息有损的压缩过程”,信息量越大,转化得到的固定向量中信息的损失就越大,这就得Decoder