编码器解码器架构、Seq2Seq简要笔记

编码器解码器架构

      编码器解码器架构、Seq2Seq简要笔记_第1张图片

编码器解码器架构、Seq2Seq简要笔记_第2张图片

 编码器解码器架构、Seq2Seq简要笔记_第3张图片

编码器解码器架构、Seq2Seq简要笔记_第4张图片

 后续自然语言处理都基本使用这个架构来实现的

编码器解码器架构、Seq2Seq简要笔记_第5张图片

Seq2Seq最早是用来做机器翻译的,现在用Bert比较多,Seq2Seq是一个Encoder-Decoder的架构,Seq2Seq模型的编码器使用的Rnn,解码器也是Rnn,编码器把最后那个hidden state传给解码器

编码器解码器架构、Seq2Seq简要笔记_第6张图片

双向Rnn经常用在encoder里面(给一个句子过来正向看一下,反向看一下),decoder需要预测,decoder不需要双向,解码器也是一个Rnn输出,

编码器解码器架构、Seq2Seq简要笔记_第7张图片

Seq2Seq训练和推理不太一样

 编码器解码器架构、Seq2Seq简要笔记_第8张图片

Add attention

编码器解码器架构、Seq2Seq简要笔记_第9张图片

编码器解码器架构、Seq2Seq简要笔记_第10张图片 编码器解码器架构、Seq2Seq简要笔记_第11张图片

编码器解码器架构、Seq2Seq简要笔记_第12张图片

编码器解码器架构、Seq2Seq简要笔记_第13张图片 

编码器解码器架构、Seq2Seq简要笔记_第14张图片 编码器解码器架构、Seq2Seq简要笔记_第15张图片

 Improve accuracy will consume more computation.

 RNN模型与NLP应用(8/9):Attention (注意力机制)_哔哩哔哩_bilibili //Brief and clear

Add self-attention

编码器解码器架构、Seq2Seq简要笔记_第16张图片

编码器解码器架构、Seq2Seq简要笔记_第17张图片 编码器解码器架构、Seq2Seq简要笔记_第18张图片编码器解码器架构、Seq2Seq简要笔记_第19张图片编码器解码器架构、Seq2Seq简要笔记_第20张图片

C1 is the weighted average of ho and h1.(h0 is a vector full of elements Zero),  then c1=h1

编码器解码器架构、Seq2Seq简要笔记_第21张图片

 编码器解码器架构、Seq2Seq简要笔记_第22张图片

编码器解码器架构、Seq2Seq简要笔记_第23张图片 

编码器解码器架构、Seq2Seq简要笔记_第24张图片 编码器解码器架构、Seq2Seq简要笔记_第25张图片

 

编码器解码器架构、Seq2Seq简要笔记_第26张图片 

编码器解码器架构、Seq2Seq简要笔记_第27张图片 编码器解码器架构、Seq2Seq简要笔记_第28张图片

 

编码器解码器架构、Seq2Seq简要笔记_第29张图片编码器解码器架构、Seq2Seq简要笔记_第30张图片 

 

 

 

 

 

 

 

Reference

seq2seq、attention、self-attention//very brief and clear,highly recommended for newbie in this filed

你可能感兴趣的:(#,NLP与推荐系统,seq2seq,attention,self-attention)