【深度学习】各种注意力机制:encoder-decoder,self-attention,multi-head attention的区别
最近以QA形式写了一篇nlp中的Attention注意力机制+Transformer详解分享一下自己的观点,目录如下:一、Attention机制剖析1、为什么要引入Attention机制?2、Attention机制有哪些?(怎么分类?)3、Attention机制的计算流程是怎样的?4、Attention机制的变种有哪些?5、一种强大的Attention机制:为什么自注意力模型(self-Atten