Attention、Self-attention 和 Transformer 的个人注记

下面为个人收集的一些链接:

细讲 | Attention Is All You Need     https://mp.weixin.qq.com/s/RLxWevVWHXgX-UcoxDS70w

Attention机制详解(一)——Seq2Seq中的Attention  https://zhuanlan.zhihu.com/p/47063917

Attention机制详解(二)——Self-Attention与Transformer  https://zhuanlan.zhihu.com/p/47282410

真正的完全图解Seq2Seq Attention模型  https://zhuanlan.zhihu.com/p/40920384

你可能感兴趣的:(神经网络)