self-attention && transformer 详解

我认为只需看李宏毅老师的课程就能对其有不错的认识理解

地址:强烈推荐!台大李宏毅自注意力机制和Transformer详解!_哔哩哔哩_bilibili

没时间的可以直接看P2:self-attention P4:transformer

-----------------------------------------------------------------------------------------------------------

补充资料:Transformer中Self-Attention以及Multi-Head Attention详解_哔哩哔哩_bilibili

你可能感兴趣的:(transformer,深度学习,人工智能)