Transformer:《Attention is all you need》(论文精读/原理解析/模型架构解读/源码解析/相关知识点解析/相关资源提供)
本文解读Transformer较为详细,是一篇两万字的长文,如果想看简短版的,请参考这篇文章目录1相关背景1.1Transformer1.2《Attentionisallyouneed》1.3论文作者1.4Googlebrain1.5NIPS1.6BLEUscore2摘要、结论、导言、相关工作2.1摘要2.2结论2.3导言2.4相关工作2.4.1为什么卷积做时序不行?2.4.2self-atten