Tensorflow1.15实现Transformer(一):使用self-attention来实现文本分类
要学会一个算法,最好的办法还是自己复现一遍这里也是对自己学习的过程做一个记录了o( ̄▽ ̄)ブ尽量用最简洁的语言和最短的代码来实现一个Transformer,ViT,BERT,SwinTransformer这篇主要实现了Transformer里面的Self-Attention,并实践了文本分类问题Transformer介绍Transformer结构是google在17年的AttentionIsAll