BERT

1.BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
2.谷歌终于开源BERT代码:3 亿参数量,机器之心全面解读
2.BERT模型解读
3.如何评价 BERT 模型?
4.【NLP】Google BERT详解
5.NLP自然语言处理: 谷歌BERT模型深度解析
5.预训练在自然语言处理的发展: 从Word Embedding到BERT模型
6.从Word Embedding到Bert模型—自然语言处理中的预训练技术发展史

理解transformer:

深度学习中的注意力模型(2017版) : attention -> self-attention
详解Transformer (Attention Is All You Need)
Neural Machine Translation by Jointly Learning to Align and Translate : attention在机器翻译的典型使用
Attention和Transformer
[整理] 聊聊 Transformer
7.神经机器翻译 之 谷歌 transformer 模型
8.Transformer (变形金刚,大雾) 三部曲:RNN 的继承者

你可能感兴趣的:(BERT)