Bert模型_3分钟热情学NLP第11篇

3分钟热情学NLP第11篇,Bert模型

BERT :Bidirectional Encoder Representations from Transformers)

2018年的10月11日,Google AI的Jacob Devlin和他的合作者在arxiv上放上了他们的文章,名为《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》
论文地址:https://arxiv.org/abs/1810.04805

1、Bert的2个阶段

Bert采用和GPT相同的2个阶段,
1、进行语言模型预训练;
2、是使用Fine-Tuning模式解决下游任务;

Fine-Tuning,Fine-tuning方式是指在已经训练好的语言模型的基础上,加入少量的task-specific parameters,进行微调。

2、Bert模型之Transformer

Transformer是个叠加的“自注意力机制(Self Attention)”构成的深度网络,是谷歌在2017年的论文“Attention is all you need”提出的。

调侃下,现在 XXX is all you need 已经成为了1个标题党

3、word2vec,ELMo,GPT和Bert的关系

摘自:https://zhuanlan.zhihu.com/p/49271699

4个模型的关系

Bert其实和ELMO及GPT存在千丝万缕的关系,比如如果我们把GPT预训练阶段换成双向语言模型,那么就得到了Bert;而如果我们把ELMO的特征抽取器换成Transformer,那么我们也会得到Bert。所以你可以看出:Bert最关键两点,一点是特征抽取器采用Transformer;第二点是预训练的时候采用双向语言模型。

长短期记忆网络(LSTM,Long Short-Term Memory)

参考:《会话式AI:自然语言处理与人机交互》 — 杜振东 涂铭

1、静态和动态

word2vec、FastText、glove是基于词向量的固定表征
ELMo、GPT、Bert是基于词向量的动态表征(动态表征可解决一词多义的问题)。

2、LSTM和Transformer

ELMo采用LSTM网络提取特征
GPT和Bert则采用Transformer提取

3、单向和双向

GPT是单向语言模型
ELMo和Bert是双向语言模型
单向语言模型只能看到上文,而双向语言模型可以看到上下文,这样可以解决一词多义的情况。在双向语言模型中,ELMo实际上是两个单向语言模型(方向相反)的拼接,而Bert使用Mask掩码实现了真正的双向语言模型。

你可能感兴趣的:(Bert模型_3分钟热情学NLP第11篇)