BERT 论文笔记

BERT:Pre-training of Deep Bidirectional Transformer for Language Understanding

谷歌AI团队发布,在机器阅读理解SQuAD1.1跑出的成绩,在两个指标上全面超越人类。

GLUE基准80.04%(7.6%绝对提升),MultiNLI准确率86.7%(5.6%绝对提升)

BERT= Bidirectional Encoder Representation from Transformers

Pre-training Objective : MLM(Masked Language Model), 随机mask input中一些tokens,目标就是根据context去预测mask位置原始的词汇id

除了MLM,引入next sentence prediction 任务联合训练pair级别的特征表示

贡献点:

1、证明了bidirectional对文本特征表示的重要性

2、证明了预训练的特征表示能够消除很多繁重的任务相关的网络结构

3、11个NLP任务上,提升了state of art水平

应用预训练模型的两个方案:

1、Feature based

ELMo方法希望通过语言模型提取上下文敏感的表示特征,把任务相关的结构和上下文word embedding结合起来.

2、Fine-tuning

在有监督的fine-tune指定任务前,先通过语言模型LM的目标,预训练模型

BERT核心

模型架构

双向的叫Transfer Encoder

单向的叫Transfer Decoder

BERT vs OpenAI GPT vs ELMo

image.png
输入表示Input Representation

多个Sentence可以拼成一个sentence

token Representation = token embedding + segment(句) + position embedding

1)tokens embedding用WordPiece embedding(Wu et al., 2016),3w token词汇

2)positional embedding支持序列长度到512个tokens

3)Segment embedding,第一句所有token都用A代替,第二句都用B代替

Pre-training 任务

不用传统的左向右或者右向左的LM来预训练 BERT,采用两个新的无监督的预测任务来实现预训练。

1)任务一:Masked LM

15%的比例,在每个sequence中,随机的mask掉 WordPiece中的tokens;同时也只predict被mask掉的位置上的words

这个方法有2个缺点downsides:
A:因为[MASK]字符在fine-tuning阶段根本不会存在,所以在pre-training阶段用[MASK]代替原来的word参与训练,会到只pre-training和fine-tuning阶段mismatch。
解决办法是:在整体15%的随机中,有80%用[MASK]替换选中的word,10%用一个随机的word代替选中的word,剩下10%的比例保持选中的word不变

B:因为在每一轮训练(each batch)只有15%的tokens会被预测,pre-training阶段的模型收敛就需要迭代更多的steps(相比于单向的模型,预测所有的word被预测)

2)任务二:Next Sentence Prediction

理解2个text sentence之间的relationship,这个relation是不能直接用LM模型学习到的。

构建有一个2分类任务binarized next sentence prediction task,训练数据可以从任何一个单语种的语料库中生成:对于AB两个sentence,50%的概率B就是实际在A后面的sentence,另外50%的概率B是从语料中随机选择的一个sentence。

最终这个任务的Accuracy达到97%~98%

Pre-training过程

数据:BooksCorpus(800M words) + English Wikipedia(2500M words)

Wikipedia的数据只取text段落,忽略列表、表格等

从语料中,抽样2个spans作为sentence,第一个sentence作为A Embeding,第二个作为B Embeding;50%的概率B是实际的sentence,另外50% B是随机sentence.

抽样时保证A+B的长度<512 tokens

LM masking:在用wordpiece 分词(tokenization)后,均匀按15%的比例(rate)mask掉其中的tokens。没有任何特殊的操作。

batchsize = 256 sequence(256*512tokens = 128,000 tokens/batch)

steps=1,000,000 (40 epochs / 3.3 billion word corpus)

Adam lr=1e-4, beta1=0.9 beta2=0.999

L2 weight decay = 0.01

lr adj step = 10,000 steps, linear decay

dropout p=0.1 all layers

activation = gelu (不是relu)

Loss = mean masked LM Likelihood + mean next sentence prediction likelihood

Fine-tuning过程
image.png
A:sequence Level的分类任务

为了得到一个固定维度的整句特征表示,直接取第一个token([CLS])的final hidden state(Transformer output),记作C。后面唯一需要加一个分类层W

P= softmax(CW)

BERT 和 W的所有参数,一起finetune

B:span-level 和 token-level的预测任务

需要针对任务做微小的调整

batch size、lr和 epochs不同,其他超参大部分相同

C:SQuAD v1.1——StandFord Question Answering Dataset

100K QA pairs

给定一个问题Q,以及一段包含答案A的文字段落paragraph,任务的目标是预测在段落中,是答案文本段span

做法:

a)将question和paragraph合并成一个sequence的特征表示,Q用A Embeding,P用B Embeding。

b)需要学习的新参数是一个起始向量S,以及一个结束向量E。每个token对应的Ti代表最后的hidden vector。

i是Answer起始位置的概率是P = softmax(S·T),对Ti和S的dot product做softmax

对结束位置的计算也用同样的公式

fine-tune 3 epochs, lr = 5e-5, batchsize = 32

在Inference阶段,因为end predict并不依赖start predict,所以需要加一个约束:end要在start之后。除了这个,再没有其他启发式heuristic的规则。

D:命名实体识别 CoNLL数据集

200k words,标记为5个entity类别:Person、Organization、Location、Miscellaneous、Other

每个Ti单独input进一个分类layer,预测时不依赖两边其他词的预测。

你可能感兴趣的:(BERT 论文笔记)