本文为转载,原文链接 一文读懂最强中文NLP预训练模型ERNIE - ModifyAI的文章 - 知乎
https://zhuanlan.zhihu.com/p/87008569
基于飞桨开源的持续学习的语义理解框架ERNIE 2.0,及基于此框架的ERNIE 2.0预训练模型,在共计16个中英文任务上超越了BERT和XLNet, 取得了SOTA效果。本文带你进一步深入了解ERNIE的技术细节。
一:ERNIE 简介
1.1简介
作者:ModifyAI
链接:https://zhuanlan.zhihu.com/p/87008569
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
Google 最近提出的BERT 模型,通过随机屏蔽15%的字或者word,利用Transformer 的多层self-attention 双向建模能力,在各项nlp 下游任务中(如sentence pair classification task, singe sentence classification task, question answering task) 都取得了很好的成绩。但是,BERT 模型主要是聚焦在针对字或者英文word粒度的完形填空学习上面,没有充分利用训练数据当中词法结构,语法结构,以及语义信息去学习建模。比如“我要买苹果手机”,BERT 模型 将 “我”,“要”, “买”,“苹”, “果”,“手”, “机” 每个字都统一对待,随机mask,丢失了“苹果手机” 是一个很火的名词这一信息,这个是词法信息的缺失。同时 我+ 买+ 名词 是一个非常明显的购物意图的句式,BERT 没有对此类语法结构进行专门的建模,如果预训练的语料中只有“我要买苹果手机”,“我要买华为手机”,哪一天出现了一个新的手机牌子比如栗子手机,而这个手机牌子在预训练的语料当中并不存在,没有基于词法结构以及句法结构的建模,对于这种新出来的词是很难给出一个很好的向量表示的,而ERNIE 通过对训练数据中的词法结构,语法结构,语义信息进行统一建模,极大地增强了通用语义表示能力,在多项任务中均取得了大幅度超越BERT的效果!!
1.2下载地址(这么好用的模型赶紧下载起来吧!!!)
ERNIE 的Fine-tuning代码和英文预训练模型已通过飞桨开源
Github 地址:https://github.com/PaddlePaddle/ERNIE
二:ERNIE 详解
2.1 ERNIE结构
2.1.1 ERNIE初探
2.1.1ERNIE结构详解
相比transformer , ERNIE 基本上是transformer 的encoder 部分,并且encoder 在结构上是全部一样的,但是并不共享权重,具体区别如下:
Transformer: 6 encoder layers, 512 hidden units, 8 attention headsERNIE Base: 12 encoder layers, 768 hidden units, 12 attention headsERNIE Large: 24 encoder layers,1024 hidden units, 16 attention heads
从输入上来看第一个输入是一个特殊的CLS, CLS 表示分类任务就像transformer的一般的encoder, ERINE将一序列的words输入到encoder中.每层使用self-attention, feed-word network,然后把结果传入到下一个encoder
2.1.2 ERNIE encoder说明
encoder
encoder 由两层构成, 首先流入self-attention layer,self-attention layer 输出流入feed-forward 神经网络。至于self-attention的结构,我们在这里不再展开,有兴趣的同学可以阅读http://jalammar.github.io/illustrated-transformer/,来进一步了解self-attention的结构!!
embedding
最下层的encoder的输入是embedding的向量, 其他的encoder的输入,便是更下层的encoder的输出, 一般设置输入的vectors 的维度为512, 同学们也可以自己设置
2.2: ERNIE 1.0 介绍
相比于BERT, ERNIE 1.0 改进了两种masking 策略,一种是基于phrase (在这里是短语比如a series of, written等)的masking策略,另外一种是基于entity(在这里是人名,位置, 组织,产品等名词比如Apple, J.K. Rowling)的masking 策略。在ERNIE 当中,将由多个字组成的phrase 或者entity 当成一个统一单元,相比于bert 基于字的mask, 这个单元当中的的所有字在训练的时候,统一被mask. 对比直接将知识类的query 映射成向量然后直接加起来,ERNIE 通过统一mask的方式可以潜在的学习到知识的依赖以及更长的语义依赖来让模型更具泛化性。
2.3: ERNIE 2.0 介绍
传统的pre-training 模型主要基于文本中words 和sentences 之间的共现进行学习, 事实上,训练文本数据中的词法结构,语法结构,语义信息也同样是很重要的。在命名实体识别中人名,机构名,组织名等名词包含概念信息对应了词法结构。句子之间的顺序对应了语法结构,文章中的语义相关性对应了语义信息。为了去发现训练数据中这些有价值的信息,在ERNIE 2.0 中,提出了一个预训练框架,可以在大型数据集合中进行增量训练。
2.3.1 ERNIE 2.0结构
ERNIE 2.0 中有一个很重要的概念便是连续学习(Continual Learning),连续学习的目的是在一个模型中顺序训练多个不同的任务以便在学习下个任务当中可以记住前一个学习任务学习到的结果。通过使用连续学习,可以不断积累新的知识,模型在新任务当中可以用历史任务学习到参数进行初始化,一般来说比直接开始新任务的学习会获得更好的效果
a. 预训练连续学习
ERNIE 的预训练连续学习分为两步,首先,连续用大量的数据与先验知识连续构建不同的预训练任务。其次,不断的用预训练任务更新ERNIE 模型。
对于第一步,ERNIE 2.0 分别构建了词法级别,语法级别,语义级别的预训练任务。所有的这些任务,都是基于无标注或者弱标注的数据。需要注意的是,在连续训练之前,首先用一个简单的任务来初始化模型,在后面更新模型的时候,用前一个任务训练好的参数来作为下一个任务模型初始化的参数。这样不管什么时候,一个新的任务加进来的时候,都用上一个模型的参数初始化保证了模型不会忘记之前学习到的知识。通过这种方式,在连续学习的过程中,ERNIE 2.0 框架可以不断更新并记住以前学习到的知识可以使得模型在新任务上获得更好的表现。我们在下面的e, f, g 中会具体介绍ERNIE 2.0 构建哪些预训练任务,并且这些预训练任务起了什么作用。
在图7中,介绍了ERNIE2.0连续学习的架构。这个架构包含了一系列共享文本encoding layers来encode上下文信息。这些encoder layers的参数可以被所有的预训练任务更新。有两种类型的loss function,一种是sequence level的loss,一种是word level的loss.在ERNIE 2.0预训练中,一个或多个sentence level的loss function可以和多个token level的loss functions结合来共同更新模型。
b: encoder
ERNIE 2.0 用了我们前文提到的transformer 结构encoder, 结构基本一致,但是权重并不共享
c: task embedding
ERNIE 2.0 用了不同的task id 来标示预训练任务,task id 从1 到N 对应下面的e, f ,g中提到的预训练任务。对应的token segment position 以及task embedding 被用来作为模型的输入
d: 构建词法级别的预训练任务,来获取训练数据中的词法信息
1: knowledge masking task, 即ERNIE 1.0 中的entity mask 以及phrase entity mask 来获取phrase 以及entity的先验知识,相较于sub-word masking, 该策略可以更好的捕捉输入样本局部和全局的语义信息。
2: Capitalization Prediction Task, 大写的词比如Apple 相比于其他词通常在句子当中有特定的含义,所以在Erine 2.0 加入一个任务来判断一个词是否大写
3: Token-Document Relation Prediction Task,类似于tf-idf, 预测一个词在文中的A 段落出现,是否会在文中的B 段落出现。如果一个词在文章当中的许多部分出现一般就说明这个词经常被用到或者和这个文章的主题相关。通过识别这个文中关键的的词, 这个任务可以增强模型去获取文章的关键词语的能力
e: 构建语法级别的预训练任务,来获取训练数据中的语法信息
1: Sentence Reordering Task, 在训练当中,将paragraph 随机分成1 到m 段,将所有的组合随机shuffle. 我们让pre-trained 的模型来识别所有的这些segments正确的顺序. 这便是一个k 分类任务
通常来说,这些sentence 重排序任务能够让pre-trained 模型学习到document 中不同sentence 的关系
2: Sentence Distance Task, 构建一个三分类任务来判别句子的距离,0表示两个句子是同一个文章中相邻的句子,1表示两个句子是在同一个文章,但是不相邻,2表示两个句子是不同的文章。通过构建这样一个三分类任务去判断句对(sentence pairs) 位置关系(包含邻近句子、文档内非邻近句子、非同文档内句子3 种类别),更好的建模语义相关性。
f:构建语义级别的预训练任务,来获取训练数据中的语义任务
1: Discourse Relation Task,除了上面的distance task, ERNIE通过判断句对(sentence pairs) 间的修辞关系(semantic & rhetorical relation),更好的学习句间语义。
2: IR Relevance Task, 在这里主要是利用baidu 的日志来获取这个关系,将query 作为第一个sentence, title 作为第二个second sentence. 0 表示强关系, 1 表示弱关系,2表示无关系,通过类似google-distance 的关系来衡量两个query之间的语义相关性,更好的建模句对相关性
三、总结
本次,我们介绍了
- ERNIE的基本结构
- ERNIE的训练流程
- 预训练任务,获取输入句子/词经过ERNIE编码后的Embedding 表示,以及批量预测的代码
希望经过本文的介绍,希望能够让大家对ERNIE有一个全面的了解。