预训练模型:BERT

0. 引言

BERT全称为 Bidirectional Encoder Representation from Transformers(来自 Transformers 的双向编码器表示),是谷歌2018年发表的论文中1,提出的一个面向自然语言处理任务的无监督预训练语言模型。其意义在于:大量无标记数据集中训练得到的深度模型,可以显著提高各项自然语言处理任务的准确率。

BERT采用Transformer的编码器(Encoder)结构作为特征提取器,并使用与之配套的MLM训练方法,实现输入序列文本的双向编码;与只使用前序文本信息提取语义的单向编码器(如GPT等)相比,BERT具有更强的语义信息提取能力

1. 预训练任务

BERT的作者认为:使用两个方向(从左至右和从右至左)的单向编码器拼接而成的双向编码器,在性能、参数规模和效率等方面都不如直接使用双向编码器强大;这是 BERT 模型使用 Transformer Encoder 结构作为特征提取器,而不拼接使用两个方向的 Transformer Decoder 结构作为特征提取器的原因。

这也令 BERT 模型不能像 GPT 模型一样,继续使用标准语言模型的训练模式,因此 BERT 模型重新定义了两种模型训练方法(即:预训练任务):MLM 和 NSP。BERT用MLM(Masked Language Model,掩码语言模型)方法训练词的语义理解能力用NSP(Next Sentence Prediction,下句预测)方法训练句子之间的理解能力,从而更好地支持下游任务。

1.1 MLM

MLM是借鉴完形填空任务和Word2Vec中CBOW算法的思想,而定义的一种模型预训练任务。具体而言,就是随机抽取部分词进行掩码操作(用 ‘’ 掩码字符来替换被抽取到的单词),训练BERT模型来正确预测这些被掩码词,且以 ∑ P ( w i ∣ w 1 , ⋯   , w i − 1 , w i + 1 , ⋯   , w n ) \sum P(w_i|w_1, \cdots, w_{i-1}, w_{i+1}, \cdots, w_n) P(wiw1,,wi1,wi+1,,wn) 为目标函数来优化模型参数(仅计算被掩码单词的交叉熵之和,将其作为损失函数),如图1所示。

在模型微调训练或模型推理阶段,输入的文本序列中不再含有掩码标记,因此不可忽视的是:MLM训练方法的训练集与测试集数据之间,存在不可避免的系统性数据分布差异,这会产生训练与预测数据偏差导致的性能损失。为改善这一弊端,BERT并不总是用掩码标记替换训练样本中被选定的掩码词,而是在每样本随机抽取15%的掩码词后,对80%的样本用掩码标记 ‘’ 替换掩码词,对另外10%的样本不做任何替换,对最后10%的样本从模型词表中随机抽取单词来替换掩码词

其中,对一小部分掩码词不做替换,是为了缓解训练文本与预测文本的偏差带来的性能损失。此外,对另一小部分掩码词做随机替换,是为了让BERT学会根据上下文信息自动纠错;假设不随机替换的一小部分训练样本,BERT遇到非掩码标记的词时,直接输出该词即可得到最优交叉熵,而加入随机替换样本则强制模型综合上下文信息整体推测预测词,避免模型通过“偷懒”的方式获得最优目标函数的隐患;简而言之,这增加了BERT模型的鲁棒性和对上下文信息的提取能力。

且上述这四个概率分配比例是超参数,其取值由BERT在预训练过程中尝试过各种配置比例后,通过对比测试结果得到最优参数值。

预训练模型:BERT_第1张图片

图1 MLM 和 NSP预训练任务示意图

1.2 NSP

很多自然语言处理的下游任务(如问答和自然语言推断等)都基于两个句子做逻辑推理,而语言模型并不具备直接捕获句子间语义联系的能力(该能力由训练方法和目标函数的特性决定),BERT采用NSP训练方法,使用模型学会捕捉句子间的语义联系

具体而言:模型的输入语句由两个句子组成,其中有50%的概率将语义连贯的两个连续句子作为训练样本(连续句对应取自篇章级别的语料,以确保前后语句的语义强相关),另有50%的概率将完全随机抽取的两个句子作为训练样本,模型要根据输入的两个句子,判断它们是否属于真实的连续句对,如图1所示。

其中,[SEP] 标签表示分隔符,用于区分两个句子,而 [CLS] 标签对应的输出向量作为句子整体的语义表示,用于类别预测。若结果为1,则表示输入语句为真实的连续句子,其上下文有语义联系;若结果为0,则表示输入语句为随机组合的句子,上下文并没有语义联系。

2. 模型结构

BERT模型在继承 Transformer 编码器(Encoder)结构的同时,也根据自身任务需求,对其输入层结构做了相应改进。一方面为适应NSP任务,BERT模型的输入层结构在原有静态词向量编码(Token Embeddings)和位置编码(Position Embeddings)的基础上,增加了语句分割编码(Segment Embeddings),该层的输出结果是三种 Embedding 编码之和;另一方面,BERT模型的位置编码方法,由原来 Transform 模型的三角函数编码,改变为由可学习的模型参数编码。如下图所示:

预训练模型:BERT_第2张图片

图2 BERT模型的输入层结构

3. 下游任务

BERT模型不具备文本生成功能,它能支持的下游任务可分为四类:单句标注、单句分类、句对分类、文本问答。其代码实现方式是:在BERT预训练模型的基础上,添加一个配合具体任务的输出层即可。读取BERT预训练模型的代码实现如下:

##  Tensorflow实现
from transformers.models.bert import TFBertModel

tf_bert_layer = TFBertModel.from_pretrained(
	"bert-base-chinese"
	, cache_dir='../Models/bert-base-chinese'	# 本地存储目录
).bert
## Pytorch实现
from transformers.models.bert import BertModel

bert_layer = BertModel.from_pretrained(
	"bert-base-chinese"
	, cache_dir='../Models/bert-base-chinese'	# 本地存储目录
).bert

3.1 句对分类

给定两个句子,判断它们的关系,统称为句对分类。常见的任务形式如下:

  1. 多类型自然语言推理(Multi-Genre Natural Language Inference,MNLI),给定句对,判断它们是否为蕴含、矛盾或中立关系,属于多分类任务;
  2. Quora问答(Quora Question Pairs,QQP),给定句对,判断它们是否相似,属于二分类任务;
  3. 问答自然语言推理(Question Natural Language Inference,QNLI),给定句对,判断后者是否是对前者的回答,属于二分类任务;
  4. 语义相似度判断(Semantic Textual Similarity,STS-B),给定句对,判断它们的相似程度,属于多分类任务;
  5. 语义一致性判别(Microsoft Research Paraphrase Corpus,MRPC),给定句对,判断语义是否一致,属于二分类任务;
  6. 文本蕴含判别(Recognizing Texual Entailment,RTE),给定句对,判断两者是否具有蕴含关系,属于二分类任务;
  7. 最佳候选语句判定(Situation With Adversarial Generations,SWAG),给定主句 A A A 和多个候选从句 B B B,根据语义连贯性选出最优的从句 B i B_i Bi,属于多分类问题。

综上来看,句对分类任务均可归属于二分类或多分类问题,因此在BERT模型句首标签 [CLS] 的输出特征向量后接一个全连接层(该层输出维度与类别数目一致,且激活函数在二分类时为 Sigmoid,在多分类时为 Softmax),即可适应句对分类下游任务。其代码实现如下:

##  Tensorflow实现
class TFBertForSequenceClassification(tf.keras.Model):
    def __init__(self, num_labels, *inputs, **kwargs):
        super().__init__()
        self.num_labels = num_labels
        #
        self.bert = tf_bert_layer
        self.classifier = tf.keras.layers.Dense(
            num_labels
            , activation='sigmoid' if self.num_labels==2 else 'softmax'
            , name='classifier'
        )

    def call(self, inputs):
        CLS_hidden = self.bert(inputs)['pooler_output']
        outputs = self.classifier(CLS_hidden)
        return outputs   
 
## Pytorch实现


3.2 单句分类

给定一个句子,判断该句子的类别,统称为单句分类任务。常见的任务形式有:

  1. 单句情感判定(Standford Sentiment Treebank,SST-2,斯坦福情感语料库),给定单句,判断句子的情感类别,属于二分类任务。
  2. 语义连贯性判定(Corpus of Linguistic Acceptability,CoLA,文本连贯性语料库),给定单句,判断是否为语义连贯的句子,属于二分类任务。

综合来看,单句分类任务就是将模型输入改写为一个单句且保留句首标签[CLS],模型预测使用句首标签[CLS]的输出特征作为分类标签,计算分类标签与真实标签的交叉熵,将其作为优化目标,在任务数据上进行微调训练。其代码实现如下:

##  Tensorflow实现
class TFBertForSequenceClassification(tf.keras.Model):
    def __init__(self, num_labels, *inputs, **kwargs):
        super().__init__()
        self.num_labels = num_labels
        #
        self.bert = tf_bert_layer
        self.classifier = tf.keras.layers.Dense(
            num_labels
            , activation='sigmoid' if self.num_labels==2 else 'softmax'
            , name='classifier'
        )

    def call(self, inputs):
        CLS_hidden = self.bert(inputs)['pooler_output']
        outputs = self.classifier(CLS_hidden)
        return outputs   
        
## Pytorch实现

3.3 单句标注

给定一个句子,标注每个词的标签,称为单句标注任务。常见的任务形式有:

  1. 词性标注
  2. 命名实体识别

综合来看,进行单句标注任务时,需要在每个词的最终语义特征向量之后添加全连接层且激活函数为Softmax或Sigmoid,即可得到各token类别标签的概率分布。其代码实现如下:

##  Tensorflow实现
class TFBertForTokenClassification(tf.keras.Model):
    def __init__(self, num_labels, *inputs, **kwargs):
        super().__init__()
        self.num_labels = num_labels
        #
        self.bert = tf_bert_layer
        self.classifier = tf.keras.layers.Dense(
            num_labels
            , activation='sigmoid' if self.num_labels==2 else 'softmax'
            , name='classifier'
        )

    def call(self, inputs):
        last_hidden= self.bert(inputs)['last_hidden_state']
        outputs = self.classifier(last_hidden)
        return outputs   
        
## Pytorch实现

3.4 文本问答

##  Tensorflow实现

## Pytorch实现

4. 微调训练

实战中,BERT模型的微调训练策略十分丰富,受限于篇幅,具体请详见作为文章:预训练模型:BERT 模型的微调(fine-tuning)实战策略


  1. 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》 ↩︎

你可能感兴趣的:(#,深度学习,#,自然语言处理,rnn,神经网络,深度学习)