[nlp] GPT

一、联合训练任务

1.1 NTP(Next Token Prediction)

gpt预训练的一个目标函数有两个,第一个是基础的下一个词预测任务,选择一个K窗口,将窗口中的K个词的embedding作为条件去预测下一个词。

[nlp] GPT_第1张图片

1.2 TC(Text Classification)

第二个是一个分类任务,一段话给一个标签,然后去预测这标签。

[nlp] GPT_第2张图片

作为预训练微调时的目标函数是这两个函数的加权和。

他在下接下游任务的时候,是将输入放入到transformer的decoder中,跟bert一样,使用预训练的参数,然后将特征加入到后续的一个FFN中,如下图所示:

 

他的层数是12层加768维,bert就是为了跟他做对比实验,才将自己的参数设置成这样的。

二、GPT2

 GPT2是open ai为了回应bert,所

你可能感兴趣的:(nlp,python)