【自然语言处理】ChatGPT 相关核心算法

ChatGPT 相关核心算法

ChatGPT 的卓越表现得益于其背后多项核心算法的支持和配合。本文将分别介绍作为其实现基础的 Transformer 模型、激发出其所蕴含知识的 Prompt / Instruction Tuning 算法、其涌现出的 思维链能力、以及确保其与人类意图对齐的 基于人类反馈的强化学习算法

1.基于 Transformer 的预训练语言模型

ChatGPT 强大的基础模型采用 Transformer 架构,Transformer [ 26 ] ^{[26]} [26] 是一种基于自注意力机制的深度神经网络模型,可以高效并行地处理序列数据。原始的 Transformer 模型包含两个关键组件:编码器和解码器。编码器用于将输入序列映射到一组中间表示,解码器则将中间表示转换为目标序列。编码器和解码器都由 多层的注意力模块前馈神经网络模块 组成。其中自注意力模块可以学习序列中不同位置之间的依赖关系,即在处理每个位置的信息时,模型会考虑序列中其他所有位置上的信息,这种机制使得 Transformer 模型能够有效地处理长距离依赖关系。在原始 Transformer 模型基础上,相继衍生出了三类预训练语言模型:编码预训练语言模型解码预训练语言模型编解码预训练语言模型

1.1 编码预训练语言模型(Encoder-only Pre-trained Models)

这类模型在预训练过程中只利用原始 Transformer 模型中的编码器。相应的预训练任务通常选用掩码语言建模任务(Masked Language Modeling),即掩码住(用特殊字符 [MASK] 替换)输入句子中一定比例的单词后,要求模型根据上下文信息去预测被遮掩的单词。其中有代表性的工作包括 BERT [ 2 ] ^{[2]} [2]ALBERT [ 27 ] ^{[27]} [27]RoBERTa [ 28 ] ^{[28]} [28] 等。

  • BERT 模型是最经典的编码预训练语言模型,其通过掩码语言建模和下一句预测任务,对 Transformer 模型的参数进行预训练。
  • ALBERT 是一个轻量化的 BERT 模型,作者通过分解词向量矩阵和共享 Transformer 层参数来减少模型参数个数。
  • RoBERTa 相较于 BERT 模型,RoBERTa 在预训练阶段,采用了更多的语料以及动态掩码机制(不同轮次同一样本掩码不同的单词),去掉了下一句预测任务,同时采用了更大的批大小。

1.2 解码预训练语言模型(Decoder-only Pre-trained Models)

GPT(Generative Pre-trained Transformer)是由 O p e n A I OpenAI OpenAI 提出的只有解码器的预训练模型。相较于之前的模型,不再需要对于每个任务采取不同的模型架构,而是用一个取得了优异泛化能力的模型,去针对性地对下游任务进行微调。在本章节将介绍 GPT 系列模型,包括 GPT-1GPT-2GPT-3

1.2.1 GPT-1

GPT-1 在文章《Improving Language Understanding by Generative Pre-Training》 [ 1 ] ^{[1]} [1]中被提出。在 GPT 被提出之前,大多数深度学习方法都需要大量人工标注的高质量数据,但是标注数据的代价是巨大的,这极大程度上限制了模型在各项任务性能的上限。如何利用容易获取的大规模无标注数据来为模型的训练提供指导成为 GPT-1 中需要解决的 第一个问题。另外自然语言处理领域中有许多任务依赖于自然语言在隐含空间中的表征,不同任务对应的表征很可能是不同的,这使得根据一种任务数据学习到的模型很难泛化到其他任务上。因此如何将从大规模无标注数据上学习到的表征应用到不同的下游任务成为 GPT-1 需要解决的 第二个问题

GPT-1 的结构很简单,由 12 12 12Transformer Block(自注意力模块和前馈神经网络模块)叠加而成。针对第一个问题,GPT-1 中使用了自左到右生成式的目标函数对模型进行预训练。这个目标函数可以简单理解为给定前 i − 1 i − 1 i1 t o k e n token token,对第 i i i t o k e n token token 进行预测。基于这样的目标函数,GPT-1 就可以利用无标注的自然语言数据进行训练,学习到更深层次的语法信息与语义信息。

针对第二个问题,在完成了无监督的预训练之后,GPT-1 接着使用了有标注的数据进行有监督的微调使得模型能够更好地适应下游任务。给定输入 t o k e n token token 序列 x 1 , x 2 , . . . , x m x_1, x_2, ..., x_m x1,x2,...,xm 与标签 y y y 的数据集,对模型的参数进行再次训练调整,用到的优化模型是在给定输入序列时预测的标签最接近真实值。

具体来说,GPT-1 在大规模无标注语料库上预训练之后,再利用有标注数据在特定的目标任务上对模型参数进行微调,实现了将预训练中获得的知识迁移到下游任务。在 GPT-1 提出之前,自然语言处理领域常用的预训练方法是 Word2vec [ 29 ] ^{[29]} [29];在此之后,GPT-1 提出的两步走的训练方法成为许多大型语言模型的训练范式。从这个角度来看,GPT-1Word2vec 在具体下游任务中发挥的作用是类似的,通过无监督的方法获取自然语言的隐含表示,再将其迁移至其他目标任务。但是从更高的层面来看,GPT-1 与以往的词向量表示方法是不同的,其数据量与数据规模的增大使得模型能够学习到不同场景下的自然语言表示。下图是 GPT-1 原文中的总览图,左侧是 GPT-1 的架构以及训练时的目标函数;右侧是对于不同任务上进行微调时模型输入与输出的改变。
【自然语言处理】ChatGPT 相关核心算法_第1张图片
总体来说,GPT-1 的目标是学习到一个通用的自然语言表征,并在之后通过简单调节适应很大范围上的任务。从现在的角度来看,GPT-1 成功背后有两个原因:第一个是 2017 2017 2017 年 Transformer 的提出使得捕获自然语言中长距离依赖关系成为可能;第二个是 GPT 模型在预训练过程中用到了更大的数据量以及更多的模型参数,使得模型能够从大规模语料库中学习到以往模型无法学习的知识。而任务微调在通用预训练和下游任务之间搭起了知识桥梁,使得用一个模型解决多种问题成为一条可行之路。

1.2.2 GPT-2

GPT-1 中的通过 预训练-微调 范式来解决多个下游任务不同,GPT-2 [ 3 ] ^{[3]} [3] 更加侧重于 Zero-shot 设定下语言模型的能力。Zero-shot 是指模型在下游任务中不进行任何训练或微调,即模型不再根据下游任务的数据进行参数上的优化,而是根据给定的指令自行理解并完成任务。

简单来讲,GPT-2 并没有对 GPT-1 的模型架构进行创新,而是在 GPT-1 的基础上引入任务相关信息作为输出预测的条件,将 GPT-1 中的条件概率 p ( o u t p u t ∣ i n p u t ) p(output|input) p(outputinput) 变为 p ( o u t p u t ∣ i n p u t ; t a s k ) p(output|input;task) p(outputinput;task);并继续增大训练的数据规模以及模型本身的参数量,最终在 Zero-shot 的设置下对多个任务都展示了巨大的潜力。

虽然 GPT-2 并没有模型架构上的改变,但是其将任务作为输出预测的条件引入模型从而在 Zero-shot 的设置下实现多个任务的想法一直延续至今。这样的思想事实上是在传达只要模型足够大,学到的知识足够多,任何有监督任务都可以通过无监督的方式来完成,即任何任务都可以视作生成任务。

1.2.3 GPT-3

GPT-3 [ 4 ] ^{[4]} [4] 使用了与 GPT-2 相同的模型和架构。文中为了探索模型规模对于性能的影响,一共训练了 8 8 8 个不同大小的模型,并将最大的具有 1750 1750 1750 亿参数的模型称为 GPT-3。表 2.1 综合统计了 GPT-1GPT-2GPT-3 的参数量,模型架构以及预训练的数据集,方便读者直观上理解 GPT 的迭代趋势。

GPT-3 最显著的特点就是大。大体现在两方面,一方面是模型本身规模大,参数量众多,具有 96 96 96Transformer Decoder Layer,每一层有 96 96 96 128 128 128 维的注意力头,单词嵌入的维度也达到了 12 , 288 12,288 12,288;另一方面是训练过程中使用到的数据集规模大,达到了 45 T B 45TB 45TB。在这样的模型规模与数据量的情况下,GPT-3 在多个任务上均展现出了非常优异的性能,延续 GPT-2 将无监督模型应用到有监督任务的思想,GPT-3Few-shotOne-shotZero-shot 等设置下的任务表现都得到了显著的提升。

虽然 GPT-3 取得了令人惊喜的效果,但是也存在许多限制,例如天然的从左到右生成式学习使得其理解能力有待提高;对于一些简单的数学题目仍不能够很好完成,以及模型性能强大所带来的社会伦理问题等。同时由于 GPT 系列模型并没有对模型的架构进行改变,而是不断通过增大训练数据量以及模型参数量来增强模型效果,训练代价巨大,这使得普通机构和个人无法承担大型语言模型训练甚至推理的代价,极大提高了模型推广的门槛。

1.3 基于编解码架构的预训练语言模型(Encoder-decoder Pre-trained Models)

基于编码器的架构 得益于双向编码的全局可见性,在语言理解的相关任务上性能卓越,但是因为无法进行可变长度的生成,不能应用于生成任务。基于解码器的架构 采用单向自回归模式,可以完成生成任务,但是信息只能从左到右单向流动,模型只知 “上文” 而不知 “下文”,缺乏双向交互。针对以上问题,一些模型采用序列到序列的架构来融合两种结构,使用编码器提取出输入中有用的表示,来辅助并约束解码器的生成。表 2.1 列举该架构下的若干经典模型。

  • BARTBART 的具体结构为一个双向的编码器拼接一个单向的自回归解码器,采用的预训练方式为输入含有各种噪声的文本,再由模型进行去噪重构。在解码器部分,BART 每一层对编码器的最后一层的隐藏表示执行交叉注意力机制以聚合关键信息。BART 在维基百科和 B o o k C o r p u s BookCorpus BookCorpus 数据集上训练,数据量达 160 G B [ 30 ] 160GB^{[30]} 160GB[30]
  • T5BART 为了兼顾不同任务设计了复杂的预训练任务,针对如何在多个任务中实现优秀的迁移性能这一问题,谷歌研究者提出了一种新的范式:将所有自然语言处理任务统一成 文本到文本 的生成任务。T5 通过在输入之前加入提示词,实现了用单个模型解决机器翻译、文本摘要、问答和分类等多个任务。针对迁移学习需要的巨量、高质量和多样的预训练数据,T5 在谷歌专门构造的 C 4 C4 C4 数据集上进行训练 [ 31 ] ^{[31]} [31]
  • Switch Transformers:随着语言模型的深入研究,参数量的增加可以显著提高模型的性能,但随之而来的就是应用时越来越大的运算量。Swicth-Transformer 将混合专家网络(Mixture-of-ExpertsMoE)的条件运算思想引入 Transformer 的全连接层,实现增加模型的尺寸而不增加推理时的运算量 [ 32 ] ^{[32]} [32]

【自然语言处理】ChatGPT 相关核心算法_第2张图片

2.提示学习与指令精调

2.1 提示学习概述

提示学习Prompt Learning)简单来说是通过一些方法编辑下游任务的输入,使其形式上模拟模型预训练过程使用的数据与任务。比如做情感分类任务时,监督学习的做法是输入 我今天考砸了,模型输出分类的分数或分布,而提示学习的做法则是在 我今天考砸了 后拼接上自然语言描述 我感觉很 ____,让模型生成后面的内容,再根据某种映射函数,将生成内容匹配到某一分类标签。

可以看出,提示学习这种方式拉近了测试分布与预训练分布的距离,进而可以利用大规模预训练语言模型在预训练过程中习得的强大语言建模能力,使其不经过微调就可以在各种下游任务上取得很好的结果。后续更有工作提出了 自动提示搜索连续提示 的方法,使得提示本身也可以微调,使其有了更好的灵活性。

提示学习还有各种有趣的用法,如小样本场景下的语境学习(In-context Learning),即在提示中加入几个完整的例子,如 美国的首都是华盛顿,法国的首都是巴黎,英国的首都是 ____,以及在推理任务上的 思维链Chain-Of-ThoughtCOT)(我们将在下一节中详细介绍)等等。

相较于提示学习,指令精调Instruction Tuning)可以说是提示学习的加强版。两种学习方法的本质目标均是希望 通过编辑输入来深挖模型自身所蕴含的潜在知识,进而更好的完成下游任务。而与提示学习不同的是,指令学习不再满足于模仿预训练数据的分布,而是希望通过构造 指令Instruction)并微调的方式,学习人类交互模式的分布,使模型更好的理解人类意图,与人类行为对齐;在指令学习中,模型需要面对的不再是单纯的补全任务,而是各种不同任务的 “指令”,即任务要求。模型需要根据不同的任务要求,做出相匹配的正确回复。“指令” 举例如下:

  • 请将下面这句话翻译成英文 “ChatGPT 都用到了哪些核心技术?”
  • 请帮我把下面这句话进行中文分词 “我太喜欢 ChatGPT 了!”
  • 请帮我写一首描绘春天的诗词,诗词中要有鸟、花、草。

从样例中可以看出,原本自然语言处理中的经典任务,经过任务要求的包装后,就变成了更符合人类习惯的 “指令”。研究表明,当 “指令” 任务的种类达到一定量级后,大模型甚至可以在没有见过的零样本(Zero-shot)任务上有较好的处理能力。因此,指令学习可以帮助语言模型训练更深层次的语言理解能力,以及处理各种不同任务的零样本学习能力。 O p e n A I OpenAI OpenAI 提出的 InstructGPT 模型使用的就是指令学习的思想,ChatGPT 沿袭了 InstructGPT 的方法。

2.2 ChatGPT 中的指令学习

根据 O p e n A I OpenAI OpenAI 的博客(https://openai.com/blog/chatgpt/),ChatGPT 所用到的指令学习数据集的构造方法和训练方法与 InstructGPT 大致相同,因此我们介绍 InstructGPT 构造 “指令” 数据集的细节。

InstructGPT 的 “指令” 数据集由两部分构成,其中一部分收集于全球用户使用 O p e n A I OpenAI OpenAI A P I API API 后的真实人机交互数据,这些数据在使用之前都经过了信息去重和敏感信息过滤;另一部分数据则来自于人工标注。为了使标注人员能够标注出高质量的数据集, O p e n A I OpenAI OpenAI 通过前期的审核和面试,聘请了一个由 40 40 40 人组成的标注团队。在这些人工标注的数据中,总共分为三类,其一是为了增加数据集中任务的多样性,由标注人员写出任意任务的 “指令”;其二是小样本(Few-shot)数据,由标注人员写出 “指令” 和一些对应的问答对,用于训练模型的小样本学习(Few-shot learning)能力;其三是在 O p e n A I   A P I OpenAI\ API OpenAI API 中已有的用例,标注人员模仿这些用例写出相类似的 “指令” 数据。这些数据包含了语言模型中常见的任务类型(生成、问答、聊天、改写、总结、分类等),其中 45.6 % 45.6\% 45.6% 的 “指令” 为生成任务类型,在所有类型中占比最大。

InstructGPT 通过在构造的 “指令” 数据集上进行 有监督微调Super-vised fine-tuningSFT)和 基于人工反馈的强化学习Reinforcement Learning from Human FeedbackRLHF)以使模型与人类需求对齐。

在实验结果上,将运用指令学习后且含有 175 B 175B 175B 参数的 InstructGPT 模型,在指令学习的经典数据集 F L A N FLAN FLAN T 0 T0 T0 上进行精调后发现,InstructGPT 模型对比 F L A N FLAN FLAN T 0 T0 T0 两个模型在效果上均有一定程度的提升。其原因可以归结为两点:

  • 其一,现有的公开 NLP 数据集,往往专注于容易进行评测的 NLP 任务(如分类任务、问答任务、翻译或总结任务等)。但事实上,经过统计发现,在 O p e n A I   A P I OpenAI\ API OpenAI API 上使用过的用户中,用模型解决分类或问答任务的只占到了各类任务中很小一部分,而开放性的生成任务才是占比最大的一类任务。这就使得以往用公开 NLP 数据集进行训练的模型,缺乏在开放性任务上的有效训练。InstructGPT 通过让标注人员大量标注有关生成和头脑风暴类的开放性 “指令”,并让模型进行训练,从而使得模型能够在这些方面有很大的效果提升。
  • 其二,现有的公开 NLP 数据集,往往仅针对一种或几种语言任务进行处理。这就忽视了现实情况下,人类用户会向语言模型提出各种任务要求的情况。因此,能够综合处理各种任务的模型,才能在实际中获得更好的效果。而 InstructGPT 所用到的指令学习技术正好可以弥补传统模型的缺陷,通过标注大量具备任务多样性的 “指令” 数据,帮助模型获得在各类任务上的处理能力。

3 思维链(Chain of Thought,COT)

人类在解决数学应用题这类复杂推理任务的过程中,通常会将问题分解为多个中间步骤,并逐步求解,进而给出最终的答案,例如求解问题 小华每天读 24 24 24 页书, 12 12 12 天读完了《红岩》一书,小明每天读 36 36 36 页书,几天可以读完《红岩》?,人会将问题分解为(1)红岩共 24 ∗ 12 = 288 24*12=288 2412=288(页)(2)小明可以用 288 ÷ 36 = 8 288÷36=8 288÷36=8(天)。受此启发,谷歌研究人员 J a s o n   W e i Jason\ Wei Jason Wei(现 O p e n A I OpenAI OpenAI 员工)等提出了 思维链 [ 33 ] ^{[33]} [33],通过在小样本提示学习的示例中插入一系列中间推理步骤,有效提升了大规模语言模型的推理能力,图 2.2 展示模型通过产生思维链来正确求解数学应用题。

相较于一般的小样本提示学习,思维链提示学习有几个吸引人的性质:

  • 在思维链的加持下,模型可以将需要进行多步推理的问题分解为一系列的中间步骤,这可以将额外的计算资源分配到需要推理的问题上。
  • 思维链为模型的推理行为提供了一个可解释的窗口,使通过调试推理路径来探测黑盒语言模型成为了可能。
  • 思维链推理应用广泛,不仅可以用于数学应用题求解、常识推理和符号操作等任务,而且可能适用任何需要通过语言解决的问题。
  • 思维链使用方式非常简单,可以非常容易地融入语境学习(In-context Learning),从而诱导大语言模型展现出推理能力。

【自然语言处理】ChatGPT 相关核心算法_第3张图片
[ 33 ] ^{[33]} [33] 的基础上, [ 34 ] ^{[34]} [34] 针对零样本场景,利用推荐关键词 Let’s think step by step(让我们一步一步思考)生成中间步骤的内容,从而避免了 [ 33 ] ^{[33]} [33] 中人工撰写中间步骤的过程。

4.基于人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)

R L H F RLHF RLHF 是 ChatGPT / InstrcutGPT 实现与人类意图对齐,即按照人类指令尽可能生成无负面影响结果的重要技术 [ 16 ] ^{[16]} [16]。该算法在强化学习框架下实现,大体可分为以下两个阶段:

  • 奖励模型训练:该阶段旨在获取拟合人类偏好的奖励模型。奖励模型以提示和回复作为输入,计算标量奖励值作为输出。奖励模型的训练过程通过拟合人类对于不同回复的倾向性实现。具体而言,首先基于在人类撰写数据上精调的模型,针对同一提示采样多条不同回复。然后,将回复两两组合构成一条奖励模型训练样本,由人类给出倾向性标签。最终,奖励模型通过每条样本中两个回复的奖励值之差计算倾向性概率拟合人类标签,进而完成奖励模型的训练。
  • 生成策略优化:给定习得的奖励模型,ChatGPT / InstructGPT 的参数将被视为一种策略,在强化学习的框架下进行训练。首先,当前策略根据输入的查询采样回复。然后,奖励模型针对回复的质量计算奖励,反馈回当前策略用以更新。值得注意的是,为防止上述过程的过度优化,损失函数同时引入了词级别的 K L KL KL 惩罚项。此外,为了避免在公开 NLP 数据集上的性能退化,策略更新过程兼顾了预训练损失。

5.参考文献

[1] RADFORD A, NARASIMHAN K, SALIMANS T, et al. Improving language understanding by generative pre-training[J]., 2018

[2] DEVLIN J, CHANG M W, LEE K, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding[C]//Proc. of NAACL. 2019: 4171-4186

[3] RADFORD A, WU J, CHILD R, et al. Language models are unsupervised multitask learners[J]. OpenAI blog, 2019, 1: 9

[4] BROWN T B, MANN B, RYDER N, et al. Language Models are Few-Shot Learners[C]//Proc. of NeurIPS. 2020

[16] OUYANG L, WU J, JIANG X, et al. Training language models to follow instructions with human feedback[J]. ArXiv preprint, 2022, abs/2203.02155

[26] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is All you Need[C]//Proc. of NeurIPS. 2017: 5998-6008

[27] LAN Z, CHEN M, GOODMAN S, et al. ALBERT: A Lite BERT for Self-supervised Learning of Language Representations[C]//Proc. of ICLR. 2020

[28] LIU Y, OTT M, GOYAL N, et al. Roberta: A robustly optimized bert pretraining approach[J]. ArXiv preprint arXiv:1907.11692, 2019

[29] MIKOLOV T, CHEN K, CORRADO G, et al. Efficient Estimation of Word Representations in Vector Space[C]//Proc. of ICLR. 2013

[30] LEWIS M, LIU Y, GOYAL N, et al. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension[C]//Proc. of ACL. 2020: 7871-7880

[31] RAFFEL C, SHAZEER N, ROBERTS A, et al. Exploring the Lim-its of Transfer Learning with a Unified Text-to-Text Transformer[J].Journal of Machine Learning Research, 2020, 21(140): 1-67

[32] FEDUS W, ZOPH B, SHAZEER N. Switch transformers: Scaling to trillion parameter models with simple and efficient sparsity[J]. J.Mach. Learn. Res, 2021, 23: 1-40

[33] WEI J, WANG X, SCHUURMANS D, et al. Chain of thought prompting elicits reasoning in large language models[J]. ArXiv preprint,2022, abs/2201.11903

[34] KOJIMA T, GU S S, REID M, et al. Large language models are zero-shot reasoners[J]. ArXiv preprint, 2022, abs/2205.11916

本文转载自:哈尔滨工业大学,自然语言处理研究所(HIT-NLP),《ChatGPT 调研报告》

你可能感兴趣的:(自然语言处理,transformer,RLHF,BERT,GPT,ChatGPT)