基本组成、注意力机制含义
transformer有哪些模块,各个模块有什么作用?
transformer的模块可以分为以下几类:
Encoder模块:transformer的编码器,它由多个相同的encoder层堆叠而成,每个encoder层包含两个子层,分别是多头自注意力层和前馈全连接层。Encoder模块的作用是将输入的文本序列转换为一组连续的向量,表示文本的语义和语法信息。
多头自注意力层的作用?
多头自注意力层可以让模型同时关注不同的位置和不同的特征子空间,从而捕捉到更丰富的信息和语义。例如,对于一个句子,不同的头可能会关注到不同的词性、语法、语义等方面的信息,从而提高模型的理解能力。
多头自注意力层可以增加模型的表达能力和泛化能力,因为不同的头可以学习到不同的参数和权重,从而增加模型的容量和多样性。例如,对于一个翻译任务,不同的头可能会学习到不同的对齐方式,从而提高模型的翻译质量。
多头自注意力层可以提高模型的效率和稳定性,因为每个头的维度都比单个的自注意力层小,从而减少了计算量和内存消耗。例如,对于一个 512 维的输入,如果使用一个自注意力层,那么计算量为 512512=262144;如果使用 8 个头,每个头的维度为 64,那么计算量为 864*64=32768,相比之下,计算量减少了 8 倍。
transformer的encoder模块中前馈全连接层的作用?
transformer的encoder模块中前馈全连接层是一个由两个线性层和一个激活函数组成的简单网络,它接在多头自注意力层的后面,用来对自注意力层的输出进行进一步的变换。
前馈全连接层的作用主要有以下几点:
前馈全连接层可以增加模型的非线性能力,因为自注意力层本质上是一个线性变换,而前馈全连接层引入了激活函数(如ReLU),从而增加了模型的复杂度和表达能力。
前馈全连接层可以提高模型的抽象能力,因为前馈全连接层可以将自注意力层的输出映射到一个更高维的空间,从而提取出更高级的特征和语义。
前馈全连接层可以增强模型的稳定性,因为前馈全连接层配合残差连接和层归一化,可以防止梯度消失或爆炸,提高模型的深度和性能 。
Decoder模块:transformer的解码器,它由多个相同的decoder层堆叠而成,每个decoder层包含三个子层,分别是多头自注意力层、Encoder-Decoder注意力层和前馈全连接层。Decoder模块的作用是根据Encoder模块的输出和自身的历史输出,生成目标文本序列。
Positional Encoding模块:transformer的位置编码器,它是一种用正弦和余弦函数生成的波形,用来表示文本序列中每个token的位置信息。Positional Encoding模块的作用是让transformer能够捕捉到文本序列的顺序和结构信息,因为transformer本身没有循环或卷积结构,无法直接感知位置信息。
Add & Norm模块:transformer的残差连接和层归一化模块,它接在每个子层的后面,用来平衡和稳定模型的训练。Add & Norm模块的作用是将子层的输入和输出相加,然后进行层归一化,防止梯度消失或爆炸,提高模型的深度和性能。
Encoder-Decoder注意力层的作用?
Encoder-Decoder注意力层可以让解码器的输出与编码器的输出进行交叉注意力计算,从而实现源语言和目标语言之间的对齐。这样可以提高模型的翻译质量和生成流畅度。
Encoder-Decoder注意力层可以让解码器的输出融合编码器的输出中的全局信息和上下文信息,从而增强模型的理解能力和生成能力。这样可以提高模型的泛化能力和鲁棒性。
Encoder-Decoder注意力层可以让解码器的输出根据编码器的输出中的不同特征子空间进行多头注意力计算,从而捕捉到更丰富的信息和语义5。这样可以提高模型的表达能力和多样性。
transformer中decoder模块的mask有什么作用?
transformer中decoder模块的mask是一种用来防止模型看到未来信息的技术,它可以保证模型的预测是因果的,即只依赖于当前和之前的输入,而不依赖于之后的输入。这样可以提高模型的泛化能力和生成质量。
transformer中decoder模块有两种mask,分别是:
Masked self-attention mask:这种mask是用来遮住decoder的输入序列中当前位置之后的token,使得模型在计算自注意力时,只能看到当前位置及之前的token,而不能看到之后的token。这种mask可以防止模型在生成过程中,提前看到要生成的内容,从而影响模型的预测。例如,如果模型要生成一个句子,它不能在生成第一个单词时,就看到第二个单词,否则就会失去生成的意义。
Encoder-decoder attention mask:这种mask是用来遮住encoder的输出序列中无效的部分,即pad的部分,使得模型在计算交叉注意力时,只能看到有效的token,而不能看到无效的token。这种mask可以防止模型在对齐过程中,受到无关的信息的干扰,从而提高模型的对齐精度。例如,如果模型要进行机器翻译,它不能在对齐源语言和目标语言时,把pad的部分也考虑进去,否则就会导致错误的对齐。
使用encoder-decoder attention mask计算交叉注意力时使用的mask作用是什么?这个mask计算位于transformer的那个网络层中?
使用encoder-decoder attention mask计算交叉注意力时,mask的作用是遮住encoder的输出序列中无效的部分,即pad的部分,使得模型在计算交叉注意力时,只能看到有效的token,而不能看到无效的token。这种mask可以防止模型在对齐过程中,受到无关的信息的干扰,从而提高模型的对齐精度。
这个mask计算位于transformer的decoder模块中的每个decoder层的第二个子层,即encoder-decoder attention层。这个层的作用是让decoder的输出与encoder的输出进行交互,从而实现源语言和目标语言之间的对齐。
transformer中多头有什么好处?
多头注意力机制可以增加模型的表达能力和泛化能力,因为不同的头可以学习到不同的参数和权重,从而增加模型的容量和多样性。例如,对于一个翻译任务,不同的头可能会学习到不同的对齐方式,从而提高模型的翻译质量。
多头注意力机制可以提高模型的效率和稳定性,因为每个头的维度都比单个的自注意力层小,从而减少了计算量和内存消耗5 。例如,对于一个 512 维的输入,如果使用一个自注意力层,那么计算量为 512512=262144;如果使用 8 个头,每个头的维度为 64,那么计算量为 864*64=32768,相比之下,计算量减少了 8 倍。
微调是一种迁移学习的方法,它指的是在一个已经预训练好的模型的基础上,用少量的数据来对模型进行再训练,使得模型能够适应新的任务或领域。微调的目的是利用已有的模型,减少训练新模型的时间和资源消耗。
参数高效的fine-tunning技术。通过训练一小组参数来解决传统微调技术需要大量资源的问题。这些参数可能是现有模型参数的子集或新添加一组参数。这些方法在参数效率、内存效率、训练速度、模型的最终质量和附加推理成本方面存在差异。
由hinton等人2015年引进。
由Houlsby等人2019年引入。
适配器是添加到预训练模型中的小型神经网络,用于特定任务的微调。这些适配器只占原始模型大小的一部分,这使得训练更快,内存需求更低。
由kaplan等人于2020年引入。这种技术涉及在fine-tuning期间逐渐减小预训练模型的大小。
prompt-tuning是一种更近期的精调预训练语言模型的方法。重点是调整输入提示(input prompt)而非修改模型参数。这意味着预训练模型保持不变,只有输入提升被修改以适应下游的任务。通过设计和优化一组提示,可以使预训练模型执行特定任务。
前缀调整涉及学习特定任务的连续提示。在推理过程中将其添加到输入之前。通过优化这个连续提示,模型可以适应特定任务而不修改底层模型参数。这节省了计算资源并实现了高效的精调。
P-tuning是针对自然语言理解(NLU)任务的,它使用了一个LSTM作为prompt-encoder,将可学习的token编码成virtual token embedding,然后插入到输入序列中,最后预测一个[MASK]位置的输出。
P-Tuning:由Liu等人在论文“P-Tuning: GPT Understands, Learns, and Generates Any Language”(2021)中提出。P-Tuning涉及训练可学习的称为“提示记号”的参数,这些参数与输入序列连接。这些提示记号是特定于任务的,在精调过程中进行优化,使得模型可以在保持原始模型参数不变的情况下在新任务上表现良好。