【论文笔记】Training language models to follow instructions with human feedback B部分
TraininglanguagemodelstofollowinstructionswithhumanfeedbackB部分回顾一下第一代GPT-1:设计思路是“海量无标记文本进行无监督预训练+少量有标签文本有监督微调”范式;模型架构是基于Transformer的叠加解码器(掩码自注意力机制、残差、Layernorm);下游各种具体任务的适应是通过在模型架构的输出后增加线性权重WyW_{y}Wy实