[论文笔记]Prompt Tuning

引言

今天带来第三篇大模型微调论文笔记The Power of Scale for Parameter-Efficient Prompt Tuning。

作者提出了prompt tuning(提示微调),一种简单高效地微调方法。可以看成是prefix tuning的简化版。

总体介绍

最近的研究表明,提示设计(prompt design)在通过文本提示调节冻结的GPT-3模型行为方面表现出惊人的有效性。提示通常由一些任务描述和/或几个典型示例组成。然而,基于提示的方法有几个关键的缺点。任务描述是容易出错的,且需要人类介入,提示的有效性受到能够喂给模型输入长度的限制。

prefix-tuning在生成任务上显示了很好的效果,固定模型的参数然后通过反向传播仅调整添加到编码器每层激活值和输入层之前的prefix。

在本篇工作中,作者提出了prompt tuning作为适配语言模型的进一步简化。具体是,固定整个预训练模型的参数仅为每个任务添加额外 k k

你可能感兴趣的:(论文翻译/笔记,#,大模型[论文],论文阅读,prompt)