【提示工程】Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

解决问题

探索大语言模型解决推理问题的能力。从头训练或微调模型,需要创建大量的高质量含中间步骤的数据集,成本过大。

相关工作

1、使用中间步骤来解决推理问题
(1)使用自然语言通过一系列中间步骤解决数学应用题
(2)通过创建更大的数据集微调语言模型,而不是从头训练
(3)使用语言模型一行一行的预测中间结果预测最终输出

2、采用提示方式
(1)少样本提示
(2)自动学习提示
(3)描述任务的模型指令

本文采用一系列思维来增强语言模型的输出

创新方法

采用由自然语言描述逻辑推理过程,构建成一条解决问题步骤的思维链,以Prompt的形式进行few-shot提示。

可采用COT的条件

COT对满足以下三个条件的任务会有帮助:

(1)需要完成具有挑战性的多步推理任务
(2)需要用到大语言模型
(3)缩放曲线相对平滑

缺少上述任意一个条件,都可能会影响性能。

优势

(1)可将问题拆解为多个步骤解决
(2)提供可解释性,便于调试
(3)应用任务领域广
(4)加入少量示例就可以引出COT
(5)few-shot中示例不需要与测试示例来自同一个样本分布
(6)示例顺序对性能影响较小,具有一定的鲁棒性
(7)最开始增加样例数量时候,对性能提升有帮助,达到一定数量后继续增加样例数量对性能改善较小

结论

我们探索了思维链提示作为一个简单且广泛适用的方法来增强语言模型的推理。通过算术推理、符号推理和常识推理的实验,我们发现思维链推理是模型尺度的一种新特性,它允许足够大的语言模型执行原本为平坦尺度曲线的推理任务。扩大语言模型可以执行的推理任务的范围将有望激发基于语言推理方法的进一步工作。

你可能感兴趣的:(科研论文,语言模型,机器学习,人工智能)