思维链(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models)

概括

论文主要描述了一种用思维链的提升LLM模型推理能力的方式,并且通过实验的方式,证明了思维链在算术、常识和符号等任务方面的显著效果。仅通过540B大小的PaLM模型,通过8个思维链样例就可以实现在GSM8K上的sota效果。
思维链(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models)_第1张图片

具体工作

思维链(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models)_第2张图片
思维链(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models)_第3张图片
这篇论文主要在探索LLM模型的推理能力,LLM模型推理能力可以通过增强学习和ICL得到增强,但是增强学习和ICL提升的效果是有限的并且成本比较高。基于上面的现状和启发,这篇论文提出了基于思维链的方式增强LLM的推理能力,并且取得了不错的效果。
思维链(Chain-of-Thought Prompting Elicits Reasoning in Large Language Models)_第4张图片
并且思维链有以上比较吸引人的特性。

你可能感兴趣的:(LLM)