Shared computational principles for language processing in humans and deep language models
Ariel Goldstein, Zaid Zada, Eliav Buchnik, Mariano Schain, Amy Price, Bobbi Aubrey, Samuel A. Nastase, Amir Feder, Dotan Emanuel, Alon Cohen, Aren Jansen, Harshvardhan Gazula, Gina Choe, Aditi Rao, Catherine Kim, Colton Casto, Lora Fanda, Werner Doyle, Daniel Friedman, Patricia Dugan, Lucia Melloni, Roi Reichart, Sasha Devore, Adeen Flinker, Liat Hasenfratz, Omer Levy, Avinatan Hassidim, Michael Brenner, Yossi Matias, Kenneth A. Norman, Orrin Devinsky, Uri Hasson
论文探讨了人类大脑和深度语言模型(DLMs)在处理自然语言时共享的计算原则。研究者们通过实验发现,人类大脑和自回归DLMs在处理语言时都遵循三个基本原则:
相关研究包括对语言模型和机器学习在提取大脑语义表示方面的应用,以及对预测编码理论的探讨。这些研究通常使用高度控制的句子刺激(如完形填空程序)来测试人类对即将到来的词汇的预测能力,但这些方法未能直接证明大脑在自然语言处理中的预测倾向。
为了解决这个问题,研究者们开发了一种滑动窗口行为协议,直接量化人类在自然语境中预测每个词汇的能力。同时,他们使用电皮层图(ECoG)记录了参与者在听30分钟播客时的大脑反应。通过比较人类预测和自回归DLM(如GPT-2)的预测,以及分析大脑活动,研究者们提供了直接证据支持上述三个计算原则。
实验包括两个主要部分:行为实验和神经实验。在行为实验中,参与者通过Mechanical Turk平台预测播客中的下一个词汇。神经实验则涉及九名参与者在听播客时的大脑活动记录,这些参与者因癫痫而接受了ECoG监测。
论文指出,尽管DLMs可能为我们的高级认知能力提供了构建块,但它们无疑缺乏某些人类认知的核心特征。未来的研究需要评估这些认知上合理的预测信号是否是人类语言学习的基础,以及大脑是否使用这些预测信号来指导语言习得。此外,研究者们提出,与自回归DLMs相比,大脑可能依赖于不同时间尺度的其他简单目标来促进学习。
这篇论文通过行为和神经实验证据,揭示了人类大脑和自回归DLMs在处理自然语言时共享的三个核心计算原则。这些发现支持了一个统一的建模框架,用于研究语言的神经基础,并为理解人类大脑如何处理语言提供了新的视角。