Memory-Based Model Editing at Scale

本文是LLM系列文章,针对《Memory-Based Model Editing at Scale》的翻译。

基于内存的模型大规模编辑

  • 摘要
  • 1 引言
  • 2 模型编辑问题
  • 3 基于检索增强反事实模型的半参数编辑
  • 4 数据集和评估
  • 5 实验
  • 6 相关工作
  • 7 讨论

摘要

即使是最大的神经网络也会出错,而曾经正确的预测可能会随着世界的变化而失效。模型编辑器对基础(预训练)模型的行为进行局部更新,以注入更新的知识或纠正不期望的行为。现有的模型编辑器已经显示出了希望,但是也受到表达能力不足的困扰:它们难以准确地为编辑的预期范围(受编辑影响的示例)建模,导致对与编辑松散相关的测试输入的不准确预测,并且在许多编辑之后它们经常完全失败。作为一种更高容量的替代方案,我们提出了带有检索增强反事实模型(SERAC)的半参数编辑,该模型将编辑存储在显式内存中,并学习对它们进行推理,以便根据需要调整基本模型的预测。为了对模型编辑器进行更严格的评估,我们介绍了基于问题回答、事实检查和对话生成的三个具有挑战性的语言模型编辑问题。我们发现,只有SERAC在所有三个问题上都实现了高性能,并且始终比现有的模型编辑方法表现出色。代码、数据和其他项目信息将在https://sites.google.com/view/serac-editing上提供。

1 引言

2 模型编辑问题

3 基于检索增强反事实模型的半参数编辑

4 数据集和评估

5 实验

6 相关工作

7 讨论

我们提出了SERAC,这是一种半参数模型编辑器,它将模型编辑存储在外部存储器中,而不是直接存储在模型参数中。在介绍三个新的、具有挑战性的编辑问题时,我们发现,当应用多个编辑时,当编辑的范围比编辑的简单重新表述更复杂时,以及当编辑没有指定为输入-输出对时,SERAC能够比现有方法更有效地进行编辑。更一般地说,SERAC是朝着更实用的模型编辑器迈出的一步,因为它不需要在编辑器训练期间访问基本模型,不需要计算梯度来应用编辑,可以训练一次并立即编辑具有不同体系结构的多个模型,并且可以使用自然语言指定的编辑,而不是输入-输出对。
尽管SERAC具有有用的特性,但它也有局限性;作为一个可学习的编辑器,它依赖于编辑数据集来训练分类器和反事实模型。此外,虽然我们从小型分类器和反事实模型中发现了相对较好的性能,但有些设置可能需要更多的资源密集型架构。在连续进行编辑的设置中,编辑内存可能会无限制地增长。未来的工作可能会通过周期性的自蒸馏来解决这个问题,使用基础模型、范围分类器、编辑记忆和反事实模型的聚合系统作为基础模型的“学生”副本的教师模型。这种方法实际上可以通过定期刷新内存来限制编辑内存的大小,即使在连续编辑设置中也是如此。
包括SERAC在内的模型编辑器可能存在的一个问题是误用:虽然模型编辑器可以帮助深度学习系统以计算效率更高的方式保持最新状态,但对话情感编辑设置(表2;7)表明强大的模型编辑器也可以使恶意用户更精确地制作代理来放大特定的观点。总之,我们的研究结果提出了未来工作的几种途径,包括缓解模型编辑器可能造成的危害的策略,更复杂的SERAC检索架构,以及模型编辑在新型测试时模型行为调节中的令人兴奋的应用。

你可能感兴趣的:(LLM,语言模型,人工智能,模型编辑)