Enhancing Self-Consistency and Performance of Pre-Trained Language Model

本文是LLM系列文章,针对《Enhancing Self-Consistency and Performance of Pre-Trained Language Models through Natural Language Inference》的翻译。

通过自然语言推理增强预训练语言模型的自一致性和性能

  • 摘要
  • 1 引言
  • 2 相关工作
  • 3 通过关系检测进行一致性校正
  • 4 实验
  • 5 讨论与结论
  • 6 局限性

摘要

虽然大型预训练语言模型很强大,但它们的预测在测试输入之间往往缺乏逻辑一致性。例如,最先进的Macaw问答(QA)模型回答“麻雀是鸟吗?”鸟有脚吗?麻雀有脚吗?为了解决这种失败模式,我们提出了一个框架,即通过关系检测一致性校正(ConCoRD),用于使用预训练的自然语言推理(NLI)模型提高预训练的NLP模型的一致性和准确性,而无需微调或重新训练。给定一批测试输入,ConCoRD为每个输入采样几个候选输出,并实例化一个因子图,该因子图既说明了模型对孤立的每个答案选择的可能性的信念,也说明了NLI模型对成对的答案选择兼容性的信念。我们证明了一个加权的MaxSAT求解器可以在这个因素图下有效地计算高质量的答案选择,比原始模型的预测更好。我们的实验表明,ConCoRD使用现成的NLI模型持续提高了现成的闭卷QA和VQA模型的准确性和一致性,特别是将LXMERT在ConVQA上的准确性绝对提高了5%。有关代码和数据,请参阅项目网站。

1 引言

2 相关工作

3 通过关系检测进行一致性校正

4 实验

5 讨论与结论

我们已经提出了ConCoRD框架,用于使用预训练的NLI模型估计的关系来增强预训练语言模型的自一致性,表明它在各种设置下提高了现成的性能,而不需要任何微调。我们的研究结果表明,现有的预训练NLI模型可以成为提高NLP系统性能的一个有用的构建块,它可以为QA和视觉QA提供跨各种模型和数据集的模型预测之间的逻辑关系的有用估计。
ConCoRD还提出了未来工作的几个方向。将ConCoRD与生成问题的方法集成,这些问题可能会引出有用的知识,以回答手头的问题可能会进一步提高性能。此外,通过黑盒组合求解器将ConCoRD等框架与最近的微分方法集成在一起,可以对整个基础模型、关系模型和推理管道进行端到端的训练,从而有可能进一步提高总体性能。最后,ConCoRD通过估计模型预测组的自一致性来重新排序预测的一般机制适用于自然语言之外,未来的工作可能会研究其在视觉或顺序决策问题中的应用。我们希望ConCoRD可以作为另一个有希望的例子,将神经和显式符号推理机器集成到一个更广泛的智能系统中,该系统的性能优于其单独的任何组件。

6 局限性

虽然我们的结果表明ConCoRD可以有效地利用额外的计算来提高模型性能,而无需微调,但我们的工作有一些局限性。虽然ConCoRD在概念上适用于任何语言模型的生成,但我们的工作重点是问答设置,以利用现有的自一致性基准。此外,ConCoRD增加了推理的计算成本,尽管它不需要微调。此外,我们的结果表明,用于ConCoRD的最佳NLI模型可能因域而异,需要进行一些调整。随着NLI模型的改进,我们可能希望类协和系统的最终性能也应该继承这些增益,但是表6表明,使特定NLI模型非常适合特定问题的因素并不明显,需要进一步研究。

你可能感兴趣的:(LLM,语言模型,人工智能,深度学习,模型编辑)