RAFT: Adapting Language Model to Domain Specific RAG

本文是LLM系列文章,针对《RAFT: Adapting Language Model to Domain Specific RAG》的翻译。

RAFT:使语言模型适应特定领域的RAG

  • 摘要
  • 1 引言
  • 2 LLM用于开卷考试
  • 3 RAFT
  • 4 评估
  • 5 RAFT推广到Top-K RAG
  • 6 相关工作
  • 7 结论

摘要

在文本数据的大型语料库上预训练大型语言模型(LLM)现在是一种标准范式。当将这些LLM用于许多下游应用程序时,通常会通过基于RAG的计算或微调,将新知识(例如,时间关键新闻或私有领域知识)额外训练到预训练的模型中。然而,该模型获得这些新知识的最佳方法仍然是一个悬而未决的问题。在本文中,我们提出了检索增强微调(RAFT),这是一种训练方法,可以提高模型在“openbook”域设置中回答问题的能力。在RAFT中,给定一个问题和一组检索到的文档,我们训练模型忽略那些对回答问题没有帮助的文档,称之为干扰文档。RAFT通过逐字引用相关文件中有助于回答问题的正确顺序来实现这一点。这与RAFT的思维风格反应链相结合,有助于提高模型的推理能力。在特定领域的RAG中,RAFT在PubMed、HotpotQA和Gorilla数据集上不断提高模型的性能,提供了一个训练后配方,将预先训练的LLM改进为域内RAG。RAFT的代码和演示开源于https://github.com/ShishirPatil/gorilla。

你可能感兴趣的:(RAG,for,LLM,语言模型,人工智能,自然语言处理)