Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Reliable Response

本文是LLM系列的文章,针对《Knowledge-tuning Large Language Models with Structured Medical Knowledge Bases for Reliable Response Generation in Chinese》的翻译。

具有结构化医学知识库的知识调整大型语言模型用于中文可靠响应生成

  • 摘要
  • 引言
  • 相关工作
  • 方法
  • 实验
  • 讨论
  • 结论

摘要

大型语言模型(LLM)在一般领域的各种自然语言处理(NLP)任务中取得了显著的成功。然而,由于领域知识有限,LLM有时会产生对医学事实的幻觉反应。这些缺点对LLM在医疗环境中的使用构成潜在风险。为了应对这一挑战,我们提出了知识调优,它利用LLM的结构化医学知识库来有效地掌握领域知识,并促进可靠的响应生成。我们还发布了cMedKnowQA,这是一个由医学知识库构建的中文医学知识问答数据集,用于评估LLM的医学知识熟练程度。实验结果表明,与普通指令调优相比,使用cMedKnowQA进行知识调优的LLM在响应生成方面可以表现出更高的准确性,并为LLM的领域自适应提供了一种新的可靠方法。

引言

相关工作

方法

实验

讨论

结论

在本文中,我们讨论了LLM生成的应答中医学事实的知识不准确问题,这对医学领域的应用至关重要,尤其是在汉语中。我们提出了一种称为知识调优的新方法,该方法利用医学知识函数作为LLM的插件助手,以有效地掌握领域知识并提高响应生成的可靠性。通过在我们提出的中国医学知识QA数据集cMedKnowQA上进行实验,我们的知识调整模型在生成响应方面实现了更高的准确性和可靠性,还显示出与较少训练数据的一致性和与看不见实体的泛化,从而启发了LLM的领域自适应。

你可能感兴趣的:(LLM,语言模型,人工智能,自然语言处理)