Unifying Large Language Models and Knowledge Graphs: A Roadmap

本文依旧是LLM系列的相关文章,LLM与知识图谱结合,针对《Unifying Large Language Models and Knowledge Graphs: A Roadmap》的翻译。

统一大语言模型与知识图谱:路线图

  • 摘要
  • 1 引言
  • 2 背景
    • 2.1 大语言模型(LLMs)
      • 2.1.1 仅编码器LLMs
      • 2.1.2 编码器-解码器LLMs
      • 2.1.3 仅解码器LLMs
    • 2.2 提示工程
    • 2.3 知识图谱(KGs)
      • 2.3.1 百科全书式知识图谱
      • 2.3.2 常识知识图谱
      • 2.3.3 领域特定知识图谱
      • 2.3.4 多模态知识图谱
    • 2.4 应用
  • 3 路线图与分类
    • 3.1 路线图
      • 3.1.1 KG增强的LLMs
      • 3.1.2 LLM增强的KGs
      • 3.1.3 协同LLMs+KGs
    • 3.2 分类
  • 4 KG增强的LLMs
    • 4.1 KG增强LLM预训练
      • 4.1.1 将KG纳入训练目标
      • 4.1.2 将KG纳入LLM输入
      • 4.1.3 通过额外的融合模块集成KG
    • 4.2 KG增强LLM推理
      • 4.2.1 动态知识融合
      • 4.2.2 检索增强知识融合
    • 4.3 KG增强LLM的可解释性
      • 4.3.1 KGs用于LLM探测
      • 4.3.2 KGs用于LLM分析
  • 5 LLM增强用于KGs
    • 5.1 LLM增强KG嵌入
      • 5.1.1 LLMs作为文本编码器
      • 5.1.2 LLM用于联合文本和KG嵌入
    • 5.2 LLM增强KG补全
      • 5.2.1 LLM作为编码器(PaE)
      • 5.2.2 LLM作为生成器(PaG)
      • 5.2.3 PaE和PaG的比较
      • 5.2.4 模型分析
    • 5.3 LLM增强的KG构建
      • 5.3.1 实体发现
      • 5.3.2 核心指代消解(CR)
      • 5.3.3 关系抽取(RE)
      • 5.3.4 端到端的KG构建
      • 5.3.5 从LLM中蒸馏知识图谱
    • 5.4 LLM增强KG到文本的生成
      • 5.4.1 利用来自LLM的知识
      • 5.4.2 构造大型弱KG文本对齐语料库
    • 5.5 LLM增强KG问答
      • 5.5.1 LLMs作为实体/关系抽取器
      • 5.5.2 LLMs作为答案的推理者
  • 6 协同LLMs+KG
    • 6.1 知识表征
    • 6.2 推理
  • 7 未来方向
    • 7.1 KG用于LLM中的幻觉检测
    • 7.2 KG用于编辑LLM的知识
    • 7.3 KG用于黑盒LLM知识注入
    • 7.4 多模态LLM用于KG
    • 7.5 LLM用来理解KG结构
    • 7.6 用于二元推理的协同LLM和KGs
  • 8 结论

摘要

大型语言模型(LLM),如ChatGPT和GPT4,由于其涌现能力和可推广性,正在自然语言处理和人工智能领域掀起新的浪潮。然而,LLM是黑匣子模型,通常无法捕捉和获取事实知识。相反,知识图谱(KGs),例如维基百科和华普,是明确存储丰富事实知识的结构化知识模型。KGs可以通过为推理和可解释性提供外部知识来增强LLM。同时,KGs很难从本质上构建和进化,这对KGs中现有的生成新事实和表示未知知识的方法提出了挑战。因此,将LLM和KGs统一在一起并同时利用它们的优势是相辅相成的。在本文中,我们提出了LLM和KGs统一的前瞻性路线图。我们的路线图由三个通用框架组成,即:1)KG增强的LLM,它在LLM的预训练和推理阶段纳入了KG,或者是为了增强对LLM所学知识的理解;2) LLM增强的KG,利用LLM执行不同的KG任务,如嵌入、补全、构建、图到文本生成和问答;以及3)协同LLM+KGs,其中LLM和KGs扮演着平等的角色,并以互利的方式工作,以增强LLM和KG,实现由数据和知识驱动的双向推理。我们在路线图中回顾和总结了这三个框架内的现有努力,并确定了它们未来的研究方向。

1 引言

2 背景

2.1 大语言模型(LLMs)

2.1.1 仅编码器LLMs

2.1.2 编码器-解码器LLMs

2.1.3 仅解码器LLMs

2.2 提示工程

2.3 知识图谱(KGs)

2.3.1 百科全书式知识图谱

2.3.2 常识知识图谱

2.3.3 领域特定知识图谱

2.3.4 多模态知识图谱

2.4 应用

3 路线图与分类

3.1 路线图

3.1.1 KG增强的LLMs

3.1.2 LLM增强的KGs

3.1.3 协同LLMs+KGs

3.2 分类

4 KG增强的LLMs

4.1 KG增强LLM预训练

4.1.1 将KG纳入训练目标

4.1.2 将KG纳入LLM输入

4.1.3 通过额外的融合模块集成KG

4.2 KG增强LLM推理

4.2.1 动态知识融合

4.2.2 检索增强知识融合

4.3 KG增强LLM的可解释性

4.3.1 KGs用于LLM探测

4.3.2 KGs用于LLM分析

5 LLM增强用于KGs

5.1 LLM增强KG嵌入

5.1.1 LLMs作为文本编码器

5.1.2 LLM用于联合文本和KG嵌入

5.2 LLM增强KG补全

5.2.1 LLM作为编码器(PaE)

5.2.2 LLM作为生成器(PaG)

5.2.3 PaE和PaG的比较

5.2.4 模型分析

5.3 LLM增强的KG构建

5.3.1 实体发现

5.3.2 核心指代消解(CR)

5.3.3 关系抽取(RE)

5.3.4 端到端的KG构建

5.3.5 从LLM中蒸馏知识图谱

5.4 LLM增强KG到文本的生成

5.4.1 利用来自LLM的知识

5.4.2 构造大型弱KG文本对齐语料库

5.5 LLM增强KG问答

5.5.1 LLMs作为实体/关系抽取器

5.5.2 LLMs作为答案的推理者

6 协同LLMs+KG

6.1 知识表征

6.2 推理

7 未来方向

在前几节中,我们回顾了统一KGs和LLM的最新进展,但仍有许多挑战和悬而未决的问题需要解决。在本节中,我们将讨论这一研究领域的未来方向。

7.1 KG用于LLM中的幻觉检测

LLMs中的幻觉问题会产生事实上不正确的内容,这严重阻碍了LLMs的可靠性。如第4节所述,现有研究试图利用KG通过预训练或KG增强推理来获得更可靠的LLM。尽管做出了这些努力,但在可预见的未来,幻觉问题可能会继续存在于LLM领域。因此,为了获得公众的信任和边界应用,必须检测和评估LLM和其他形式的人工智能生成内容(AIGC)中的幻觉实例。现有的方法试图通过在一小部分文档上训练神经分类器来检测幻觉,这些文档既不健壮,也不强大,无法处理不断增长的LLM。最近,研究人员试图使用KGs作为外部来源来验证LLM。进一步的研究将LLM和KGs结合起来,实现了一个通用的事实核查模型,该模型可以检测跨领域的幻觉[249]。因此,它为利用KGs进行幻觉检测打开了一扇新的大门。

7.2 KG用于编辑LLM的知识

7.3 KG用于黑盒LLM知识注入

7.4 多模态LLM用于KG

7.5 LLM用来理解KG结构

7.6 用于二元推理的协同LLM和KGs

8 结论

将大型语言模型(LLM)和知识图谱(KGs)统一起来是一个活跃的研究方向,越来越受到学术界和工业界的关注。在这篇文章中,我们对该领域的最新研究进行了全面的概述。我们首先介绍了整合KGs以增强LLM的不同方式。然后,我们介绍了现有的将LLM应用于KG的方法,并基于各种KG任务建立了分类法。最后,我们讨论了这一领域的挑战和未来方向。我们希望本文能对这一领域有一个全面的了解,并推动未来的研究。

你可能感兴趣的:(综述文章,LLM,知识图谱,语言模型,知识图谱,人工智能)