知识增强的NLP预训练模型【将知识图谱中的三元组向量引入到预训练模型中】

将知识引入到依靠数据驱动的人工智能模型中是实现人机混合智能的一种重要途径。

当前以Bert为代表的预训练模型在自然语言处理领域取得了显著的成功,但是由于预训练模型大多是在大规模非结构化的语料数据上训练出来的,因此可以通过引入外部知识在一定程度上弥补其在确定性和可解释性上的缺陷。

该文针对预训练词嵌入和预训练上下文编码器两个预训练模型的发展阶段,分析了它们的特点和缺陷,阐述了知识增强的相关概念。

提出了预训练词嵌入知识增强的分类方法,将其分为四类:

  • 词嵌入改造
  • 层次化编解码过程
  • 优化注意力
  • 引入知识记忆

将预训练上下文编码器的知识增强方法分为两大类:

  • 任务特定
  • 任务通用

并根据引入知识的显隐性对其中任务通用的知识增强方法进行了进一步的细分。

该文通过分析预训练模型知识增强方法的类型和特点,为实现人机混合的人工智能提供了模式和算法上的参考依据。

知识增强的NLP预训练模型【将知识图谱中的三元组向量引入到预训练模型中】_第1张图片 预训练上下文编码器知识增强分类图

知识增强的NLP预训练模型【将知识图谱中的三元组向量引入到预训练模型中】_第2张图片 预训练上下文编码器知识增强模型

你可能感兴趣的:(知识图谱(Knowledge,Graph),自然语言处理,人工智能,机器学习)