Ontological Concept Structure Aware KnowledgeTransfer for Inductive Knowledge Graph Embedding

传统的知识图嵌入方法主要假设推理阶段的所有实体在原始训练图中都是可用的。但在实际应用场景中,总是不可避免地出现新的实体,这就导致了严重的知识图外实体问题。关于这个问题的现有工作主要是利用额外的资源,例如实体描述,或者简单地聚集知识图内的邻居来归纳地嵌入这些新实体。然而,高质量的额外资源通常很难获得,而且新实体的现有邻居可能过于稀疏,无法为这些实体建模提供足够的信息。同时,它们可能无法整合本体概念的丰富信息,而本体概念提供了实例实体的一般图形,通常在知识图谱中保持不变。为此,我们提出了一种新的归纳框架CatE,从本体论概念的增强来解决稀疏性问题。具体而言,我们首先采用变压器编码器对本体概念的复杂上下文结构进行建模。然后,我们进一步开发了用于生成目标实体嵌入的模板细化策略,其中概念嵌入用于形成目标实体的基本框架,实体的单个特征将通过其现有邻居来丰富。最后,在公共数据集上的大量实验证明了我们提出的模型与最先进的基线方法相比的有效性。

1.介绍

在本文中,我们提出了一种基于本体概念的归纳知识图嵌入方法来表示新的实体。我们观察到一个本体论概念有一个复杂的上下文结构。

首先,目标概念通常与大量实例实体和少数相邻概念相关联。其次,实例实体在表示目标概念方面的权重不同,目标概念与其相邻概念之间的元关系也不同。这给本体论概念的建模带来了巨大的挑战。结果表明,该变压器在各种应用场合中具有良好的规模化效果。最近,与现有的图神经网络(GNNs)相比,图- bert[14]模型在有效性和效率方面都达到了最先进的性能。因此,我们采用变压器编码器来生成更有信息量的概念嵌入。然后,在相关概念嵌入的基础上,进一步开发模板细化策略以提高新实体嵌入的性能。考虑到一个目标实例实体可能属于多个概念,不同的概念对给定查询关系的影响可能不相等,

你可能感兴趣的:(知识图谱的结构动态补全,知识图谱,人工智能)