#今日论文推荐#ACL 2022 | 基于自监督图对齐的多语言知识图谱推理

#今日论文推荐#ACL 2022 | 基于自监督图对齐的多语言知识图谱推理

在本文中,我们探索了如何自动预测和补全多个不同语言的知识图谱(KG)。不同于单语言知识图谱补全,来自多种语言的 KG 不是彼此独立的,它们通常有一些共享的实体和关系(seed alignment)。有效地利用不同 KG 存在的这些可传播的知识,不仅有利于知识向低完整性的 KG 传播,还可以减轻所有语言的 KG 补全所需的人工标注成本。然而,知识在多语言 KG 之间的传播面临着两大挑战。

1. 不同 KG 存在着异质性,例如 KG 的数据质量,噪声,大小不同。现有的工作利用损失函数推动每一对对齐实体的向量表征尽可能地靠近,但忽略了各个对齐实体来自于不同的 KG 从而具有语言多样性,且可能带来噪声。例如在图 1 中的三个 KG 里,当我们想利用英语和希腊 KG(Supporter KGs)来补全日语 KG(Target KG)时,英语 KG(80K 事实三元组)相比于希腊 KG(13K 事实三元组)蕴含更丰富的知识。
为了补全日语 KG 中(Apple Inc., 成立, ?)这一三元组,我们可以通过 Steven Jobs 这一对齐实体从英语 KG 中传递相比于希腊 KG 更多的知识。但是,如果粗暴地利用同一损失函数推动日文中的 Steven Jobs 与英语 KG 和希腊 KG 中的 Steven Jobs 同样接近,则日文中的 Steven Jobs 将接收到来自英语和希腊 KG 中对齐实体相同程度的影响。这样学习到的向量表征,可能带来其他 KG 中蕴含的无关的信息从而导致模型预测出错。
2. seed alignment 作为知识传播的监督信号,往往很稀疏, 因为它需要进行跨语言昂贵的人工标注。为缓解稀疏性问题,已有的工作提出在模型训练过程中根据实体的向量表征相似性来生成新的对齐实体对(alignment)。新生成的实体对可以增加 KG 之间的互联互通以促进知识的传播。然而,这些方法往往属于无监习,因此生成的实体对可能存在噪声。

论文题目:Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment
详细解读:​https://www.aminer.cn/research_report/62b2c13e7cb68b460fd8ad74?download=falseicon-default.png?t=M5H6https://www.aminer.cn/research_report/62b2c13e7cb68b460fd8ad74?download=false
AMiner链接:https://www.aminer.cn/?f=cs

你可能感兴趣的:(深度学习,深度学习,机器学习,人工智能)