SimKGC: Simple Contrastive Knowledge Graph Completion withPre-trained Language Models
摘要知识图补全(KGC)旨在对已知事实进行推理,并推断缺失的环节。基于文本的方法,如KGBERT(Yao等人,2019)从自然语言描述中学习实体表示,并具有归纳KGC的潜力。然而,基于文本的方法的性能仍然大大落后于基于图嵌入的方法,如TransE(Bordesetal,2013)和RotatE(Sunetal,2019b)。在本文中,我们认为关键问题是有效的对比学习。为了提高学习效率,我们引入了三