论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs

论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs_第1张图片

很有意思的一篇paper。在众多Knowledge Graph Embedding (KGE) 的论文中通过问题设计和有意思的解决方式脱颖而出。

首先来看看问题设计。

一般的KGE model都是利用神经网络(大部分是GCN)做点(node)或者边(edge)的低维向量表示,将他们嵌入(embed)到一个低维向量空间的同时尽可能保持他的特征和性质。比如LINE、TransX系列、GraphSAGE、GCN等模型,通常是利用了图结构信息,让接近的边的表示尽可能相似,以此作为学习的目标。

但这篇paper着眼于multi-hop的embedding场景,用logic rule作为guidance进行学习。完美地结合了KGE models和logic rule所蕴含的逻辑信息。

其次,是问题的解决方式。

这篇paper使用了beta embedding来对点的存在与否进行建模,进行了一个相对严格的distribution的假设。其次,通过beta embedding这个伯努利分布的进阶版,能够很好地拟合logic rule的PSL。

从实验上来看也能吊打很多SOTA models,感觉很有意思,可以试一试。

你可能感兴趣的:(论文阅读,神经网络,机器学习,人工智能,深度学习)