【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》

题目:Message Passing for Hyper-Relational Knowledge Graphs(超关系知识图谱的知识传递)
会议:EMNLP2020
论文地址:
https://arxiv.org/abs/2009.10847(arxiv)
https://www.researchgate.net/publication/344359783_Message_Passing_for_Hyper-Relational_Knowledge_Graphs(reaseearchgate)
代码地址:
https://github.com/migalkin/StarE
其他:出自德国德累斯顿工业大学和弗劳恩霍夫应用研究促进协会

【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第1张图片
这个是Jens Lehmann组的成果,曾发表过《DBpedia: A nucleus for a web of open data》(获得近五千引用)。

目录

1. 超关系知识图谱(Hyper-relational knowledge graph)
2. 链接预测(link prediction)
2.1 三元关系推断(triple-relation link prediction)
2.2 多元关系推断(multi-relation link prediction)
3. 相关工作
4. 前备知识
4.1 基于无向图的图神经网络模型
4.2 基于无向图的图神经网络模型
4.3 超关系图
5. 动机
6. STARE
7. WD50K Dataset
8. 实验
9. 结论
10. 疑问汇总


1. 超关系知识图谱(Hyper-relational knowledge graph)

超关系的知识图谱是指由多个多元关系事件构成的知识图谱,每个多元关系事件可以由一个三元组+n个附加键值对附加信息表示。超关系知识图谱可以有效的结构化表示多元关系,有助于下一步对其进行编码分析。

2. 链接预测(link prediction)

自2016起,知识图谱方向逐渐升温,吸引了一批又一批学者的兴趣。经典的知识图谱任务有图谱表示、图谱融合、链接预测、节点预测等。在我们这篇文章中,主要介绍近年来链接预测的发展情况,并分析EMNLP2020的一篇工作《Message Passing for Hyper-Relational Knowledge Graphs》。
链接预测任务是指,基于目前图谱中已有的links,推断出新的links,其中包括entity prediction和relation prediction。

2.1 三元关系推断(triple-relation link prediction)

目前,大多数的link predict方法是基于由三元组构成的知识图谱,预测的目标是一个relation是否可以将两个entities连接起来,或者给定一个relation、一个entity,推断一个entity,使其构成一个新的三元组。

2.2多元关系推断(multi-relation link prediction)

但是由于三元组具有严格的形式化要求,必须是一个relation连接两个entities,往往不能很好表示facts,特别是对于一些还有辅助信息的facts。如下所示,三元关系推断可以很好的表示图中A部分的fact,爱因斯坦曾就读于苏黎世联邦理工学院、爱因斯坦曾就读于苏黎世大学。但是无法很好的表示图中B部分的fact,爱因斯坦在苏黎世联邦理工学院学习数学,获得学士学位,在苏黎世大学学习物理,获得博士学位。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第2张图片
但可以使用多元关系很好的表示B部分的fact,我们可以将一个fact表示为,s、r、o分别表示头实体、关系、尾实体,s、r、o构成主三元组,如图B中的,Q为辅助信息,如B图中的。这样,我们就可以准确的描述一个fact。

3. 相关工作

早期图表示方法会过分的简化辅助信息,如m-TransH将一个多元关系转换为多个三元关系,RAE、HypE等模型将多元关系中主三元组中的关系以及辅助信息中的键,抽象为一个新的关系。

最近,对多元关系的研究主要分为两个方向:

  1. 将多元关系简化为多个三元关系,如GETD、TuckER;
  2. 使用新的范式表示多元关系,如NaLP使用多个键值对表示多元关系、HINGE和NeuInfer使用主三元组+辅助信息的形式表示多元关系。

4. 前备知识

4.1 基于无向图的图神经网络模型

无向图可以形式化为 G = ( Γ , ξ ) G=(\Gamma, \xi) G=(Γ,ξ), 其中 Γ \Gamma Γ表示结点集合, ξ \xi ξ表示边的集合,每一个点 γ ∈ Γ \gamma \in \Gamma γΓ都有相对应的表示向量 h γ {\mathbf h}_\gamma hγ和邻居结点 N ( γ ) N(\gamma) N(γ)
2017年Gilmer et al.提出的信息传递的框架为
h v k + 1 = U D P ( h v k , A G G N u ∈ N ( γ ) ϕ ( h γ k , h u k , e γ u ) ) {\mathbf h}^{k+1}_v = UDP({\mathbf h}^k_v,\mathop {AGGN }\limits_{u \in N(\gamma)}\phi({\mathbf h}^k_\gamma, {\mathbf h}^k_u, e_{\gamma u} )) hvk+1=UDP(hvk,uN(γ)AGGNϕ(hγk,huk,eγu))
A G G R ( ⋅ ) AGGR(\cdot) AGGR() U P D ( ⋅ ) UPD(\cdot) UPD()分别是邻居聚合、结点更新的函数, h γ k {\mathbf h}^k_\gamma hγk是第 k k k层结点 γ \gamma γ的表示, e γ u {\mathbf e}_{\gamma u} eγu是结点 γ 、 u \gamma、u γu之间的连边的表示。
不同的图编码模型使用不同的邻居聚合、结点更新的策略。例如Kipf和Welling2017年提出的GCN模型,结点通过使用一个权重矩阵聚合邻居结点,并通过一个激活函数,比如 R e L U ReLU ReLU,得到新的表示。GCN上第 k k k层结点 γ \gamma γ可以表示为
h γ k = f ( ∑ u ∈ N ( γ ) W k h u k − 1 ) {\mathbf h}^{k}_\gamma = f(\sum_{u \in N(\gamma)}{\mathbf W}^{k}{\mathbf h}^{k-1}_u) hγk=f(uN(γ)Wkhuk1)
但是,以上模型存在明显的不足,GCN和其他相似的结构不能编码含不同关系的表示,这要求提出支持多关系的图谱表示学习。

4.2 基于有向图的图神经网络模型

在多关系的图谱表示学习中,有向图可以表示为 G = ( Γ , R , ξ ) G=(\Gamma, R, \xi) G=(Γ,R,ξ) R R R表示关系集合, ξ \xi ξ表示有向边 ( s , r , o ) (s, r, o) (s,r,o)的集合, s ∈ Γ s \in \Gamma sΓ o ∈ Γ o \in \Gamma oΓ s 、 o s、o so通过关系 r ∈ R r \in R rR连接起来。
GCN模型假设关系是单向的,因此往往会将逆边 ( o , r − 1 , s ) (o, r^{-1}, s) (o,r1,s)加入到数据集 ξ \xi ξ中。且对于每一结点都会加入它的自环 ( γ , r s e l f , γ ) (\gamma, r^{self}, \gamma) (γ,rself,γ),以此在邻居聚合、更新节点中保留结点本身的信息。
对于有向图编码,Schlichtkrull et al.提出R-GCN,使用多个权重矩阵 W r {\mathbf W}_r Wr表示不同的关系 r r r,以此来进行多关系的聚合。
h γ k = f ( ∑ ( u , r ) ∈ N ( γ ) W r k h u k − 1 ) {\mathbf h}^k_\gamma = f(\sum_{(u, r)\in N(\gamma)} {\mathbf W}^{k}_r {\mathbf h}^{k-1}_u) hγk=f((u,r)N(γ)Wrkhuk1)

但是上述的模型在实验时往往会面对参数爆炸,因此Vashishth et al.提出 CompGCN,使用基向量分解。
h γ k = f ( ∑ ( u , r ) ∈ N ( γ ) W λ ( γ ) k ϕ ( h u k − 1 , h γ k − 1 ) ) {\mathbf h}^{k}_\gamma = f(\sum_{(u, r) \in N(\gamma)}W^{k}_{\lambda(\gamma)} \phi({\mathbf h^{k-1}_u}, h^{k-1}_\gamma)) hγk=f((u,r)N(γ)Wλ(γ)kϕ(huk1,hγk1))
ϕ ( ⋅ ) \phi(\cdot) ϕ()是组合操作,包含相加、相减等操作, W λ ( γ ) {\mathbf W_{\lambda(\gamma)}} Wλ(γ)为方向向量权重矩阵,包含正向、反向、逆等关系。

4.3超关系图

一个超关系图,可以表示为 G = ( Γ , R , ξ ) G=(\Gamma, R, \xi) G=(Γ,R,ξ) ξ \xi ξ是边的集合 e 1 , . . . , e n {e_1,...,e_n} e1,...,en e j ∈ Γ × R × Γ × P ( R × Γ ) e_j \in \Gamma \times R \times \Gamma \times P(R \times \Gamma) ejΓ×R×Γ×P(R×Γ) e j e_j ej表示超关系, e j e_j ej通常可以表示为 ( s , r , o , Q ) (s, r, o, Q) (s,r,o,Q) Q Q Q是辅助信息的集合,按照这种方式2.2中的图B可以表示为(Albert Einstein, educated at, University of Zurich, (academic degree, Doctorate), (academic major, Physics))。

5. 动机

但是以上模型都具有明显不足:

  1. 无法编码含任意数量的辅助信息的fact;
  2. 辅助信息与主三元组之间的交互仍存在问题,比如辅助信息之间交互、主三元组与不同辅助信息交互时,每次仅考虑一个fact没有综合学习相关fact。

出于以上原因,作者提出了一种图网络模型——STARE,首次使用图神经网络进行多元关系预测任务。

6. STARE

STARE的模型图如下所示。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第3张图片

废话不多说,直接上公式。
h γ = f ( ∑ ( u , r ) ∈ N ( γ ) W λ ( r ) ϕ r ( h u , γ ( h r , h q ) v u ) ) {\mathbf h_\gamma = f(\sum_{(u,r) \in N(\gamma)}{\mathbf W_{\lambda(r)} \phi_r({\mathbf h}_u, \gamma({\mathbf h}_r, {\mathbf h}_q)_{vu})})} hγ=f((u,r)N(γ)Wλ(r)ϕr(hu,γ(hr,hq)vu))
首先使用 ϕ q \phi_q ϕq聚合辅助信息的键值对,然后对所有辅助信息进行汇总,通过一个权重矩阵 W q {\mathbf W}_q Wq转换到主三元组空间,将其与主三元组的关系进行加权组合,将其得到向量与尾实体进行组合后投影到头实体,最终聚合后得到头实体表示。

聚合辅助信息如下述所示。
γ ( h r , h q ) = α ⨀ h r + ( 1 − α ) ⨀ h q \gamma({\mathbf h}_r, {\mathbf h}_q) = \alpha \bigodot {\mathbf h}_r + (1-\alpha)\bigodot{\mathbf h}_ q γ(hr,hq)=αhr+(1α)hq

h q = W q ∑ ( q r , r v ) ∈ Q j r v u ϕ q ( h q r , h q v ) {\mathbf h}_q = {\mathbf W}_q\sum_{(qr,rv)\in Q_{jr_{vu}}}\phi_q({\mathbf h}_{qr}, {\mathbf h}_{qv}) hq=Wq(qr,rv)Qjrvuϕq(hqr,hqv)
公式比较好理解,不再过多赘述。

7. WD50K Dataset

多元关系推断常用数据集有JF17K和WikiPeople,作者讨论了这两个数据集的不足之处。

  1. WIkiPeople数据集含有大量数字结点,如时间等,这部分信息往往是可以被忽略掉的,去掉后仅有3%的数据为超关系事件
  2. JF17K数据集存在数据泄漏问题,在测试集中44.5%的主三元组已经出现在了训练集中

因此,作者基于Wikidata提出了一个新的数据集WD50K,不存在以上两种问题,并对其构建了多个变体,WD50K(33)等。括号中的数字表示超关系事件对所占的比例。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第4张图片

8. 实验

文章主要的工作在于STARE图结构编码超关系事件、提出新的数据集WD50K,在实验部分,模型的解码器使用Transformer。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第5张图片

【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第6张图片

上述两个表分别展示了STARE在WIkiPeople、JF17K和WD50K上的试验结果,试验结果挺不错哒:)
并且作者单独分析了模型对超关系数据的影响以及transformer对试验结果的影响,证明模型确实可以有效编码超关系数据,transformer可以降低过拟合。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第7张图片
作者同时对比了模型在对JF17K原始数据集与清洁后的数据集的结果。
【阅读笔记 EMNLP2020】《Message Passing for Hyper-Relational Knowledge Graphs》_第8张图片

9. 总结

本文主要介绍了超关系知识图谱的关系推断,包括三元关系推断、多元关系推断,然后介绍了EMNLP2020的一篇文章《Message Passing for Hyper-Relational Knowledge Graphs》,该文章首次将图网络应用于多元关系推断任务,并重新构建了一个数据集。

10. 疑问汇总

  1. 文章中提出的STRAE模型结构仍存在一定问题,为什么将辅助信息与主三元组的关系进行组合?而不是主三元组整体?
  2. 文章中批评了WikiPeople数据集包含太多数字信息,重构了WD50K数据集,数字信息难道不重要吗?

你可能感兴趣的:(图网络挖掘,python,机器学习,人工智能,深度学习,知识图谱)