会议:IJCAI 2020
源码:https://github.com/kosugi11037/bert-int
(1). 在实体对齐任务中,知识图谱的side information(边缘信息:包括名称、描述和属性)比structural information(结构信息:知识图谱的图结构)更有用。
(2). 由于知识图谱的异构性,对齐的实体往往不具有相同的邻域,使得知识图谱的结构信息难以利用,从而对齐的准确率较低。
\,\,\,\,\,\,\,\,\,\, 本文提出的方法仅仅使用知识图谱的边缘信息,其做法并非聚集邻居节点,而是计算邻居节点之间的相互作用(邻居节点name/description信息的相互作用),这种相互作用能够捕获邻居节点之间细粒度的匹配。相似地,还计算了节点本身属性的相互作用。
\,\,\,\,\,\,\,\,\,\, 模型的整体框架如图2所示,BERT-INT采用BERT模型作为基础单元处理实体的边缘信息。本文所提出的交互模型包含三个部分:①实体本身的name/description交互;②邻居视图name/description交互③实体本身的属性视图交互。三种交互的结果向量进行拼接操作形成交互结果向量,将该向量传入多层感知机MLP得到实体对的相似度。
\,\,\,\,\,\,\,\,\,\, 如图2所示,首先利用与训练的BERT模型对实体的name/description进行计算(优先采用description,当其缺失时,用name代替),取CLS标签对应值,然后使用MLP进行映射,得到的结果作为该实体的向量表示:
其中 g ( . ) g(.) g(.)表示向量 C ( e ) C(e) C(e)和 C ( e ′ ) C(e') C(e′)曼哈顿距离函数, m m m为边缘超参数。负样本的采样方法同BootEA中提出的方法。由于计算资源不足,Bert单元将采用以上方法微调,在后续的交互过程中,bert模型参数将会被固定。
\,\,\,\,\,\,\,\,\,\, 给定 K G KG KG和 K G ′ KG' KG′中的两个实体 e e e和 e ′ e' e′,使用上述BERT单元计算实体 e e e和 e ′ 的 e'的 e′的name/description向量表示 C ( e ) C(e) C(e)和 C ( e ′ ) C(e') C(e′),然后计算 C ( e ) C(e) C(e)和 C ( e ′ ) C(e') C(e′)的余弦相似度,计算结果即为name/description交互。
\,\,\,\,\,\,\,\,\,\, 给定 K G KG KG和 K G ′ KG' KG′中的两个实体 e e e和 e ′ e' e′,首先根据公式(1)计算 e e e和 e ′ e' e′的邻居节点的name/description的向量表示,得到两个向量集合 { C ( e i ) } i = 1 ∣ N ( e ) ∣ \{C(e_i)\}_{i=1}^{|N(e)|} {C(ei)}i=1∣N(e)∣和 { C ( e j ′ ) } j = 1 ∣ N ( e ′ ) ∣ \{C(e'_j)\}_{j=1}^{|N(e')|} {C(ej′)}j=1∣N(e′)∣,然后使用余弦相似度计算这两个向量集合的相似度矩阵 S S S,其元素计算公式为 s i j = C ( e i ) ⋅ C ( e j ′ ) ∣ ∣ C ( e i ) ∣ ∣ ⋅ ∣ ∣ C ( e j ′ ) ∣ ∣ s_{ij}=\frac{C(e_i)\cdot C(e'_j)}{||C(e_i)||\cdot||C(e'_j)||} sij=∣∣C(ei)∣∣⋅∣∣C(ej′)∣∣C(ei)⋅C(ej′),最后使用双重聚合方法对 S S S进行计算,得到邻居视图交互向量。
\,\,\,\,\,\,\,\,\,\, 所谓双重聚合方法,就是分别从矩阵 S S S的行方向和列方向进行聚合,最终将两个方向的聚合结果向量进行拼接。其中行聚合步骤如下:
其中 n n n表示最大邻居数, L L L表示高斯核个数, r r r指示行聚合。
\,\,\,\,\,\,\,\,\,\, 将行聚合和列聚合的结果进行拼接,得到邻居视图交互相似度向量 ϕ ( N ( e ) , N ( e ′ ) ) \phi(N(e),N(e')) ϕ(N(e),N(e′)):
其中 ⨁ \bigoplus ⨁表示拼接运算。
\,\,\,\,\,\,\,\,\,\, 对于对齐的实体 e e e与 e ′ e' e′,他们的某个邻居三元组分别为 ( e , r i , e i ) (e,r_i,e_i) (e,ri,ei)和 ( e ′ , r j ′ , e j ′ ) (e',r'_j,e'_j) (e′,rj′,ej′),如果邻居实体 e i e_i ei与邻居实体 e j ′ e'_j ej′相似,则关系 r i r_i ri与关系 r j ′ r'_j rj′在于以上应该也是相似的。基于以上推断,作者不仅利用邻居计算相似度矩阵 S S S,还利用与邻居关系计算掩饰矩阵 M M M,对邻居实体相似度矩阵进行校正,处理步骤如下:
最终通过关系掩饰矩阵 M M M校正的邻居视图交互示意图如图3所示:
\,\,\,\,\,\,\,\,\,\, 实体 e e e和 e ′ e' e′的某个属性三元组分别为 ( e , a i , v i ) (e,a_i,v_i) (e,ai,vi), ( e ′ , a j ′ , v j ′ ) (e',a'_j,v'_j) (e′,aj′,vj′),与实体的邻居关系三元组相似,因此属性视图交互可以类比于邻居视图交互,相似度矩阵根据属性值计算: S i j = s i m ( C ( v i ) , C ( v j ′ ) ) S_{ij}=sim(C(v_i),C(v'_j)) Sij=sim(C(vi),C(vj′)),掩饰矩阵根据属性名称计算: M i j = s i m ( C ( a i ) , C ( a j ′ ) ) M_{ij}=sim(C(a_i),C(a'_j)) Mij=sim(C(ai),C(aj′)),其他步骤与邻居视图交互相同,最终得到属性视图交互相似度向量 ϕ ( A ( e ) , A ( e ′ ) ) \phi(A(e),A(e')) ϕ(A(e),A(e′))。
\,\,\,\,\,\,\,\,\,\, 将①实体本身的name/description交互相似度值、②邻居视图name/description交互相似度向量和③实体本身的属性视图交互相似度向量进行聚合(也就是拼接操作),得到实体对 ( e , e ′ ) (e,e') (e,e′)的相似度向量 ϕ ( e , e ′ ) \phi(e,e') ϕ(e,e′),然后使用MLP网络计算实体之间的相似度分数 g ( e , e ′ ) g(e,e') g(e,e′),公式表示如下:
其中 ⨁ \bigoplus ⨁表示拼接运算。最终 ,将 g ( e , e ′ ) g(e,e') g(e,e′)带入到公式(2)边缘损失计算公式中,根据该损失微调公式(5)的MLP网络参数。
\,\,\,\,\,\,\,\,\,\, 实体对齐过程中,先根据实体的 C ( e ) C(e) C(e)向量计算 k k k个余弦相似度最高的候选对齐实体,然后再使用以上方法分别计算 k k k个候选实体与 e e e间的相似度分数值 g ( e , e ′ ) g(e,e') g(e,e′),最后对结果进行从大到小排列。
\,\,\,\,\,\,\,\,\,\, 数据集采用交叉语言的DBP15K和单语言的DWY100K,衡量指标为 H i t R a t i o @ K ( K = 1 , 10 ) HitRatio@K (K=1,10) HitRatio@K(K=1,10)和 M R R MRR MRR。
参数名 | 参数值 |
---|---|
CLS长度 | 768 |
公式(1)中MLP输出维度 | 300 |
公式(5)中MLP的维度 | 11->1 |
n | 50 |
边缘参数m(微调bert时) | 3 |
边缘参数m(训练公式(5)中MLP时) | 1 |
L L L | 20 |
μ \mu μ | 0.025到0.975,间隔0.05,共20个 |
σ \sigma σ | 0.1 |
\,\,\,\,\,\,\,\,\,\, 模型CEAFF在HR1指标上达到100%,本文的BERT-INT在DWY100K的两个子数据集上的HR1结果分别为99.2%和99.9%
\,\,\,\,\,\,\,\,\,\, 从结果可以看出,最大池化操作、列聚合、邻居视图交互和自身属性交互为高准确率提供了积极作用;使用图网络模型替换多视图交互方法得到的结果不理想;掩饰矩阵对结果没有积极的贡献,甚至有消极作用;多跳邻居视图对结果几乎没有影响。
\,\,\,\,\,\,\,\,\,\, 本文通过构建基于BERT嵌入的邻域和属性之间的交互来解决知识图对齐问题,从而获得邻居和属性的细粒度匹配,与其他模型相比,该模型的性能最好。
文章为阅读随笔,如有错误之处请批评指正,感谢您的阅读!