知识图谱只是表示学习,TransE,TransH,TransR 论文笔记

知识表示学习的基本思想就是把知识图谱中的三元组(h,r,t) (原文中是(h,l,t))表示为低维稠密向量的形式,传统的图的网络结构存在缺陷,比如说数据稀疏问题,图遍历算法复杂度高等问题。
TransE是Trans系列论文最早提出的。点击查看论文原文。
主要思想是Relationships as translations in the embedding space,尾部实体t的嵌入向量应该接近头实体h的嵌入向量加上一个取决于关系r的向量,简单来说就是 h+r≈t
知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第1张图片
这里让人联想到了词向量,词向量也有这种平移不变现象。

损失函数和构造负样本:
知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第2张图片
正样本集合就是原本的 所有(h,l,t)集合S。
负样本集合就是对原本的(h,r,t) 将h或者t随机的替换为另外一个实体构造出的集合S’。

TransH 很犀利的指出了TransE的一些缺陷。点击查看论文原文

知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第3张图片
就是说TransE对于一对一关系可以处理的很好,但是对于这种多对一关系肯定存在这种弊端。虽然损失函数里面也有设置margin,但是这种趋势还是不可避免的。
为了解决这种问题,他们就提出了TransH。
知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第4张图片
把h和t 投影到一个超平面,得到投影向量 h ⊥ h_⊥ h , r ⊥ r_⊥ r,然后关系作为在这两个投影向量之间的平移。
对于每一种关系都要训练出一个超平面和与之对应的关系r,参数量有所增加。

TransE 论文原文

TransR 认为实体空间和关系空间应该是不同的。
实体 h 和 t 映射到关系空间中再做这种平移变换。
知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第5张图片
知识图谱只是表示学习,TransE,TransH,TransR 论文笔记_第6张图片
对于每一个关系有一个与之对应的r,和 M r M_r Mr

你可能感兴趣的:(论文笔记)