Trans系列

trans E

实体和关系映射到一个统一的空间内
目标函数是:||h+r-t||2尽可以小(以欧式距离为衡量指标)
其中负样本的构建方法,是随机替换头尾实体中的任意一个
(但这种情况,可能会出现false negative的情况,(据某些人解释,KG中一般视为开放世界假设,所以,没有在知识库中出现的,不一定是错误的))

在这里插入图片描述
正样本的得分尽可能小,负样本的得分尽可能高,所以loss如上,γ是一个认为设定的参数

#不足

是因为无法表达复杂关系,比如1对多时,根据transE的公式,t1约等于t2约等于t3约等于tm,这是不成立的

transH

H 是超平面的意义,每种关系都有超平面
将头、尾实体映射到关系所在的超平面空间,同样目标是使得欧几里得距离最小。
负采样的方法中,考虑了复杂关系类型(在1对多关系中,选择替换头实体构建负样本,在多对1关系中,选择替换尾实体构建负样本,尽可能降低假阳性(false negative)出现的概率)
Trans系列_第1张图片
TransH也存在一定的问题:头尾实体依然处于相同的语义空间,而每个三元组的关系可能关注头尾实体的不同属性,即每个关系对应的头尾实体应在不同的语义空间中表征,因此TransR模型由此诞生

transR

TransR作者发现TransH模型虽然有效的处理了复杂语义关系表示,但两个实体仍然处于相同的语义空间,因此不能够充分表示实体与关系的语义联系。
因为,转为空间,分别是实体空间和关系空间,
Trans系列_第2张图片
loss函数同transE模型
TransR还有一些缺点。例如引入的空间投影策略增加了计算量、头尾实体一同投影到关系空间,而未考虑到头尾实体的不同语义类型、仅将实体投影到关系空间中还不够完全提高语义表能力等。TransD模型试图改进这些不足之处。

链接:
transH:https://blog.csdn.net/qq_36426650/article/details/103336589
transR:https://blog.csdn.net/u013602059/article/details/107449193
trans系列:https://www.cnblogs.com/fengwenying/p/14561105.html#transh

你可能感兴趣的:(论文记录,机器学习,人工智能)