2019WWW-KTUP:Unifying Knowledge Graph Learning and Recommendation: Towards a Better Understanding...

作者以及单位

Yixin Cao (National University of Singapore)
通讯作者 何向南
故事核心:挖掘用户和项目之间进一步的关系,从而提高性能。

解决问题

问题:设计了一种新的基于翻译的推荐模型,解决了KG(知识图谱)的不完整性(现有方法主要假设KG是完整的并且简单地在实体原始数据或嵌入的浅层中转移KG中的“知识”)。
具体来说:与之前基于KG的推荐方法不同,我们在KG中传输关系信息,以便了解用户喜欢某个项目的原因。例如,如果用户观看了由(关系)同一个人(实体)指导的几部电影,我们可以推断出导演关系在用户做出决定时起着关键作用,从而有助于理解用户的偏好。更细的粒度。
结果:提高了理解用户偏好方面的优势。

研究动机

提出了一个基于翻译的用户偏好模型(TUP),以便与KG无缝集成。动机是理解在用户和项目之间存在多个(隐含的)关系,这进一步揭示了用户对消费项目的偏好(即原因)。

创新点

我觉得这个图画的很好,顶会果然讲究看图说明问题。
图表达的意思在论文的2.3介绍了:
KG完成的目的是为Robert Zemeckis给出明确关系,如isDirectorOf提供正确的电影(例如,飞越长生Death Becomes Her,不错的电影),而项目推荐旨在为满足某些隐含偏好的目标用户推荐电影(例如,以前只喜欢回来未来12和阿甘,不知道飞越长生),但是知识图谱指明这个飞越长生也是Robert Zemeckis导演的,虽然飞越长生和回来未来12和阿甘不同风格,也会推荐给用户。
因此,论文通过联合模型填补项目推荐和KG完成之间的差距,系统地研究这两个任务如何相互影响。


kg和item推荐结合

研究方法

1.提出的方法包括两个任务:项目推荐和知识图谱补全
通过联合模型TUP填补项目推荐和KG完整之间的差距,系统地研究这两个任务如何相互影响。
本文采用的是联合训练。是利用联合嵌入的方法,利用kg中的facts作为辅助信息;基于user-item的模拟,填补kg中facts的缺失。

kg融合

项目推荐存在的问题:许多方法将基于相似性的方法扩展到NN,但是,它们仍然存在数据稀疏性问题和冷启动问题。基于内容的方法通过引入各种辅助信息来处理问题,但是,相关方法严重依赖于项目和实体之间的对齐,但仍未考虑实体关系在从KG转移知识方面的重要性。
知识图谱补全存在的问题:最近对KG补全,热衷于研究显示出对学习实体和关系的低维表征,同时坚持图的结构知识。粗略地将学习方法分为两组:平移距离模型和语义匹配模型。平移距离模型的核心思想,即两个实体之间的关系对应于它们的向量空间中的平移。虽然它简单而有效,但它有时会令人困惑,因为某些关系可以将一个实体转换为各种实体,即1对N问题。第二组通过基于相似性的评分函数匹配实体和关系的语义表示来测量事实的合理性(我看原文好像没有说这里存在的问题)。

2.提出的模型TUP和KTUP是什么

TUP(Translation-based User Preference):联合KG学习,并利用user-item之间的多重隐性关系,揭示用户的偏好。为了使偏好具有明确的语义,将它们与KG中的关系对齐,项目属性的类型在用户决策过程中扮演着至关重要的角色。
KTUP(Knowledge-enhanced TUP):将学习到的关系嵌入和实体嵌入进行了从KG迁移到TUP,同时训练KG的完整性和推荐任务。联合学习user、items、实体和关系的表示。将TUP和TransH进行联合学习。

3.这两个模型具体是干嘛

3.1TUP: 主要考虑偏好诱导和基于超平面的转化
偏好归纳Preference Induction(我觉得这里的introduction翻译归纳比较好):设计了两种偏好诱导策略:一种是从潜在因子P个偏好中选择一个的Hard Strategy和一种将所有偏好与注意力结合起来的soft Strategy。

Hard Strategy:推荐有效的单一偏好,利用得分函数(点积)
soft Strategy:通过注意力机制(attention mechanism)来联合多重偏好。

基于超平面的转化:解决不同的用户可以对不同的项目共享相同的偏好(即,N对N问题)。以前的方法a为了解决一个用户同时喜欢2个items,那么这两个Items的用户嵌入就很接近。我理解的意思是,无论用户的偏好是什么,两个item近不近没有关系,消费者都应该消费另一方,怕理解错(原文是leading to an incorrect conclusion that a user consuming one shall consume the other, no matter what the user’s preference is.)而b所示的偏差超平面来减轻这种限制,并且仅当它们被投影到特定超平面时才是相似的(在不同平面item没有关系)。


超平面

3.2 KTUP通过结合实体的KG知识以及关系来扩展基于翻译的推荐模型TUP

首先,有两个输入,一个输入是item,一个输入是kg。
其次,有三个层次,最上层次是项目推荐的TUP,包括两个组件:偏好感应和基于超平面的翻译。最下层是知识图谱补全的TransH。中间层 KTUP联合学习TUP和TransH,通过转移实体知识和关系来增强项目和偏好建模。

核心架构

总体目标函数训练KTUP,如下所示(Lp是TUP, Lk是KG,总函数比较好理解):


image.png

结论

TUP能够对用户和项目之间的各种隐式关系建模,这揭示了用户对消费项目的偏好。
KTUP通过对齐的关系和权限进一步增强了模型的可解释性,并通过联合学习提高了两个任务的性能。
总的来说,我抓大放小突出了这篇文章的工作。如果看懂了,会觉得“可能很简单”,因为主要思想就是AB两个模型共同融合做出推荐结果,A负责把item推荐优化的更好,B负责把知识图谱推荐优化好,然后弄个超参学习一下,共同决策结果,符合一般的组合模型设计思路。
但其实无论是在TUP和KTUP的设计过程中,细节考虑的工作特别多,建构的设想也很多,应该是看了不少文献,把这些文献的问题拿捏的很准,动机合理,故事说的很好。最后的实验工作量很大,方方面面都测试到了。投顶会果然是每个细节都做到完美了。

参考

统一知识图学习和推荐:更好地理解用户偏好Unifying Knowledge Graph Learning and Recommendation_tong987735780的博客-CSDN博客

统一知识图谱学习和建议:更好地理解用户偏好_XD的学习笔记-CSDN博客

你可能感兴趣的:(2019WWW-KTUP:Unifying Knowledge Graph Learning and Recommendation: Towards a Better Understanding...)