Graph Learning and Recommendation
将知识图纳入推荐系统(知识感知推荐),以辅助提高推荐的准确性和可解释性。然而,现有的方法在很大程度上假设知识图谱做推荐时是完整的。但在现实真实的场景中,知识图谱是很难完整的,这就可能导致知识图谱做推荐的性能不理想。
(1)在本文中,提出了一个鲁棒共学习模型(RCOLM),它考虑了KS(知识图谱)在推荐时的不完整性。RCoLM的目标是利用迁移学习模型在推荐任务和知识图补全(KG完成)任务之间迁移知识。RCoLM试图从KG补全的推荐中利用用户-项目交互项,并将这两项任务合并在一个联合模型中,以便相互增强。
(2)在KG补全任务中,RCoLM提供了一种通用的面向任务的负采样策略,进一步提高了该算法的自适应能力,在知识图谱补全的子任务中获取好的表现起着至关重要的作用。
(1)使用KG中的事实作为辅助信息,以增强项目推荐的性能。
(2)在推荐中借助用户-项目交互来补全KG(知识图谱)中缺失的事实。
图中绿色虚线显示的信息表明,导演Charles Chaplin丢失了实体The Pilgrim。假设用户Bob看过电影City Light和Modern Times,通过使用KG,我们可以把Bob选择观看电影的原因归因为导演Charies Chaplin。在这种情况下,我们可能仍然不能推荐朝The Pilgrim给Bob,尽管我们已经准确地捕捉到鲍勃对电影的偏好。.因此,在将KG纳入推荐系统时,必须考虑到KG的不完整性。
eg.用户 Alice 已经看了电影 City Light, Modern Times, The Great Dictator 和 The Pilgrim。因为City Light, Modern Times, The Great Dictator是被Charles Chaplin导演的,我们也许能够理解Alice对导演Charles Chaplin的偏爱,并预测查Charles Chaplin是The Pilgrim的导演。这将用户-项目交互从推荐转移到KG补全。
(1)提出的RCOLM考虑到KG(知识图谱)的不完整性,并试图在推荐和KG补全任务之间迁移知识。因此,RCoLM能够提供提高推荐性能和KG补全性能的互补信息。
(2)与现有的KG补全方法不同的是,在实体预测和关系预测子任务中都使用单个负采样策略,RCoLM为不同的知识图谱子任务提出了一个全面的负采样策略。新策略不仅直接提高了RCoLM对KG补全的各种子任务的适应能力,而且间接的提高了RCoLM模型的推荐精确性。
现有的知识感知推荐方法可归纳为以下三类。
(1)第一类是基于嵌入的方法。这些方法用知识图嵌入(KGE)算法预处理一个KG目的是学习实体嵌入和关系嵌入,然后将学习到的嵌入用到推荐框架。这些方法在获得精确的实体嵌入方面存在缺陷。学习到的实体嵌入对于描述项目间关系不那么直观和有效。
(2)第二类是基于路径的方法。
这些方法在很大程度上依赖于元路径的质量,这需要领域知识而且在实践中不能很容易地优化。此外,在某些场景中设计手工制作的元路径是不可能的,存在实体和关系不在一个领域内的情况。(例如,新闻推荐)
(3)第三类方法是统一方法。
该类方法将基于嵌入的方法和基于路径的方法的优点结合起来。优点是可以过滤掉不相关的实体,并有助于提高推荐性能。
.所有现有的KG补全方法大致可分为两种。.一种是平移距离模型,另一种是语义匹配模型…
(1)Translational Distance Models
平移距离模型利用基于距离的评分函数
代表方法:trans系列的模型
(2)Semantic Matching Models
语义匹配模型利用基于相似性的评分函数。
与显式反馈相比,本文所考虑的推荐任务是针对通过观察到的用户行为间接反映意见的更丰富的隐式反馈
除了用户-项目交互矩阵Y之外,知识图G也是一个很好的来源,它由大量的实体-关系-实体三元组(h,r,t)组成,可以提供关于用户兴趣的额外信息。
RECOMMENDATION TASK
在本文中,项目推荐的目标是学习一个CTR预测模型来预测用户u为每个输入用户-项目对(u,v)点击击项目v的概率。
由于用户的点击历史是二部图,我们将CTR预测作为二分类,并利用Sigmoid函数σ(·)作为激活函数:
根据预测的概率,还可以为目标用户提供顶级项目推荐
TASK
KG的补全也可以设计成一个顶级推荐任务。推荐任务可以分为三个子任务。
(1)头部预测子任务
(2)关系预测子任务
(3)尾部预测子任务
首先,对于输入用户,引入了一个特殊构造的用户偏好树来合并基于点击历史记录的一组实体,这有助于发现他的潜在偏好。
接下来,通过实体表示学习组件获得这些合并实体的表示。
基于实体的表示,通过层表示学习得到偏好树中每个层的表示(层表示学习,它主要是由一个自注意力网络形成的)。
然后,我们结合所有的层表示,通过用户表示学习组件获得输入用户的最终潜在表示。
最后,我们基于输入用户和输入项目的潜在表示来预测CTR。
基于用户的表示u和项目的表示v,计算预测的CTR。
关于项目领域的KG补全,可作为顶级实体/关系推荐。本文采用基于翻译的嵌入模型(TransR)
Task-oriented Negative Sampling
创新点:
提出了一种面向任务的负采样策略,它不仅考虑实体的负采样,而且考虑关系的负采样。
CO-LEARNING MODEL FOR THE TWO TASKS
利用迁移学习模型将项目推荐任务和KG完成任务统一起来。推荐项目通常与书籍、电影和音乐等许多领域的知识图谱实体相对应,从而使推荐项目和知识图谱之间的信息迁移成为可能。
迁移学习的目的是在从源任务中迁移知识时实现目标任务的最佳性能。
MovieLens-1M
https://grouplens.org/datasets/movielens/1m/
Book-Crossing
本文重点研究了推荐任务与KG补全任务之间的知识迁移,提出了一种新的项目推荐&KG补全协同学习模型,称为RCoLM。对比于目前最先进的方法在知识感知推荐或KG补全,本文的方法主要特点是两步。首先,RCoLM考虑到了知识图谱的不完整性,和两个任务之间的知识迁移。通过将这两个任务统一到一个联合模型中,所提出的RCoLM能够成功地捕捉到两项任务的互补信息,以促进两项任务的相互增强。其次,RCoLM为KG补全提出了一种全面的负采样策略…扩大的负采样策略为RCOLM提供了一个更强的适应能力可以学习到准确的实体嵌入和关系嵌入,从而间接地提高项目推荐的性能