2020paper2:Graph Convolutional Matrix Completion

Graph Convolutional Matrix Completion

1、研究背景

推荐系统的一个子任务就是矩阵补全。文中把矩阵补全视作在图上的链路预测问题:users和items的交互数据可以通过一个在user和item节点之间的二分图来表示,其中观测到的评分/购买用links来表示。因此,预测评分就相当于预测在这个user-item二分图中的links。据此,作者提出了一个图卷积矩阵补全(GCMC)框架:在用深度学习处理图结构的数据的研究进展的基础上,对矩阵进行补全的一种图自编码器框架。这个自编码器通过在二部交互图中信息传递的形式生成user和item之间的隐含特征。这种user和item之间的隐含表示用于通过一个双线性的解码器重建评分links。当推荐图中带有结构化的外部信息(如社交网络)时,将矩阵补全作为二部图上的链接预测任务的好处就变得尤为明显。将这些外部信息与交互数据相结合可以缓解与冷启动问题相关的性能瓶颈。实验证明了作者提出的的图自编码器模型能够有效地将交互数据与side information结合起来。

2、研究目标

将在矩阵补全作为二部图中一种连接预测

(1)符号定义

2020paper2:Graph Convolutional Matrix Completion_第1张图片
模型说明

(2)graph auto-encoders 图自编码器

背景:先前的推荐系统的基于图的方法通常采用多级pipline(此论文有介绍:Recommendation as link prediction in bipartite graphs: A graph kernel-based machine learning approach),其中包括图特征提取模型和链接预测模型,所有这些都分别进行训练。 然而,通过使用端到端学习技术对图结构数据进行建模,通常可以显着改善结果,特别是使用图自动编码器用于在无向图上进行无监督学习和链接预测。

图自编码是一种端到端的学习技术不需要分级,分两种一种只有一个打分0-1和多种打分的类型。

2020paper2:Graph Convolutional Matrix Completion_第2张图片
图自编码器说明
自编码过程

图自编码,包括item到user和user到item的双向,双线性解码解码。

(3)Graph convolutional encoder 图卷积编码器

图卷积自编码

哪里体现的图卷积???

首先,图卷积是输入一张图,经过一层层地特征抽取(发射、接收)和变换,最终输出一张图。

然后,图卷积类似CNN都是特征提取器,但是对象是图数据。

链路预测和损失定义

模型训练:

1、损失函数

softmax交叉熵

2、节点dropout  node-dropout

3、批量训练 Mini-batching

4、向量化 Vectorized implementation

2020paper2:Graph Convolutional Matrix Completion_第3张图片
向量化

参考文献
1、GCMC - Graph Convolutional Matrix Completion 图卷积矩阵补全 KDD 2018

https://blog.csdn.net/yyl424525/article/details/102747805

2、Graph Convolutional Matrix Completion论文重点

https://pdfs.semanticscholar.org/c509/de93b3d34ecd178f598814bd5177a0a29726.pdf

3、Graph Convolutional Matrix Completion论文原文

https://www.kdd.org/kdd2018/files/deep-learning-day/DLDay18_paper_32.pdf

小tips:cnn和gcn的异同


图示


文述

你可能感兴趣的:(2020paper2:Graph Convolutional Matrix Completion)