论文总结《Neural Collaborative Filtering(NCF)》

原文链接
Neural Collaborative Filtering(NCF)

Motivation

  1. 传统的矩阵分解通过latent features的内积来估计user与item的交互,而内积仅仅只能表示latent features的线性关系

contributions

  1. 引入MLP来替代latent features的内积,从而增加矩阵分解的非线性特征捕获能力
  2. 提出Neural matrix factorization model(NeuMF),即Linear Collaborative Filtering + Non-linear Collaborative Filtering

问题分析

传统矩阵分解的线性性质无法很好的捕获相似关系
论文中的MF的局限性的图可以很好解释为什么MF无法很好的捕获相似关系
论文总结《Neural Collaborative Filtering(NCF)》_第1张图片

可以看到,u4与u1最相似,其次是与u3,最后与u2,如果将其映射到二维的隐空间,那么应该有 c o s i n e ( u 4 , u 1 ) > c o s i n e ( u 4 , u 3 ) > c o s i n e ( u 4 , u 2 ) cosine(u_4, u_1) > cosine(u_4, u3) > cosine(u_4, u_2) cosine(u4,u1)>cosine(u4,u3)>cosine(u4,u2)
而如果u1,u2,u3在隐空间的向量如图所示,那么u4放哪都不是最合适的,这归因于MF的内积的线性性质

为了解决这个问题,论文提出利用MLP来捕获非线性性质

模型结构

论文总结《Neural Collaborative Filtering(NCF)》_第2张图片

模型图坐标的GMF Layer表示的是latent feature的element-wise product,即捕获latent features的线性性质
右图MLP Layers则表示利用MLP捕获latent features的非线性性质
最后GMF Layer与MLP Layer的结果进行concatenation后预测最终的结果

Loss Function

其将user与item的交互视为二元,即1表示交互,0表示没交互。因此论文将该问题视为二分类问题,因此利用的是二元交叉熵损失

EXPERIMENTS

数据集

MovieLens和Pinterest
论文总结《Neural Collaborative Filtering(NCF)》_第3张图片

为了防止测试的复杂度太大,其对每一个用户的负样本进行random sample出了100个,再从中做topk排序

不同Factors之间的效果对比

factors指模型结构中NeuMF Layer的维度
论文总结《Neural Collaborative Filtering(NCF)》_第4张图片

与baseline的对比

论文总结《Neural Collaborative Filtering(NCF)》_第5张图片

迭代次数损失metrics的变化以及负采样率不同时的metrics value

论文总结《Neural Collaborative Filtering(NCF)》_第6张图片

对GMF Layer和MLP Layer进行预训练和不预训练的对比

论文总结《Neural Collaborative Filtering(NCF)》_第7张图片

不同层数MLP的对比

论文总结《Neural Collaborative Filtering(NCF)》_第8张图片

思考

  1. 其只是考虑了user ID与item ID之间的关系,学习的是ID pair的分布,可以考虑加入user和item的上下文信息

你可能感兴趣的:(论文笔记和总结,论文笔记)