review for RepeatNet: A Repeat Aware Neural Recommendation Machine for Session-based Recommendation

review for RepeatNet: A Repeat Aware Neural Recommendation Machine for Session-based Recommendation

  • 简介
  • 主要贡献/创新点
  • 背景
  • Model
    • Session encoder
    • Repeat-explore mechanism
    • repeat recommendation decoder
    • explore recommendation decoder
    • objective function
  • 实验
  • 展望

简介

本文作者是Jing Li 等人,发表于AAAI 2019,代码地址

主要贡献/创新点

  • 考虑了重复消费现象
  • 提出了 repeat-explore mechanism 双解码器,以自动学习重复和探索模式之间的切换概率

背景

重复消费的行为在生活中是普遍存在的,然而之前的模型并没有很好地考虑这个问题。主要区别在于该论文第一个提出神经推荐模型以明确强调传统和基于会话的推荐任务中的重复消费。

Model

在这里插入图片描述
如图1所示,RepeatNet由四个主要组件组成,一个会话编码器,一个重复探索机制,一个重复推荐解码器和一个探索推荐解码器。 会话编码器将给定会话 Is编码为潜在表示H = {h1,h2 ,,hτ,ht},其中ht表示时间戳t处的会话表示。 重复探索机制将H作为输入并预测执行重复模式或探索模式的概率,对应于方程式中的P(r | Is)和P(e | Is)。 重复推荐编码器将H作为输入并预测 Is中的点击项目的重复推荐概率,对应于方程式中的 P(it+1 | r,Is)。 探索推荐编码器将H作为输入并预测探索推荐I-Is中未被点击的项目概率,其中I指的是所有项目,对应于方程式中的P(it+1| e,Is)。
在这里插入图片描述
r和e分别表示重复模式和探索模式。P(r | Is)和P(e | Is)分别表示在重复模式和探索模式中执行的概率, P(it+1 | r,Is)和P(it+1| e,Is)是指在给定Is时分别在重复模式和探索模式下推荐it+1的概率。

Session encoder

使用GRU进行会话的encode,不再赘述。

Repeat-explore mechanism

使用注意力机制去得到Is固定长度的表示向量,具体来说,我们首先使用最后隐藏状态ht来匹配每个编码器隐藏状态hτ∈H以获得重要性得分:
在这里插入图片描述
vre, Wre, and Ure are parameters.
然后将重要性分数归一化以获得Is的上下文向量作为等式5中的加权和:
在这里插入图片描述
然后采用softmax将cre IS转换为模式概率分布,分别对应P(r | Is)和P(e | Is):
在这里插入图片描述
W cre is the weight matrix

repeat recommendation decoder

在这里插入图片描述
vr,Wr和Ur是参数; 在这里插入图片描述表示项目i∈IS的所有出现的总和,因为相同的项目可能在IS的不同位置多次出现。

explore recommendation decoder

在这里插入图片描述
公式9和Repeat-explore mechanism 的前几个公式很相似,然后我们将最后隐藏状态和注意状态组合成IS的混合表示cIS:
在这里插入图片描述
最后:
在这里插入图片描述
(这里分母我没有很明白,大家若看懂请评论)

objective function

见论文

实验

  • 数据集:
    Yoochoose from the RecSys’15 Challenge 链接
    Diginetica dataset coming from the CIKM Cup 2016 链接
    Lastfm
  • 结果:
    在这里插入图片描述

展望

RepeatNet可以在多个方向上进行推进和扩展。 首先,可以结合人们的先验知识来影响重复探索机制。 其次,可以考虑更多信息(例如,元数据,文本)和更多因素(例如,协同过滤)以进一步改善性能。 此外,RepeatNet的变体可以应用于其他推荐任务,例如基于内容的推荐。

你可能感兴趣的:(paper,review)