2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer

个人认为本文的思想很好,要将个性化引入到Transformer中*(NLP的各种技术在我看来其目的是明确的,一句话是什么意思就是什么意思,所以只考虑这一句话中的word即可,但是对于RS来说,同样item id的序列对于不同的user id也是不一样的,不能单纯的以 item id序列来表示一个user)*;本文主要的点有:

  • 序列中 user emb和item emb进行拼接的表示
  • 如何使用SSE

1 INTRODUCTION

SASRec使用标准的Transformer,本质上是一个非个性化的模型。SASRec指出增加了user emb之后效果会下降,本文认为是其已经使用了user的history items,user emb只会导致过拟合。本文提出了个性化Transformer,SSE-PT,将个性化引入了自注意网络。

3 METHODOLOGY

3.1 序列推荐

在这里插入图片描述

3.2 个性化Transformer架构

2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第1张图片
2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第2张图片
2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第3张图片

3.3 处理长序列:SSE-PT++

2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第4张图片

4 EXPERIMENTS

2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第5张图片
2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第6张图片
注意力机制可视化
2020-RecSys-SSE-PT: Sequential Recommendation Via Personalized Transformer_第7张图片一个用户早期看各种类型;随后只看戏剧和恐怖片;最近常看戏剧

  • SASRec推荐出来的种类更多,倾向于所有的item
  • SSE-PT推荐出来的更倾向于最近的item

你可能感兴趣的:(推荐系统,推荐系统)