INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems

Abstract

本文是对FM的改进,FM无差别的对待每个特征交互的行为是不好的。所以本文提出了IFM,在feature方面和field方面加入柔性交互——feature方面用attention网络实现;field方面通过特征交互向量和相应场交互原型的参数相似性学习特征交互效果。并在两个知名数据集上进行了实验。

1、Introduction

(前面几乎是完整的介绍了一遍推荐模型的演变过程…)

提出FM两个缺陷:

  1. feature方面:无用特征的交互会引入噪声;平等地对待每个特征交互会降低性能。
  2. field方面:latent factor在不同的field交互时有不同的重要性。(例如一个latent factor表示手机质量,那其对手机品牌与地点的交互,要比对于性别和地点的交互更重要)

本文主要贡献:

  1. 本文首次将field信息融入到特征交互重要性学习中
  2. 提出的交互感知模型可以有效的学习特征重要性并且不需要特征工程
  3. IFM可以获知哪个特征在field层面上贡献更大
  4. 制定了一个采样方案以进一步提高IFM性能和效率
  5. 在两个数据集上得到了良好的结果

2、FM

恐怖如斯,竟然用一章内容介绍了一遍FM

3、Approach

在本节中,我们首先介绍交互感知机制(interaction-aware mechanism)。随后,我们详细介绍了提出的IFM。最后,我们提出了一个广义的interaction-aware模型及其神经网络专用版本。

3.1 Interaction-Aware Mechanism (IAM)

INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems_第1张图片
INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems_第2张图片

3.2Interaction-aware Factorization Machines (IFMs)

IFM的神经网络结构如下所示,由六层组成:
INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems_第3张图片
INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems_第4张图片

3.3Generalized Interaction-aware Model (GIM)

INN论文笔记:Interaction-awareFactorizationMachinesforRecommenderSystems_第5张图片

4.、实验

4.1 实验目的

回答以下问题:

  1. 与当前最先进的算法相比,IFM、INN表现如何?
  2. feature和field(带采样)是如何影响预测精度的?
  3. field-aware factor权重矩阵F是如何影响IFM性能的?
  4. IFM的超参数对其性能有何影响?

4.2 实验设置

使用两个真实数据集:MovieLens、Frappe。遵从了AFM的实验设置。

你可能感兴趣的:(#,Attention系列)