文章名称
Bias and Debias in Recommender System: A Survey and Future Directions
核心要点
上一节中,我们介绍一下如何在具有selection bias的数据上进行模型的训练,减缓具有selection bias的数据对模型效果的影响。今天我们介绍一下Conformity Bias和Exposure Bias的解决办法。
方法细节
问题引入
如前所述,Conformity Bias的问题主要出现在用户受到他人评分的影响致使最终评分偏离其实际偏好的情况。Exposure Bias经常出现在物品比较长尾,用户没有感知到某些物品的存在的场景。这个时候,没有反馈,不一定是不喜欢,只是因为没有看到。
具体做法
Conformity Bias
现有的解决Conformity Bias的方法可以分为两类,
-
第一类认为用户的评分会与大众评分趋同,[1]提出建模的时候考虑三个变量,表示用户评分前有多少用户对这个物品进行过打分(也就是之前的评分频度),表示用户对这个物品打分的平均值,表示用户对这个物品打分的分布,并且最终用下图所示的方法利用XGB进行预测,具体参见[1]。其中,用来控制Conformity Bias的调节力度,是用基础模型预测的,用户对该物品评分的预测值。这种方式实际上是把其他评分对用户的影响加入到最后的模型调整步骤中,算是对模型的某种矫正。
第二类从把用户评分看做是用户偏好和其社会影响力共同作用的结果,比如说社会影响力小的会受到和会影响力大的用户的评分的影响,具体方法文中没有做过多介绍,具体做法可以参见[2], [3], [4], [5]。本质上和第一种方法是类似的,都是通过某种影响因子调整用户的评分,只是影响因子的估算方法有些差别。(这里留个坑,有时间讲讲细节...)
Exposure Bias
Exposure Bias同Selection Bias一样,同时出现在模型评估和模型训练两个阶段,我们首先来看一下模型评估阶段。
进行隐式反馈模型评估的方法,通常采用AUC,DCG@k,Recall@k等指标,同Selection BIas一样,由于观测分布并非理论分布的随机采样。因此,需要进行观测分布的调整。常用的方法仍然是IPS,[6]首先提出如下图所示的理论评估基准,其中是模型估计的用户偏好的物品排序,是用户在所有商品中会喜欢的商品集合,而表示某种评价函数。具体的评价函数如下图所示。
然而,由于Exposure Bias的存在,只有用户喜欢的物品中,只有部分物品被展示给用户,造成隐式反馈存在偏差。其中, 表示被曝光给用户 的并且他/她喜欢的物品的集合, 是一个二值标量,表示物品是否被观测到。
因此,[6]提出用IPS进行调权,调权方法如下图所示。经过调整后的评估指标,对经常被观测到的样本进行降权,而对不见经常观测到的物品进行提权,确保指标是理论分布的随机采样的结果,即消除Exposure Bias的影响。
心得体会
Exposure Bias
曝光偏差有点类似PU的情况,没有被曝光的物品是没有标签的。我们需要假设这些物品被曝光后,会是什么样的结果。和PU场景不相似的地方是,P一定代表positive,但是这里的“P”其实是代表这个user-item对被观测到了反馈,可能是正反馈,也可能是负反馈。
文章引用
[1] Y. Liu, X. Cao, and Y. Yu, “Are you influenced by others when rating?: Improve rating prediction by conformity modeling,” in RecSys. ACM, 2016, pp. 269–272.
[2] H. Ma, I. King, and M. R. Lyu, “Learning to recommend with social trust ensemble,” in SIGIR. ACM, 2009, pp. 203–210.
[3] J. Tang, H. Gao, and H. Liu, “mtrust: discerning multi-faceted trust in a connected world,” in WSDM. ACM, 2012, pp. 93–102.
[4] A. J. Chaney, D. M. Blei, and T. Eliassi-Rad, “A probabilistic model for using social networks in personalized item recommendation,” in RecSys. ACM, 2015, pp. 43–50.
[5] X. Wang, S. C. Hoi, M. Ester, J. Bu, and C. Chen, “Learning personalized preference of strong and weak ties for social recommendation,” in WWW. IW3C2, 2017, pp. 1601–1610.
[6] L. Yang, Y. Cui, Y. Xuan, C. Wang, S. Belongie, and D. Estrin, “Unbiased offline recommender evaluation for missing-not-atrandom implicit feedback,” in RecSys, 2018, pp. 279–287.