推荐系统公平性论文阅读(六)

做为最后一篇论文阅读记录,我决定对我目前为止粗读和精读的论文进行一次总结,然后陈述一些个人对该研究领域的见解和想法。

论文总结归纳

推荐系统中的偏差和不公平现象是随着推荐算法的诞生就与生俱来的,而不是人为故意产生的。目前我读过的论文中包括的一些典型的偏差和其主要的解决方案如下:

(1) 人口平等(Demographic parity)

描述 用户不应因为自身的性别、年龄、种族等特征而接收到不同的推荐结果。追求这种公平性显然会影响推荐系统的准确度,但在诸如工作信息推荐之类的场景中有一定必要。解决方案 使用对抗学习去除用户embeddings向量中的敏感信息[1] 。或者更近一步,通过正交性正则化使有偏差用户向量尽量正交于无偏差用户向量,从而使两者区分开来 [2]

(2) 位置偏差(Position bias)

描述 即马太效应。ranking中的每个对象受到的关注会受到展现位置的影响,位置靠前的物品比位置靠后的物品更容易被用户注意到,也更容易获得点击,从而使模型对用户偏好的感知出现偏差,预估CTR不准,并进一步通过反馈循环(feedback loop)放大。解决方案 可以将其转换为一个以排序质量做为约束条件的整数线性规划(ILP)问题求解 [3]

(3) 选择偏差(Selection bias)

描述 选择偏差主要来自用户的显式反馈,如对物品的评分。由于用户倾向于对自己感兴趣的物品打分,很少对自己很少对自己不感兴趣的物品打分,造成了数据非随机缺失(Missing Not At Random, MNAR)问题,观察到的评分并不是所有评分的代表性样本,于是产生了选择偏差。解决方案 可以采用因果推断的角度,利用逆倾向分数(Inverse Propensity Score, IPS)对观察数据进行加权,构建一个对理想评测指标的无偏估计器(倾向分数可以看作是每个数据被观察到的概率)[3]

(4) 曝光偏差(Exposure bias)

描述 曝光偏差主要来自用户的隐式反馈,如点击。用户只能看到一部分系统曝光的物品,并作出点击等反应。但是数据中不包含的交互并不一定代表用户不喜欢,还有可能是用户不知道该物品。解决方案 同样可以采用因果推断的角度,给用户曝光商品可以看做给病人施加药物,只知道少数病人(用户)对少数治疗方式(物品)的反应。我们同样可以基于倾向分数方法,构建无偏估计器[4]

(5) 流行度偏差(Popularity bias)

描述 被推荐物品的全局热度会影响其排序,导致推荐系统可能向用户推荐最热门而非最相关的物品。这样对不流行物品的不公平,不流行物品可以类比为新开的店铺,所卖物品也许质量很好,却迟迟得不到推荐系统的推荐,让店家不得不选择别的平台。解决方案 可以采用基于正则化的内处理(In-processing)方法,采用用户-物品对的预测分数和物品对应的流行度之间的皮尔逊相关系数作为正则项,通过最小化正则项和推荐误差来消除偏差。[5]也可以采取因果推断的角度,分析得出物品流行度是曝光物品和交互之间的一个混淆因子(Confounder),因此要消除流行度对物品曝光度的影响,但是须保留流行度对交互(捕获用户的从众心理)的影响,即利用流行度偏差[6]

个人看法

在推荐系统中,由于用户行为数据是观察所得(Observational)而不是实验所得(Experimental)[3],因此会存在各种偏差,如用户对物品的选择偏差、系统对物品的曝光偏差等,直接拿模型拟合数据而忽视偏差会导致性能欠佳,在一定程度上也损害了用户对推荐系统的体验和信任,因此,去除推荐系统偏差已经成为推荐系统领域研究的一个新方向。
然而, 目前学术界采用的去除偏差的方法中,大多数还是在原有机器学习算法上进行一定修改,通过修改目标函数、添加优化算法约束、添加正则项等手段来达到去除偏差的目的。根据图灵奖得主Judea Pearl的看法,单纯依靠传统的基于数据拟合的机器学习方式,而忽略数据的生成过程,就很难把握数据中蕴含的内在逻辑,常常产生诸如“辛普森悖论”这样的统计学上的经典问题[7]。目前大多数推荐系统去偏方法都是基于黑盒模型来去偏,或者以最优化算法约束条件的形式对模型参数进行限制,难以挖掘数据的生成过程,从而从根本上去除偏差。
而随着近些年因果推断(Causal Inference)的兴起,倾向分数(Propensity Score)、反事实(Counterfactual)思想以及去除混淆因子(Confounder)等手段在此领域也得到越来越多的重视,为推荐系统去偏提供了一些思路。目前该领域的研究思路可以归纳为:基于理想的目标函数和相关假设提出无偏的估计,并且采用相关技术在理想目标和无偏估计之间建立联系以实现去偏的目的,同时在全模拟数据集、半合成数据集和真实数据集上进行实验进一步验证方法的有效性。因果推断技术在推荐系统去偏上得到了广泛应用,也标志着推荐系统可解释性得到重视,这标志着着人们在设计模型时,从只考虑提高推荐效果的“黑盒”,到逐渐重视数据的解释和模型内在机理的体现,而这往往需要结合具体的应用场景进行分析和推理。
尽管推荐系统去偏已经取得很大进步,但是有些问题值得进一步研究:提出合适的基准数据集和标准的评价指标来更好地评估推荐系统的无偏性;真实世界中偏差通常是动态的而不是静态的,探究偏差的演变和动态偏差对推荐系统的影响具有一定的研究价值;设计更好地策略(如采用因果推断)来平衡许多推荐场景下的公平性和推荐准确性也是值得研究的方向。其中,因果推断在整个人工智能领域的重要性逐渐得到重视,而其揭示数据生成过程、规避数据相关性陷阱的特性与推荐系统的去偏恰恰一拍即合。个人认为,基于因果推断的推荐系统去偏是一个大有可为的方向,而目前因果推断在该领域的研究才刚刚起步,有很大的探索空间。个人打算之后继续在这个方向深入研究,并做为毕业设计的选题。

参考文献

  • [1] Wu L, Chen L, Shao P, et al. Learning Fair Representations for Recommendation: A Graph-based Perspective[C]//Proceedings of the Web Conference 2021. 2021: 2198-2208.
  • [2] Wu C, Wu F, Wang X, et al. Fairness-aware News Recommendation with Decomposed Adversarial Learning[C]//Proceedings of the AAAI Conference on Artificial Intelligence. 2021, 35(5): 4462-4469.
  • [3] Schnabel T, Swaminathan A, Singh A, et al. Recommendations as treatments: Debiasing learning and evaluation[C]//international conference on machine learning. PMLR, 2016: 1670-1679.
  • [4] Saito Y, Yaginuma S, Nishino Y, et al. Unbiased recommender learning from missing-not-at-random implicit feedback[C]//Proceedings of the 13th International Conference on Web Search and Data Mining. 2020: 501-509.
  • [5] Zhu Z, He Y, Zhao X, et al. Popularity-Opportunity Bias in Collaborative Filtering[C]//Proceedings of the 14th ACM International Conference on Web Search and Data Mining. 2021: 85-93.
  • [6] Zhang Y, Feng F, He X, et al. Causal Intervention for Leveraging Popularity Bias in Recommendation[J]. arXiv preprint arXiv:2105.06067, 2021.
  • [7] Pearl J. Causality[M]. Cambridge university press, 2009.

你可能感兴趣的:(机器学习,人工智能,深度学习,大数据,python)