AAAI‘22 推荐系统论文梳理

2022推荐系统论文梳理系列

  • 推荐系统相关顶会整理
  • IJCAI'22 推荐系统论文梳理
  • ICML/ICLR'22 推荐系统论文梳理
  • WWW'22 推荐系统论文之序列推荐篇
  • WWW'22 推荐系统论文之多任务与对比学习篇
  • WWW'22 推荐系统论文之图神经网络篇
  • ACL/NAACL'22 推荐系统论文梳理
  • RecSys'22 推荐系统论文梳理
  • SIGIR'22 推荐系统论文之POI篇
  • SIGIR'22 推荐系统论文之序列推荐(长文)篇
  • SIGIR'22 推荐系统论文之序列推荐(短文)篇
  • SIGIR'22 推荐系统论文之对比学习篇
  • SIGIR'22 推荐系统论文之多样性篇
  • SIGIR'22 推荐系统论文之图网络篇
  • WSDM'22推荐系统论文梳理
  • AAAI'22推荐系统论文梳理 (本文)

概述

AAAI' 22已公布录用论文,接收1349篇/投稿9020篇,录用率为15.0% ,完整录用论文列表见

https://aaai.org/Conferences/AAAI-22/wp-content/uploads/2021/12/AAAI-22_Accepted_Paper_List_Main_Technical_Track.pdf

本文对其中推荐系统相关的15篇论文进行分类整理。按任务划分,主要包括冷启动、捆绑推荐、公平推荐、多任务、序列推荐、会话推荐等;按技术划分,主要包括元学习、图网络、对比学习、强化学习、知识蒸馏、度量学习、校准等。整体来看,AAAI在推荐系统领域的论文质量相对一般。

公众号后台回复“AAAI-2022-RecSys”,可获取AAAI‘22推荐系统论文PDF合辑。

论文解读

元学习

Meta-Learning for Online Update of Recommender Systems

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-2570.KimM.pdf

论文机构: 韩国科学技术院、NAVER AI Lab

论文分类: 元学习

论文总结: 在本文中,我们提出了 MeLON,这是一种基于元学习的高度灵活的在线推荐系统更新策略。 MeLON 为每个参数交互对自适应地提供学习率,以帮助推荐系统与最新的用户兴趣保持一致。 为此,MeLON 首先使用 GAT 和神经映射器表示用户-项目交互的含义和参数的作用;然后,自适应层利用这两种表示来确定最优学习率。 使用三个真实世界的在线服务数据集进行了广泛的实验,结果证实了 MeLON 的更高准确性,因为它具有在消融研究和理论分析中验证的双向灵活性。

AAAI‘22 推荐系统论文梳理_第1张图片

A Dynamic Meta-Learning Model for Time-Sensitive Cold-Start Recommendations

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-4600.NeupaneK.pdf

代码链接: GitHub - ritmininglab/A-Dynamic-Meta-Learning-Model-for-Time-Sensitive-Cold-Start-Recommendations: A novel dynamic recommendation model that focuses on users who have interactions in the past but turn relatively inactive recently

论文机构: 罗彻斯特理工学院

论文分类: 元学习、冷启动

论文总结: 在本文中,我们定义了一个新的时间敏感冷启动问题,并提出了一个动态推荐框架来解决其独特的挑战。 该框架将时间敏感的元学习模块与时间演化的循环模块集成在一起。 前者通过从当前推荐期间的交互信息中学习用户之间的全局知识来处理用户冷启动问题。 该模块与捕获用户逐渐转变的偏好的时间演化循环模块联合优化。 使用两个模块的输出生成合并的用户表示,并与项目嵌入交互以提供最终推荐。 真实世界动态数据集的实验结果以及与最先进模型的比较清楚地证明了所提出模型的性能优势。

AAAI‘22 推荐系统论文梳理_第2张图片

Leaping through Time with Gradient-Based Adaptation for Recommendation

论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/20562/20321

代码链接: https://github.com/nutcrtnk/leaprec (当前为空)

论文机构: 东京工业大学、日本产业技术研究院

论文分类: 元学习、时间动态

论文总结: 现代推荐系统需要适应用户偏好和项目流行度的变化。这样的问题被称为时间动态问题,它是推荐系统建模的主要挑战之一。与流行的循环建模方法不同,我们通过使用基于轨迹的元学习来建模时间依赖性,针对时间动态问题提出了一种名为 LeapRec 的新解决方案。 LeapRec 通过称为全局时间跳跃 (GTL,global time leap) 和有序时间跳跃 (OTL,ordered time leap) 的两个补充组件来表征时间动态。通过设计,GTL 通过在无序时间数据中找到最短的学习路径来学习长期模式。通过合作,OTL 通过考虑时间数据的顺序性来学习短期模式。我们的实验结果表明,LeapRec 在多个数据集和推荐指标上始终优于最先进的方法。此外,我们对 GTL 和 OTL 之间的相互作用进行了实证研究,显示了长期和短期建模的影响。

图网络

Low-Pass Graph Convolutional Network for Recommendation

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-3643.WenhuiY.pdf

论文机构: 阿里、清华

论文分类: 图网络

论文总结: 谱图卷积对于大型图非常耗时,因此现有的图卷积网络 (GCN) 通过多项式重建内核,该多项式(几乎)是固定的。 为了通过学习内核从图形数据中提取特征,提出了低通协同滤波器网络(LCFN)作为具有可训练内核的新范式。 但是,LCFN 有两个缺点:(1)LCFN 中的超图是通过挖掘用户-项目二部图的 2 跳连接构建的,因此没有使用 1 跳连接,导致信息丢失严重。 (2) LCFN 遵循 GCNs 的一般网络结构,因此结构是次优的。 为了解决这些问题,我们利用二部图直接定义图空间,对于问题(1),我们设计一维低通图卷积直接利用一跳连接; 对于问题(2),我们设计了实验来探索所提出模型的最佳结构。 对两个真实世界数据集的综合实验证明了所提出模型的有效性。

Multi-View Intent Disentangle Graph Networks for Bundle Recommendation

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-4879.ZhaoS.pdf

论文机构: 华科、北理工

论文分类: 图网络、捆绑推荐、对比学习

论文总结: 捆绑推荐旨在向用户推荐一个整体的捆绑商品组合。以前的模型捕获用户对商品和商品关系的偏好。然而,他们通常忽略了用户对物品意图的多样性,并且未能在表示中解耦用户的意图。在捆绑推荐的真实场景中,一个用户的意图可能自然地分布在该用户的不同bundle中(全局视图),而一个bundle可能包含一个用户的多个意图(本地视图)。每个视图在意图解耦方面都有其优势:1)从全局来看,每个意图都涉及到更多的商品,可以更清楚地展示用户在每个意图下的偏好。 2)从局部来看,它可以揭示每个意图下的商品之间的关联,因为同一捆绑中的商品彼此高度相关。

AAAI‘22 推荐系统论文梳理_第3张图片

为此,我们提出了一种名为多视图意图解耦图网络(MIDGN,Multi-view Intent Disentangle Graph Networks)的新模型,该模型能够以更精细的粒度精确、全面地捕获用户意图和商品关联的多样性。具体来说,MIDGN 分别从两个不同的角度解耦用户意图:1)在全局层面,MIDGN 解耦用户意图与捆绑商品间的耦合; 2)在本地级别,MIDGN 将用户的意图与每个bundle中的商品相结合。同时,我们在对比学习框架下比较用户从不同视图中解耦出来的意图,以改进学习到的意图。MIDGN框架包含四个模块: (a) 图解耦模块,分别在全局和局部视图下解耦与用户意图耦合的用户-项目和捆绑-项目交互; (b) 跨视图传播模块,在不同视图下传播与用户意图耦合的协作信号; (c) 意图对比模块,以鼓励用户在不同视图下的意图的相关性和预测模块。在两个基准数据集上进行的大量实验表明,MIDGN 的性能分别优于最先进的方法 10.7% 和 26.8%。

强化学习

Online Certification of Preference-Based Fairness for Personalized Recommender Systems

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-3798.DoV.pdf

论文机构: 巴黎第九大学、Facebook

论文分类: 强化学习 (Bandit)、公平推荐

论文总结: 我们对无嫉妒推荐系统提供了一种新颖的形式分析,包括与现有的项目侧公平标准的比较和标准的概率放宽。 我们将无嫉妒审查问题视为具有保守探索约束的老虎机中的一个新的纯探索问题,并提出了一种样本有效的审查算法,该算法可证明在整个审查过程中保持性能接近审查系统。

Modeling Attrition in Recommender Systems with Departing Bandits

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-4174.Ben-PoratO.pdf

论文机构: 以色列特拉维夫大学、CMU、谷歌

论文分类: 强化学习 (Bandit)

论文总结: 传统而言,当推荐系统被形式化为多臂老虎机时,推荐系统的策略会影响累积的奖励,但不会影响交互的长度。然而,在现实世界的系统中,不满意的用户可能会离开(并且永远不会回来)。在这项工作中,我们提出了一种新颖的多臂老虎机设置,可以捕获这种依赖于策略的视野。我们的设置由一组有限的用户类型和具有伯努利收益的多个臂组成。每个(用户类型,手臂)元组对应一个(未知)奖励概率。每个用户的类型最初都是未知的,只能通过他们对推荐的响应来推断。此外,如果用户对他们的推荐不满意,他们可能会离开系统。我们首先解决所有用户共享相同类型的情况,证明最近基于 UCB 的算法是最优的。然后我们转向更具挑战性的案例,其中用户分为两种类型。虽然简单的方法无法处理此设置,但我们提供了一种高效的学习算法,可以实现 ̃O(√T) 遗憾,其中 T 是用户数。

Context Uncertainty in Contextual Bandits with Applications to Recommender Systems

论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/20831/20590

论文机构: 亚马逊、罗格斯大学

论文分类: 强化学习 (Bandit)

论文总结: 循环神经网络已被证明在为推荐系统建模序列用户反馈方面是有效的。 然而,他们通常只关注项目相关性,无法有效地为用户探索多样化的项目,因此从长远来看会损害系统性能。 为了解决这个问题,我们提出了一种称为循环探索网络(REN,recurrent exploration networks)的新型循环神经网络,以在潜在空间中联合执行表示学习和有效探索。 REN 试图平衡相关性和探索性,同时考虑到表示中的不确定性。 我们的理论分析表明,即使在学习表示中存在不确定性时,REN 也可以保持速率最优的次线性遗憾。 我们的实证研究表明,REN 可以在合成和真实世界的推荐数据集上获得令人满意的长期回报,优于最先进的模型。

Learning the Optimal Recommendation from Explorative Users

论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/21178/20927

论文机构: 弗吉尼亚大学、

论文分类: 强化学习 (Bandit)

论文总结: 我们提出了一个新的问题设置来研究推荐系统和用户之间的顺序交互。我们没有像经典实践那样假设用户是无所不知的、静态的和明确的,而是描绘了一个更现实的用户行为模型,在该模型下,用户:1)如果推荐明显比其他推荐更差,则拒绝推荐; 2)根据她接受的推荐的奖励更新她的效用估计; 3) 从系统中扣留已实现的奖励。我们在 K-armed bandit 框架中制定了系统与这种探索性用户之间的交互,并研究了在系统端学习最优推荐的问题。我们表明,有效的系统学习仍然是可能的,但更加困难。特别是,系统可以在 O(1/δ) 相互作用中以至少 1 -δ 的概率识别最佳臂,我们证明这是紧密的。我们的发现对比了具有固定置信度的最佳臂识别问题的结果,其中最佳臂可以在 O(log(1/δ)) 交互作用内以概率 1 -δ 被识别。这一差距说明了当系统从探索性用户对其推荐的揭示偏好而不是从已实现的奖励中学习时,系统必须支付不可避免的成本。

Offline Interactive Recommendation with Natural-Language Feedback

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-10857.ZhangR.pdf

论文机构: 杜克大学、三星研究院

论文分类: 强化学习

论文总结: 具有自然语言反馈的交互式推荐可以提供更丰富的用户反馈,并且已经证明了优于传统推荐系统的优势。 然而,经典的在线范式涉及通过与用户的交互来迭代地收集经验,这是昂贵且有风险的。 我们考虑离线交互式推荐来利用由多个未知策略收集的任意经验。 具有这种固定经验的策略学习的直接应用会受到分布转变的影响。 为了解决这个问题,我们开发了一个离策略 (off-policy)校正框架,使离线训练成为可能。 具体来说,我们利用对抗性训练来执行离策略评估,这使得无需进一步交互就可以从固定数据集中学习有效的策略。 真实世界数据集的实证结果证明了我们提出的离线训练框架的有效性

冷启动

A Dynamic Meta-Learning Model for Time-Sensitive Cold-Start Recommendations

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-4600.NeupaneK.pdf

代码链接: https://github.com/ritmininglab/A-Dynamic-Meta-Learning-Model-for-Time-Sensitive-Cold-Start-Recommendations

论文机构: 罗彻斯特理工学院

论文分类: 元学习、冷启动

论文总结: 在本文中,我们定义了一个新的时间敏感冷启动问题,并提出了一个动态推荐框架来解决其独特的挑战。 该框架将时间敏感的元学习模块与时间演化的循环模块集成在一起。 前者通过从当前推荐期间的交互信息中学习用户之间的全局知识来处理用户冷启动问题。 该模块与捕获用户逐渐转变的偏好的时间演化循环模块联合优化。 使用两个模块的输出生成合并的用户表示,并与项目嵌入交互以提供最终推荐。 真实世界动态数据集的实验结果以及与最先进模型的比较清楚地证明了所提出模型的性能优势。

SMINet: State-Aware Multi-Aspect Interests Representation Network for Cold-Start Users Recommendation

论文链接: https://ojs.aaai.org/index.php/AAAI/article/view/20824/20583

代码链接: GitHub - wanjietao/Fliggy-SMINet-AAAI2022 (当前为空)

论文机构: 阿里、杭电

论文分类: 冷启动

论文总结: 在线旅游平台(OTP),例如bookings.com和携程,通过提供旅游相关产品向在线用户提供旅游体验。尽管已经取得了很大进展,但冷启动问题的最新技术对于用户表示来说在很大程度上是次优的,因为它们没有考虑到用户旅行行为所表现出的独特特征。

AAAI‘22 推荐系统论文梳理_第4张图片

在这项工作中,我们提出了一个状态感知多方面兴趣表示网络 (SMINet,State-aware Multi-aspect Interests representation Network),用于在 OTP 上进行冷启动用户推荐,该网络由多方面兴趣提取器、共同注意层和状态感知门控层组成。该模型的关键组件是多方面兴趣提取器,它能够为用户的多方面兴趣提取表示。此外,为了了解当前会话中的用户行为与上述多方面兴趣之间的交互,我们精心设计了一个共同注意层,允许两个模块之间的交叉注意。此外,我们提出了一个旅行状态感知门控层来仔细选择多方面的兴趣。通过融合这三个组件获得最终的用户表示。与最先进的方法相比,离线和在线进行的综合实验证明了所提出的模型在用户表示方面的优越性能,特别是对于冷启动用户。

知识蒸馏

Cross-Task Knowledge Distillation in Multi-Task Recommendation

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-5967.YangC.pdf

论文机构: 上交、腾讯

论文分类: 知识蒸馏、多任务

论文总结: 在本文中,我们提出了一种用于多任务推荐的跨任务知识蒸馏框架。 首先,基于增强排序的任务旨在捕获细粒度的排序知识,这可以避免信息冲突,以缓解负迁移问题,并为后续的知识提炼做准备。 其次,采用校准的知识蒸馏将知识从增强任务(教师)转移到原始任务(学生)。 第三,提出了一种附加的纠错方法,以加快同步训练过程中的收敛速度,提高知识质量。 CrossDistil 可以整合到大多数现成的多任务学习模型中,并且易于扩展或修改用于在线广告等工业应用。 CrossDistil 的核心思想可以激发一种新的范式,用于解决特定领域的任务冲突问题,并在更广泛的数据挖掘领域增强知识转移。

AAAI‘22 推荐系统论文梳理_第5张图片

序列推荐

DiPS: Differentiable Policy for Sketching in Recommender Systems

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-2669.GhoshA.pdf

代码链接: https://github.com/arghosh/DiPS (实际无repo)

论文机构: 马萨诸塞大学阿默斯特分校、Adobe研究院

论文分类: 序列推荐

论文总结: 在序列推荐系统应用程序中,重要的是开发能够捕捉用户随时间变化的兴趣的模型,以成功推荐他们可能与之交互的未来项目。对于历史悠久的用户,基于循环神经网络的典型模型往往会忘记遥远过去的重要项目。最近的工作表明,存储过去项目的草图可以改进序列推荐任务。然而,这些作品都依赖于静态草图策略,即启发式方法来选择要保留在草图中的项目,这不一定是最优的,并且随着时间的推移无法随着更多的训练数据而改进。在本文中,我们提出了一种可微分的草图策略 (DiPS,differentiable policy for sketching),该框架以端到端的方式与推荐系统模型一起学习数据驱动的草图策略,以在未来显式地最大化推荐质量。我们还提出了一种梯度的近似估计器,用于优化计算效率高的草图算法参数。我们在各种实际设置下验证了 DiPS 在真实世界数据集上的有效性,并表明与现有的草图策略相比,它采用少 50% 的草图项目就可以达到相同的预测质量。

会话推荐

FPAdaMetric: False-Positive-Aware Adaptive Metric Learning for Session-Based Recommendation

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-6975.JeongJ.pdf

代码链接: https://github.com/jongwonJeong/FPAdaMetric (当前为空)

论文机构: NCSOFT、NAVER、亚洲大学

论文分类: 度量学习、会话推荐

论文总结: 现代推荐系统主要基于隐式反馈数据,由于许多原因(例如误点击或快速好奇心)引起的误报(FP),这些数据可能会非常嘈杂。许多基于协同过滤的推荐算法利用点击后的用户行为(例如,跳过)来识别误报。他们有效地将这些误报作为负面信号纳入模型监督。然而,在现有的基于会话的推荐系统 (SBR) 中并未考虑误报,尽管它们提供了同样有害的影响。

AAAI‘22 推荐系统论文梳理_第6张图片

为了解决会话推荐中的误报,我们首先引入了 FP-Metric 模型,该模型将具有 FP 约束的基于会话的推荐的目标重新表述为度量学习正则化。此外,我们提出了 FP-AdaMetric,它通过一个自适应模块来增强度量学习正则化项,该模块精心计算 FP 在顺序模式中的影响。我们验证了 FP-AdaMetric 在音乐、电影和游戏等不同领域的数据集上提高了几个基于会话的推荐模型在命中率 (HR)、MRR 和 NDCG 方面的性能。此外,我们表明自适应模块在 FP-AdaMetric 模型中比在其他基线中发挥更重要的作用。

校准

Obtaining Calibrated Probabilities with Personalized Ranking Models

论文链接: https://www.aaai.org/AAAI22Papers/AAAI-5085.KweonW.pdf

代码链接: GitHub - WonbinKweon/CalibratedRankingModels_AAAI2022

论文机构: 浦项科技大学

论文分类: 校准

论文总结: 对于个性化排序模型,经过良好校准的项目被用户偏好的概率具有很大的实用价值。虽然现有的工作在图像分类方面显示出有希望的结果,但概率校准对于个性化排序的探索还不够。在本文中,我们旨在估计用户喜欢某项商品的可能性的校准概率。我们研究了各种参数分布,并提出了两种参数校准方法,即高斯校准和伽马校准。每个提出的方法都可以看作是一个后处理函数,它将预训练模型的排名分数映射到经过良好校准的偏好概率,而不影响推荐性能。我们还设计了无偏的经验风险最小化框架,该框架指导校准方法从有偏的用户-项目交互数据集中学习真实偏好概率。在现实世界数据集上使用各种个性化排名模型进行的广泛评估表明,所提出的校准方法和无偏的经验风险最小化都显着提高了校准性能。

你可能感兴趣的:(推荐算法,人工智能,深度学习,机器学习,推荐算法)