论文笔记:Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion(KDD2020)

两个问题:

  1. 会话数据本身缺乏足够的语境信息,无法准确理解用户的偏好;
  2. 自然语言表达与item级用户偏好之间存在语义差距。

本文提出的解决办法:
结合面向词和面向实体的知识图(KG)来增强CRSs中的数据表示,并采用互信息最大化(Mutual Information Maximization)来对齐词级和实体级语义空间

步骤:
首先使用图神经网络分别学习两个kg上的节点嵌入,然后提出使用互信息最大化方法来弥合两个kg之间的语义鸿沟。其核心思想是:强行拉近将两个KG中在对话中一起出现的word-item的节点表示

其他组件:
基于对齐的语义表示,我们进一步开发了一个kg增强的推荐组件,用于做出准确的推荐,以及一个kg增强的对话组件,可以在响应文本中生成有信息的关键字或条目。

主要结构:

  1. item多关系知识图谱:通过RGCN得到其向量表示;
  2. word单关系知识图谱:通过GCN聚合得到其向量表示;
  3. item-word Attention模块:通过互信息融合,公式如下
    论文笔记:Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion(KDD2020)_第1张图片
    直接计算互信得考虑所有的item-word pair,计算复杂度太高,这里采用近似的计算方法:正样本的期望-负样本的期望。
    正样本定义为:对话中出现的item和所有有意义word的pair
    负样本定义为:随机n个对话中没出现的item-word pair

整体架构图:
论文笔记:Improving Conversational Recommender Systems via Knowledge Graph based Semantic Fusion(KDD2020)_第2张图片
总结:
本质上,问题源于:对话模块和推荐模块对应于两个不同的语义空间,即word级语义空间和item级语义空间。本文尝试训练并合并两个特殊的KG,以增强这两个部分的数据表示,来达到更好的推荐效果(item+原因)。就是说在这个统一的语义空间里,每个item向量旁的word向量就是我推荐改item的原因,比如item:午夜凶铃 的周围应该是word:恐怖惊悚 等。

你可能感兴趣的:(知识图谱,人工智能,自然语言处理,推荐系统)