2019-06-02

Consequential ranking algorithms and long-term welfare

  • arxiv 2019
  • 利用强化学习优化推荐系统(排序算法)的长期目标
  • 现有的推荐系统排序算法,都是优化的立即目标,也就是说让每一次的收益最大化,但是这样可能并不符合长期的收益最大化
  • 因为考虑到每次的排序结果,都会对以后的状态造成影响:用户偏好和item的特征都可能改变
  • 例如一个新闻推荐系统,经常把假消息的推荐排序靠前,可能用户的CTR会比较高,但是这样不利于平台的长期收益
  • 本文把多次的推荐结果看作一个MDP,每次动作是一次排序,用RL来解决这个问题

Learning Semantic Representations for NovelWords: Leveraging Both Form and Context

  • AAAI 2019
  • 学习训练集中没有出现过的单词的word Embedding
  • 前人一般是把新单词的Embedding设为其他单词Embedding的平均
  • 本文同时利用单词的form和context得到单词的Embedding
  • 对form的建模就是用n-gram Embedding的平均
  • 对context的建模就是用周围的词的平均
  • 最后把以上两者按不同比例加起来
  • loss就是把常见的单词的Embedding和利用form+context的Embedding做MSE

Learning Attribute-Specific Representations for Visual Tracking

  • AAAI 2019
  • 学习视频的分属性的表示,用于目标追踪
  • 因为不同的目标追踪视频几种不同的属性,例如:target motions(目标在移动)、camera motions(相机在移动)、illumination variations(光照变化)、occlusions(遮挡)、scale changes(尺度变化)等
  • 所以本文提出一种两步训练的方法,如下如:


    两步训练方法
  • 先学出视频的不同属性下的表示(因为可能同时有多个属性存在),然后用不同属性表示来预测相应的属性来训练这部分的参数
  • 得到每个属性下的表示,然后合并起来预测目标位置

Learning to Embed Sentences Using Attentive Recursive Trees

  • AAAI 2019
  • 用一个新的树形结构学习句子的Embedding表示
  • 以前的语法解析树种,单词全部在叶子节点上,如图:


    以前的句法解析树
  • 本文提出一个新的数形结构(AR-Tree)用来对句子建模,数上的每一个节点对都是单词,如图:


    Attentive Recursive Tree
  • AR-Tree中,最重要的单词在最上面(根节点),建树的时候,每次选出最重要的当根节点,然后左右分两部分递归建树
  • 每个单词的重要性通过LSTM+Dense得到
  • 建树之后用Tree-LSTM对树建模
  • 由于建树部分使得模型不可微,所以用强化的方法来训练

Multi-Task Learning with Multi-View Attention for Answer Selection and Knowledge Base Question Answering

  • AAAI 2019
  • 做答案选择(也就是答案排序),和基于知识库的QA(KBQA)
  • 以前的方法忽略了多个数据之间的关联,也就是不同QA对之间应该具有一些对互相有用的信息。
  • 所以本文提出一个多任务学习的方案,也就是对多条数据当做多任务学习,整体框架如下:


    整体框架

Online Embedding Compression for Text Classification using

Low Rank Matrix Factorization

  • AAAI 2019
  • 一种把word Embedding压缩的方法
  • 本文觉得word Embedding占用了太多的存储空间,所以想把它压缩一下
  • 通过矩阵分解的方法,例如Embedding矩阵是(),分解乘,
  • 这样就把压缩成了两个小的矩阵和
  • 我认为这就是先Embedding成一个较小维度,然后Dense成较大维度

Personalized Question Routing via Heterogeneous Network Embedding

  • AAAI 2019
  • 做回答者推荐,给定一个新问题,给这个问题推荐优质回答者
  • 对于数据集,本文考虑到3个信息:问题内容、提问者、回答者,用这3个信息对数据建图,节点是这3个中的一个,边是他们的关系(提问或者回答),如图:


  • 对问题先用LSTM学出问题的表示
  • 然后用随机游走的方法在图上生成序列,用word2vec的方法学习每个节点的表示
  • 最后得到了每个问题、提问者、回答者3个表示,用CNN对他们建模得到预测的分数,就是这个回答者能给这个问题提供优质答案的分数

你可能感兴趣的:(2019-06-02)