2019-06-16

1. Cross Temporal Recurrent Networks for Ranking Question Answer Pairs

  • AAAI 2018
  • 一个问题下的答案排序
  • 用Cross Temporal RNN对问题和答案建模
  • 问题通过3个不同的CNN分别得到3个额外的门控值给答案那边RNN cell,反过来也一样。


    整体框架图
  • 由于问题和答案长度可能不一样,所以按比例对齐:


    问题和答案单词对齐公式

2. Question Condensing Networks for Answer Selection in Community Question Answering

  • ACL 2018
  • 预测答案的分类:Good, PotentiallyUseful, 还是Bad
  • 以前的工作都是把问题中的题目和描述拼一起当一段文本考虑
  • 本文把题目和描述分开考虑,计算出题目和描述里面每个单词Embedding的垂直分量(orth)和平行分量(para),然后用来计算Attention weight


    整体框架图

3. Learning to Rank Question Answer Pairs with Holographic Dual LSTM Architecture

  • SIGIR 2017]
  • 一个问题下的答案排序
  • 通过一个Holographic Dual LSTM来对问题和答案建模(匹配)


    整体框架图

4. Knowledge-aware Attentive Neural Network for Ranking Question Answer Pairs

  • SIGIR 2018
  • 一个问题下的答案排序
  • 因为直接做问题-答案匹配的话,有时候不好的答案跟问题的相似度更高,所以需要引入外部知识:knowledge graphs


    整体框架图

5. Multihop Attention Networks for Question Answer Matching

  • SIGIR 2018
  • 一个问题下的答案排序,用了多跳的attention网络
  • 看图就知道是怎么做的了:


    两种multihop attention

6. Focusing Attention Network for Answer Ranking

  • WWW 2019
  • 一个问题下的答案排序
  • 本文认为现有的attention方法不能做到准确地对齐question和answerer,所以表现不好
  • 所以本文提出一种Focusing Attention Network,通过加入semantic和metadata features来自动提取Attention
  • semantic feature包括相似度、语法树、LDA
  • metadata features就是文本长度


    整体框架图

7. Sequential Scenario-Specific Meta Learner for Online Recommendation

  • KDD 2019
  • 阿里的文章,做推荐系统,依据user-item相关性做推荐
  • 传统的方法需要大量的数据用来训练中的,但是在阿里的很多场景是可能只存在很短的时间就下线了,所以无法等到有了大量的数据再来训练
  • 而一个场景的推荐系统不能由别的场景的数据来训练得到
  • 所以本文提出一种meta learner的方法来学习不同场景下的推荐系统的参数
  • 只是一个很简单的模型(多层ReLU)
  • Meta learning:学习一个学习器
  • 学习器包括两个部分:Update Controller和Stop Controller
  • 学习过程:先用一个同样的值初始化每个场景下的,然后通过Update Controller一直更新,通过Stop Controller控制什么时候停止更新
  • Update Controller和Stop Controller都是一个LSTM单元,输入包括、的Loss和的Loss对的导数
    整体框架图

你可能感兴趣的:(2019-06-16)