2019-05-12

1. A Simple Convolutional Generative Network for Next Item Recommendation

  • WSDM 2019
  • Xiangnan He
  • session based 推荐,推荐下一个物品
  • 把一个session的物品看作一个二维的矩阵,用CNN建模
  • 可以同时得到长期和短期的物品相关

2. Modeling Temporal Evidence from External Collections

  • WSDM 2019
  • 做搜索排序的
  • 估计与某个事件最相关的时间
  • 通过外部数据对Temporal Evidence建模,用来推断主题的时间相关性,然后选择the query expansion terms,再re-rank最后的排序结果

3. Recurrent Recommendation with Local Coherence

  • WSDM 2019
  • user-item打分预测
  • 用户和item都在随时间变化,在短期序列里面,相邻的user或item很可能是很相关的(这点跟我们ijcai2018的文章想法类似)
  • 主要动机是认为user和item都有local coherence和long-term evolution两个性质
  • 对于local coherence,用word2vec方式预训练出每个item和每个user的Embedding。把序列看作一个句子的做
  • 用类似word2vec的方法,得到每一次rating事件的Embedding
  • 然后用RNN最对user序列和item序列建模,得到最后的预测结果
  • 数据集:Amazon(公开的),Goodreads(自己爬的)
  • 可以解决冷启动问题(对新new或者新item)

4. A Dual Attention Network with Semantic Embedding for Few-shot Learning

  • AAAI 2019
  • Few-shot Learning:meta-learning的一种,用少量的数据做参考,帮助预测任务
  • 做的图像识别
  • 同时做两个任务:Meta Prediction和Semantic Prediction
  • meta prediction:两个Attention,一个对图片区域做Attention,一个对用来参考的多个图片表示做Attention
  • semantic prediction:直接用图片的Embedding,Average Pooling
  • 用了3个公开数据集:MiniImageNe,Omniglot,CIFAR100

5. A Hierarchical Multi-task Approach for Learning Embeddings from Semantic Tasks

  • AAAI 2019
  • 分层多任务text Embedding
  • 一套word Embedding用多层的BiLSTM同时做多个任务的预测,模型结构很简单
  • 多任务有Named Entity Recognition、Entity Mention Detection、Coreference Resolution、Relation Extraction

6. Attention-based Multi-Context Guiding for Few-Shot Semantic Segmentation

  • AAAI 2019
  • 图片分割
  • 因为带标签的数据太少,生成数据标签代价大,所以需要用尽可能少的数据得到答案,所以引入Few shot
  • Few shot就是一条训数据里面有几条带标签的“样本数据”和一个待预测的数据,通过利用样本数据,得到待预测数据的标签
  • 对图片的建模,通过对图片区域的Attention,具体用的 Residual Attention Module,大概就是在resnet网络里面得到self Attention的key,value和query
  • 对样本数据的建模,用的Conv-LSTM

7. A Deep Cascade Model for Multi-Document Reading Comprehension

  • AAAI 2019
  • 阿里的文章,阿里小蜜的应用场景,人机对话的
  • 多文档阅读理解,问答
  • 两个级别的Attention:文档级别和句子级别
  • 通过question,对每个文档做Attention,然后对每个句子做Attention,最后提取答案
  • 有离线数据测试和在线测试

8. Bias Reduction via End-to-End Shift Learning: Application to Citizen Science

  • AAAI 2019
  • 人们收集的数据往往带有bias,就是训练集和测试集的分布不一致,这样会导致在测试集上效果很差
  • Shift Learning,主要有两种方法:covariate shift和label shift,本文主要讨论前者
  • 通过对训练数据加上不同的权重,使得训练结果在测试集上表现好

9. BLOCK: Bilinear Superdiagonal Fusion for Visual Question Answering and Visual Relationship Detection

  • AAAI 2019
  • Bilinear 融合两个向量表示,例如,,通过一个tensor 把A和B融合为一个长度为k的向量
  • BLOCK fusion model,就是把tensor T分块,每一块中每个元素用3个向量相乘相加得到
  • 融合后的向量可以用来做多种任务

10. Context-Aware Self-Attention Networks

  • AAAI 2019
  • Tencent AI Lab
  • 方法挺简单,但动机很强
  • 传统的self Attention,没有考虑到context信息
  • 在Attention的query和key中引入context信息,使得计算出来的Attention weight考虑到了context
  • context信息可以是句子的整体表示,或者周围的词,等等

11. Contextualized Non-local Neural Networks for Sequence Learning

  • AAAI 2019
  • 一种基于Attention的graph Embedding方法做文本任务
  • 本文的序列就是句子
  • 把每个单词看作node,单词之间有edge,然后动态更新node的表示和edge的权重
  • 图的更新过程类似于Attention

12. Deep Interest Evolution Network for Click-Through Rate Prediction

  • AAAI 2019
  • 阿里的文章,应该是KDD18(DIN)那篇的进一步工作
  • 考虑到用户历史序列与当前待预测的item的关系
  • 设计了两个层用来提取用户兴趣和考虑到用户兴趣的变化:interest extractor layer和interest evolving layer
  • 在interest extractor layer中,用GRU建模,然后引入了一个辅助loss,就是某时刻的h要与下一时刻的输入相似,类似于seq2seq的loss
  • interest evolving layer中利用了target item做Attention,具体做法是把Attention与GRU结合起来,Attention值控制了update gate

13. Deep Short Text Classification with Knowledge Powered Attention

  • AAAI 2019
  • 引入了外部知识库的短文本分类
  • 短文本本身用BiLSTM和self Attention建模
  • 文本表示对外部知识库做Attention,得到外部知识的表示
  • 拼接文本表示和外部知识表示,再得到预测结果

14. DeepDPM: Dynamic Population Mapping via Deep Neural Network

  • AAAI 2019
  • 动态高解析度的人群分布数据很有用,但是很难得到
  • 本文利用低解析度的数据来生成搞解析度的数据
  • 同时考虑到了空间和时间上的关系

你可能感兴趣的:(2019-05-12)