每週閱讀 2018-09-12

NLG ≠ 机器写作


NLP 模型的泛化问题

参加 workshop 的研究人员们担心,压力测试可能会放缓这一领域的进步。什么样的压力能让我们对真正的泛化能力有更好的理解?能够促使研究人员构建泛化能力更强的系统?但是不会导致资金的削减以及研究人员由于产出较少而倍感压力?workshop 没有就此问题给出答案。

Tensor2Tensor


NAACL 2018 Tutorial

Deep Learning for Conversational AI

The interplay between lexical resources and Natural Language Processing

Deep Learning Approaches to Text Production

你可能感兴趣的:(每週閱讀 2018-09-12)