【笔记与idea】——ACL2017论文报告会

这篇是2017年我有幸参加了中文信息学会组织的ACL2017论文报告会记的笔记,当时还是研一新生,对NLP感兴趣,偶然通过老师知晓了这次报告会,所以想去现场听听大牛们的idea、和大牛们交流(然而由于当时没有入门,啥也不懂,交流失败。。。)

但是总的来说,非常感谢组织这次报告会的老师们,尽管没能和大牛们有效的交流,但是这次报告会相当于在最短的时间内读懂了数十篇精彩论文的核心内容,对我后面的学习起到了非常好的启迪作用。后面两年顶会论文报告会仍然有声有色的举办着,推荐感兴趣的同学们积极参加,收获一定会非常大。

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------

 

通过对文章标题的可视化分析ACL2017接受论文的标题特点与分布。

端对端建模、联合建模、对抗学习和阅读理解是长文的特别特点。

案例分析、社交媒体和多语言分析在短文中更流行。

学习、神经和翻译在两组论文中都很常见。

 

可以发现绝大多数论文都是长篇论文。机器翻译、语义学和总结性的更多是长篇论文,而机器学习、社交媒体和多学科论文更多是短篇论文。

 

机器翻译

9:00-9:18
Prior Knowledge Integration for Neural Machine Translation using Posterior Regularization使用后验正则化的神经机器翻译先验知识集成
Authors: Jiacheng Zhang, Yang Liu, Huanbo Luan, Jingfang Xu and Maosong Sun
用对数线性模型后验正则化添加先验知识,解决神经机器翻译漏议和重复议,设计一个框架可以添加先验知识,对数线性模型可以直接求导计算,之前人们设计各种模型有可能不兼容,能够引入词典。
 

?9:18-9:36
Visualizing and Understanding Neural Machine Translation神经机器翻译可视化与理解
Authors: Yanzhuo Ding, Yang Liu, Huanbo Luan and Maosong Sun
这个工作是否适用于其他nlp工作?利用层级相关性,可视化,可以分析一些错误例子,图像这个工作以前是图像领域用的,应用到nmt中,相关性向量decoding中前一层级对后一节点影响的程度,对几个错误例子进行有效的分析讨论,转化成拓扑图做传播,源端和目标端,从时序上讲有问题,讲时序分析加入
 

9:36-9:54
Incorporating Word Reordering Knowledge into Attention-based Neural Machine Translation

你可能感兴趣的:(深度学习,人工智能,笔记,idea)