20200323-20200329 阅读论文笔记

1. INMT: Interactive Neural Machine Translation Prediction

交互式机器翻译界面,为翻译人员提供即时的提示和建议

方法:字符级别的搜索,带约束的beam search+基于距离的编辑算法对beam重排序。

一边翻一边根据上下文给建议。我们的是翻完了进行修改。

20200323-20200329 阅读论文笔记_第1张图片
用键盘作为交互方式。

2. An Interactive Machine Translation Framework for Modernizing Historical Documents

用交互机器翻译帮助学者将古文献转为现代版本。

从左到右,方法上没什么好借鉴的。

实验评价指标:
20200323-20200329 阅读论文笔记_第2张图片

3.Lexically Constrained Decoding for Sequence Generation Using Grid Beam Search

代码,现在自己写的一次只有一个约束,看看多个约束的代码是怎么写的:https://github.com/chrishokamp/constrained_decoding

方法:要让产生的hypothesis里面包含所有的约束(这里的约束是给词,没有删除、插入等操作)。

4.Demonstration of a Neural machine translation system with online learning for Translators

论文中展示的更像是一个译后编辑然后存储下来后面做增量训练的系统。

5. A simple and effective approach to automatic post-editing with transfer learning

在APE中,fine-tune APE系统的encoder和decoder。和IMT差别比较大。

6. QuickEdit: Editing Text & Translations by Crossing Words Out

20200323-20200329 阅读论文笔记_第3张图片

有两个encoder,一个encode源句,一个encode 带删除标记的句子,dual attention(实现让带删除标记的词不出现在句子中的功能)---->如何能在inference阶段也实现让一个词不出现在整个句子中?

7.Online Learning for effort reduction in interactive neural machine translation(没看完)

**有代码,可以看看online learning部分的代码:**https://github.com/lvapeab/nmt-keras/tree/interactive_NMT

还是从左到右的,利用mask实现character级别的interaction。

interactive machine translation的online learning。

强化学习相关

8.Self-Regulated Interactive Sequence-to-Sequence Learning

有三种指标:对三种交互(Correction、error marking 和self-supervision)进行评分,没有这三种交互方式实质上的交互修改。

9.Interactive-Predictive Neural Machine Translation through Reinforcement and Imitation

20200323-20200329 阅读论文笔记_第4张图片

在beam search上加入了不确定性熵的计算。
没有实际的将keep/delete等作为beam search的约束,而是只作为一个feed back信号给强化学习。

你可能感兴趣的:(论文笔记)