Coarse-to-Fine Question Answering for Long Documents

Coarse-to-Fine Question Answering for Long Documents

用于长文档的粗读到精度问题回答(问答)

说明:本篇翻译文章来源于2017年ACL会议(ACL会议(Annual Meeting of the Association for Computational Linguistics)是自然语言处理与计算语言学领域最高级别的学术会议,由计算语言学协会主办,每年一届。)
本篇主要对其文章作者,摘要,介绍,结论做出翻译(翻译的精准性有待商榷)如感觉有兴趣详细查看,论文下载网址为:http://xueshu.baidu.com/s?wd=paperuri%3A%28535c5d1f5e86cce262c93190391ea8f5%29&filter=sc_long_sign&tn=SE_xueshusource_2kduw22v&sc_vurl=http%3A%2F%2Farxiv.org%2Fpdf%2F1611.01839&ie=utf-8&sc_us=14658366042667424707
文章总体背景描述:

大规模文档中检索答案在时间有效性上目前仍是一大挑战,由华盛顿大学和谷歌等多家机构联合发表的这篇文章中,针对大规模文档检索提出了一种高效检索并保持甚至提高目前最先进模型性能的架构 - 模型分层对文档检索。
首先使用快速模型从大规模文档中选择问题相关的少量句子:使用三种不同句子简单表示方式处理大规模文档,然后利用Hard或Soft注意力机制得到文档的一个摘要表示,并使用三种不同方式选择少量候选句子,然后才用相对慢速的端到端神经网络模型从候选句子中产生最终结果。在WIKIREADING部分数据集上,实验结果显示此框架可以比基础模型检索速度高出3.5到6.7倍。
(来源:专栏 | 腾讯AI Lab独家解析:深度聚焦ACL 2017三大研究领域,其中还有多篇ACL文章)

相关作者

  • Eunsol Choi
    华盛顿大学博士
    研究方向:自然语言处理—语义分析 机器学习 在ACL会议发布论文
    个人主页:https://homes.cs.washington.edu/~eunsol/home.html
  • Jakob Uszkoreit
    Google Brain的深度学习研究员
    在谷歌领导机器智能小组的团队在一个非常大规模的弱监督深度学习语言理解系统和更智能的用户界面上工作。
    研究方向:深度学习 自然语言处理 数据挖掘 语义解析 弱监督深度学习语言理解系统
    个人网站:http://jakob.uszkoreit.net/
  • Jonathan Berant
    高级讲师(助理教授)
    研究方向:自然语言处理,语义分析,解释,阅读理解
    个人主页:http://www.cs.tau.ac.il/~joberant/

摘要

We present a framework for question answering that can efficiently scale to longer documents while maintaining or even improving performance of state-of-the-art models.
我们提出了一个问答框架,可以有效地扩展到更长的文档,同时保持甚至提高最先进模型的性能
While most successful approaches for reading comprehension rely on recurrent neural networks (RNNs), running them over long documents is prohibitively slow because it is difficult to parallelize over sequences.
虽然大多数成功的阅读理解方法以来于卷积神经网络(RNNs),但在长文档上运行它们的速度过于缓慢,因为很难在序列上并行化。
Inspired by how people first skim the document, identify relevant parts, and carefully read these parts to produce an answer, we combine a coarse, fast model for selecting relevant sentences and a more expensive RNN for producing the answer from those sentences.
受到人们首先浏览文档,识别相关部分并仔细阅读这些部分以得出答案的启发,我们结合了一个粗略快速的模型来选择相关句子和一个更高代价的RNN,以便从这些句子中产生答案。
We treat sentence selection as a latent variable trained jointly from the answer only using reinforcement learning. Experiments demonstrate the state of the art performance on a challenging subset of the WIKIREADING dataset (Hewlett et al., 2016) and on a new dataset, while speeding up the model by 3.5x-6.7x.
我们把句子选择当作一个潜在变量,只用强化学习从答案中共同训练。实验展示了WIKIREADING 数据集(Hewlett et al., 2016)具有挑战性的子集以及新数据集的性能表现,同时将模型速度提高了3.5x-6.7x。

介绍

  • 阅读文档并回答有关其内容的问题是自然语言理解的标志之一。最近,对非结构化文档的问题回答(QA)的兴趣随着用于阅读理解的大规模数据集的可用性而增加(Hermann et al., 2015; Hill et al., 2015; Rajpurkar et al., 2016; Onishi et al., 2016; Nguyen et al., 2016; Trischler et al., 2016a)。
  • 当前针对文档QA的最新技术方法基于循环神经网络(RNN),该循环神经网络编码文档并确定答案(Hermann et al., 2015; Chen et al., 2016; Kumar et al., 2016; Kadlec et al., 2016; Xiong et al., 2016)。虽然这样的模型可以接受所有相关信息,但他们很慢,因为模型需要依次运行数千个词条,并且计算不可并行化。事实上,这些模型通常会截断文档并只考虑有限数量的词条。受到人们如何回答问题的研究的启发,我们首先浏览文档,识别相关部分,并仔细阅读这些部分以产生答案(Masson,1983),我们提出了一个从粗到精的模型来问答。
  • Token:在自然语言处理中译作:词例/词条——机器学习实战(Machine Learning in Action) 如此翻译(对文中token的翻译)
  • 我们的模型采用分层方法(见图1),其中首先使用快速模型从文档中选择与回答问题相关的几个句子。然后,使用慢速RNN从所选句子中产生最终答案。无论文档的长度如何,RNN都运行在固定数量的词条上。从经验上讲,我们的模型对文本的编码速度比基本模型快6.7倍,后者读取前几段,同时可以访问四倍的多的词条。


    Coarse-to-Fine Question Answering for Long Documents_第1张图片
    image.png

  • 我们设置的一个决定性特征是答案不一定在输入中逐字显示(即使没有明确提及,电影的类型也可以确定)。此外,答案经常出现在虚假背景下的文档中,(2012年可能出现多次,而只有一次与问题有关)。因此,我们把句子选择看作一个潜在变量,它只与使用强化学习的答案一起答案生成模型联合训练。将句子选择当作一个潜在变量处理已经在分类中得到探索(Yessenalina et al., 2010; Lei et al., 2016),但是,据我们所知,尚未应用于问答。
  • 我们发现联合训练句子选择和答案的生成在找到包含答案的句子很难时尤其有用。我们在WIKIREADING数据集上评估我们的模型,重点关注文档较长且句子选择具有挑战性的示例,以及一个名为WIKISUGGEST的新数据集,其中包含从搜索引擎收集的更多的自然问题。
  • 总之,我们提出一个模块化框架和学习过程,用于长文本质量评估。它捕获文档结构的有限形式,如句子边界和处理长文档或潜在的多个文档。与WIKIREADING的子集相比,实验显示性能有所提高,与其他数据集的性能相当,文档编码速度提高3.5-6.7倍,同时允许访问更长的文档。

结论

We presented a coarse-to-fine framework for QA over long documents that quickly focuses on the relevant portions of a document.
我们针对长文档中的QA提出了一个从粗到精的框架,可快速关注文档的相关部分。
In future work we would like to deepen the use of structural clues and answer questions over multiple documents, using paragraph structure, titles, sections and more.
在今后的工作中,我们希望通过使用段落结构,标题,章节等,深化结构线索的使用并回答多个文档的问题。
Incorporating coreference resolution would be another important direction for future work. We argue that this is necessary for developing systems that can efficiently answer the information needs of users over large quantities of text.
结合共识解决方案将是未来工作的另一个重要方向。 我们认为,这对于开发能够高效回应用户大量文本信息需求的系统是必要的。

好好学习,天天向上。今天也是。

你可能感兴趣的:(Coarse-to-Fine Question Answering for Long Documents)