Simple and Effective Multi-Paragraph Reading Comprehension读书笔记

发表于ACL2018

    从paragraph QA到多paragraph QA有两种常用方法:pipeline方法先选取一个paragr,再用paragraph QA;confidence方法对所有paragraph都找答案并给出置信度,最后输出最高的。但后者较难训练。

    本文首先改进了pipeline方法,再结合confidence方法,取得了STOA的效果。

    用TF-IDF+classifier选取paragraph,利用sum objective function解决多答案噪音问题。

    对于多paragraph QA,直接用上述模型的(未归一化)输出作为confidence效果不好。提出四种方法:shared-normalization,merge,No-answer option和Sigmoid。

 

 

你可能感兴趣的:(NLP)