将事件抽取看作机器阅读理解(EMNLP2020)

将事件抽取看作机器阅读理解(EMNLP2020)_第1张图片

1、写作动机:

以前的事件抽取方法通常被建模为分类任务,这些任务需要大量数据,并且存在数据稀缺问题。

2、用MRC解决事件抽取的优势:

1)通过将EE作为MRC,我们可以利用MRC的最新进展(例如,BERT)来增强EE任务,这可能会极大地加强模型中的推理过程。

2)我们可以直接利用丰富的MRC数据集来提高EE的性能,这可能会缓解数据稀缺问题(这被称为跨域数据增强)。第二个优势也为零样本EE打开了一扇门:对于不可见的事件类型,我们可以列出定义其模式的问题,并使用MRC模型来检索作为EE结果的答案,而不是预先为它们获取训练数据。

3、主要贡献:

1)研究了EE的一个新范式,通过明确地将其框定为MRC问题。
2)提出了一种无监督的问题生成方法来连接MRC和EE。与以往使用模板生成问题的工作相比,本文的方法可以生成既与主题相关又与上下文相关的问题,从而更好地指导MRC模型进行问题回3)本文的方法在处理低数据资源和零样本场景时也表现了有好的结果。

4、模型:

将事件抽取看作机器阅读理解(EMNLP2020)_第2张图片

5、实验:

将事件抽取看作机器阅读理解(EMNLP2020)_第3张图片

将事件抽取看作机器阅读理解(EMNLP2020)_第4张图片

将事件抽取看作机器阅读理解(EMNLP2020)_第5张图片

将事件抽取看作机器阅读理解(EMNLP2020)_第6张图片

将事件抽取看作机器阅读理解(EMNLP2020)_第7张图片

将事件抽取看作机器阅读理解(EMNLP2020)_第8张图片

6、错误分析:

1)与长距离依赖关系有关。(这里“长距离”表示触发词和论元之间的距离≥10)

2)涉及到意义一般的角色,例如,Entity, Agent 这些角色通常很难生成有意义的问题。

3)

将事件抽取看作机器阅读理解(EMNLP2020)_第9张图片

你可能感兴趣的:(NLP事件抽取,人工智能,自然语言处理)