Event Extraction via Dynamic Multi-Pooling Convolutional Neural Networks


  1. 摘要:

传统需要费力的特征设计,复杂的NLP工具,耗费人力,倒是错误传播,数据稀疏。本文用CNN自动抽取lexical-level和sentence-level的特征。处理多事件句子的时候CNN只抽取最总要的信息,我们提出了DCNN,通过triggers和arguments构建动态池化层。

  1. 简介

一些使用features进行抽取,特征可分为:lexical features 和 context features。lexical features包括:词性、实体信息、形态学特征(token,lemma等)。为了抽取到语义信息或者背景知识。S1: Obama beats McCain. S2: Tyson beats his opponent。这两句中的特征需要人为设计特征表示并且使用one-hot表示。
为了更好识别arguments和triggers,前人的方法注重于抽取context features 用于理解这些facts为啥有用。句法依存树的关系被称为sentence-level 线索。


句子依存分析

如图这个句子中两个事件共享了三个参数,有的arguments和trigger之间依存树上没有直接关系。同时依存分析也依赖于NLP工具。为了正确将 cameraman 识别为 fired 的argument 需要使用内部的语义关系,比如 attack事件导致argument事件。CNN 已经被证实能高效捕获 整个句子中words之间的syntactic 和 semantics。 一个句子可能包含很多重要信息,语料中有27.3%的句子是多事件句。我们使用DMCNN解决上面的问题。
ACE定义了8 事件类型,33 子事件类型。本文将事件抽取分为两个阶段:①CNN trigger 多分类。②识别argument 和 role。


模型结构

模型分成四个部分:①embedding learning ②lexical level feature表示 ③sentence level feature抽取,④ 分类
word embedding 学习,传统的词性等特征很依赖于NLP工具,也不足以表示词的语义信息,但是这语义信息又比较重要如S1和S2中的beat。本文使用无监督的预训练向量作为基本特征。 candidate word 本身和上下文词concatenated得到L。skip-gram 通过最大化各个词的log概率得到。
输入包含三个特征:context-word feature、position feature(和trigger 或者 argument之间的位置关系)、event type feature。

  1. 用于 trigger classification 的模型

只需要发现触发词就行了,lexical-feature只使用trigger左右两边的词,只使用和触发词的相对位置。

  1. 试验结果
触发词、argument识别结果

事实证明对于多事件的句子效果比较好。trigger classification 窗口尺寸3,Liao‘s cross event具有最好的效果,但是使用了更多的特征。
sentence-level特征抽取效率:使用embedd 和 lexical-level feature作为特征和CNN特征比较


事件要素和对应词

效果比较

本文学习lexical-level feature的方法和其他方法对比:


模型比较

lexical feature 和 sentence feature 对事件抽取的贡献


效应实验

你可能感兴趣的:(Event Extraction via Dynamic Multi-Pooling Convolutional Neural Networks)