论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De

文章目录

    • 1 简介
      • 1.1 动机
      • 1.2 创新
    • 2 背景知识
    • 3 方法
      • 3.1 基础模型
      • 3.2 跨事件依赖
    • 4 实验

1 简介

论文题目:Document-level Event Extraction with Efficient End-to-end Learning of Cross-event Dependencies
论文来源:NAACL 2021
论文链接:https://aclanthology.org/2021.nuse-1.4.pdf

1.1 动机

  • 先前的工作没有结合事件提及抽取,来学习实体和事件共指。
  • 在文档级别上,对跨事件依赖项进行建模时,效率是一个挑战。

1.2 创新

  • 提出了一个文档级别的事件抽取模型,使用Deep Value Networks(DVN)捕捉跨事件依赖,同时进行事件提及抽取、事件共指和实体共指。
  • 为了恰当地在文件级别上评测事件抽取,提出两种评测指标DOCTRIGGER和DOCARGUMENT DOCTRIGGER考虑触发词span、事件类型和事件共指,将相同的事件共指聚集到一起,然后计算匹配分数,使用Kuhn-Munkres algorithm(匈牙利算法)约束一个真实触发词cluster对于一个预测触发词cluster。DOCARGUMENT考虑论元span,论元角色和实体共指。

2 背景知识

  • 对于事件提及抽取,本篇论文的不同之处是需要提取所有名称、名词和代词论元的完整span,而先前的工作专注于抽取名称论元的head span。
  • 事件共指(Event Coreference)是识别相互关联的事件提及。与实体共指类似,为每个预测的触发词 d i d_i di预测最可能的祖先触发器 d j d_j dj

3 方法

主要包括两部分,使用base model独立地预测每个子任务,然后将DVN合并到base model中以高效地捕捉跨事件依赖关系。

3.1 基础模型

基础模型使用DYGIE++,主要包括下面模块:

  • Encoding:使用BERT-BASE进行编码
  • Span Enumeration:为了解决重叠实体,枚举全部的k-gram作为候选事件提及和实体提及,对于每个span s i s_i si表示为head token e h e_h eh、tail token e t e_t et和距离编码,表示为 x i = [ e h , e t , c h , t ] x_i=[e_h,e_t,c_{h,t}] xi=[eh,et,ch,t]
  • Classification:对于触发词抽取对应每个token,公式为 y i t r i g = F F N t r i g ( e i ) y_i^{trig}=FFN^{trig}(e_i) yitrig=FFNtrig(ei);实体抽取对应每个span,公式为 y i e n t = F F N e n t ( x i ) y_i^{ent}=FFN^{ent}(x_i) yient=FFNent(xi);论元抽取、事件提及和实体提及,对每对候选span进行评分,公式为 y k t = F F N t ( [ x i , x j ] ) y_k^{t}=FFN^{t}([x_i,x_j]) ykt=FFNt([xi,xj])

触发词抽取和论元抽取的loss为交叉熵;实体共指和事件共指的loss为优化候选span的所有正确共指span的marginal log-likelihood。公式分别如下:

论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第1张图片
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第2张图片

3.2 跨事件依赖

由于在计算效率方面的优势,将DVN加入到base model中捕捉跨事件的依赖。
DVN是一个结构预测框架,使用 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)评估预测y和输入x的一致性。 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)的目标是估计一个oracle value function v ∗ ( y , y ∗ ) v^*(y,y^*) v(y,y)衡量输出y和真实结果 y ∗ y* y相比的特性。 s . t . ∀ y ∈ Y , v ( x , y , θ ) ≈ v ∗ ( y , y ∗ ) s.t.\forall y \in \mathcal{Y},v(x,y,\theta) \approx v^*(y,y^*) s.t.yY,v(x,y,θ)v(y,y)。推理时的公式为 a ^ = a r g m a x y v ( x , y ) \widehat{a}=argmax_yv(x,y) a =argmaxyv(x,y)
局部触发词分类预测每个token独立的。DVN将局部触发词分类 y t r i g y^{trig} ytrig和全部token e的编码作为输入,结构的输出 y ^ t r i g \widehat{y}^{trig} y trig应该纠正局部触发词分类的错误。 y ^ t r i g \widehat{y}^{trig} y trig通过h次迭代更新获得,每个token i的事件类型通过 a r g m a x ( y ^ t r i g ) argmax(\widehat{y}^{trig}) argmax(y trig)得到,公式如下:论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第3张图片
评测标准使用oracle value function v ∗ ( y t r i g , y t r i g ∗ ) v^*(y^{trig},y^{trig*}) v(ytrig,ytrig),为了适应连续的输出,松弛每个token的输出标签从[0,1]到(1,0),用于计算 F1 分数的并集和交集操作分别替换为元素最小和最大操作,loss公式如下:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第4张图片
最终的loss为
在这里插入图片描述
添加噪声防止过拟合,分别有随机噪声、交换噪声和交换低置信度噪声,如下图:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第5张图片

4 实验

数据集选择ACE 2005,实验结果如下图:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第6张图片
在每个子任务的效果如下图:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第7张图片
计算事件分析:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第8张图片
Value Function 估计:
不同的训练设置,探究逼近oracle value function的程度,结果如下图:
论文笔记 NAACL 2021|Document-level Event Extraction with Efficient End-to-end Learning of Cross-event De_第9张图片
人工进行错误分析,发现模型有如下错误:

  • 标注歧义(Annotation ambiguity):与人工标注者存在歧义(如两个句子相同的上下文,但是相同的单词标注不同)。
  • 观点的事件(Conceptual Events):该事件在未来没有发生或者可能发生。
  • 欠缺的文本证明(Weak Textual Evidence):缺失知识库或者其他的新闻文章,不能正确的预测。
  • 跨事件依赖(Cross-event Dependencies):跨事件依赖建模仍有改进的空间。

伦理分析:在ACE2005数据集中,男性代词有2780个,女性代词有970个,但在测试集中女性代词的F1值更高。在ACE2005数据集中,模型不受性别偏见的影响,在其他数据集上需要进一步研究。

你可能感兴趣的:(NLP,论文,深度学习,自然语言处理,事件抽取)