论文题目:Document-level Event Extraction with Efficient End-to-end Learning of Cross-event Dependencies
论文来源:NAACL 2021
论文链接:https://aclanthology.org/2021.nuse-1.4.pdf
主要包括两部分,使用base model独立地预测每个子任务,然后将DVN合并到base model中以高效地捕捉跨事件依赖关系。
基础模型使用DYGIE++,主要包括下面模块:
触发词抽取和论元抽取的loss为交叉熵;实体共指和事件共指的loss为优化候选span的所有正确共指span的marginal log-likelihood。公式分别如下:
|
|
|
由于在计算效率方面的优势,将DVN加入到base model中捕捉跨事件的依赖。
DVN是一个结构预测框架,使用 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)评估预测y和输入x的一致性。 v ( x , y , θ ) v(x,y,\theta) v(x,y,θ)的目标是估计一个oracle value function v ∗ ( y , y ∗ ) v^*(y,y^*) v∗(y,y∗)衡量输出y和真实结果 y ∗ y* y∗相比的特性。 s . t . ∀ y ∈ Y , v ( x , y , θ ) ≈ v ∗ ( y , y ∗ ) s.t.\forall y \in \mathcal{Y},v(x,y,\theta) \approx v^*(y,y^*) s.t.∀y∈Y,v(x,y,θ)≈v∗(y,y∗)。推理时的公式为 a ^ = a r g m a x y v ( x , y ) \widehat{a}=argmax_yv(x,y) a =argmaxyv(x,y)。
局部触发词分类预测每个token独立的。DVN将局部触发词分类 y t r i g y^{trig} ytrig和全部token e的编码作为输入,结构的输出 y ^ t r i g \widehat{y}^{trig} y trig应该纠正局部触发词分类的错误。 y ^ t r i g \widehat{y}^{trig} y trig通过h次迭代更新获得,每个token i的事件类型通过 a r g m a x ( y ^ t r i g ) argmax(\widehat{y}^{trig}) argmax(y trig)得到,公式如下:
评测标准使用oracle value function v ∗ ( y t r i g , y t r i g ∗ ) v^*(y^{trig},y^{trig*}) v∗(ytrig,ytrig∗),为了适应连续的输出,松弛每个token的输出标签从[0,1]到(1,0),用于计算 F1 分数的并集和交集操作分别替换为元素最小和最大操作,loss公式如下:
最终的loss为
添加噪声防止过拟合,分别有随机噪声、交换噪声和交换低置信度噪声,如下图:
数据集选择ACE 2005,实验结果如下图:
在每个子任务的效果如下图:
计算事件分析:
Value Function 估计:
不同的训练设置,探究逼近oracle value function的程度,结果如下图:
人工进行错误分析,发现模型有如下错误:
伦理分析:在ACE2005数据集中,男性代词有2780个,女性代词有970个,但在测试集中女性代词的F1值更高。在ACE2005数据集中,模型不受性别偏见的影响,在其他数据集上需要进一步研究。