论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第1张图片

笔记整理:王大壮

论文链接:https://aclanthology.org/2021.acl-long.344.pdf

动机

句法信息,特别是依存树,已经被广泛应用于关系提取,以更好地分析与给定实体相关联的上下文信息。然而大多数现有的研究都饱受依赖树噪声的影响,特别是当它们自动生成时。由于直接利用依存信息可能会引入混淆,所以需要对依存信息进行筛选。为此,本文通过注意力图卷积神经网络(A-GCN)来辨别不同词依存的重要性,同时考虑到不同依存关系类型对关系分类的作用,在模型中也引入了依存关系类型的信息。

论文方法

关系抽取旨在辨别给定文本中提及的实体之间的关系。

本文方法可以分为以下两步,模型整体框架如下:

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第2张图片

1.考虑依存类别的注意力图神经网络

a)通过依存句法树构建邻接矩阵A(存储两次之间是否存在依存关系:两词之间有关系为1,没关系为0);

b)构建依存类别邻接矩阵T(存储两词之间依存关系类别,比如nsubj)

c)对于每层A-GCN网络,给定上一层第i个词(表示为  )和第j个词(表示为  ),可以从T中得到对应关系类型,经嵌入表示为  。

(1)首先使用下式求得第i个词的中间表示:

5e786baeaaea7c6f23ad3ef054166507.png

同理求得第j个词的中间表示:

a2b1378eab6e6364c5c0cb9b42e6277f.png

(2)考虑到不同依存关系应该具有不同的权重。用下式计算当前依存关系的权重:

069e03fef66a76bd567c755607e895e7.png

其中,  对应矩阵A(两词之间有关系为1,没关系为0)中的元素。

(3)下一层第i个词的表示经下式得到(加权求和):

7d8727b07b108a0cffc25d8520a25c63.png

其中,W、b代表一个线性层的参数,  代表相应权重,  是依存关系类型增强(考虑到依存关系类别对关系抽取的影响)的词表示,由下式计算:

a33f06c981eae8f3ac1d44695c563a7c.png

2.使用A-GCN的关系分类

(1)将输入文本经过BERT得到隐层表示,第i个词表示为  ,将  传入A-GCN模型得到第L层的输出  。

(2)接着使用最大池化对属于实体描述范围的词的隐层表示进行处理:

e6b77c0b9b4b7f3507c2880cfef0e6e1.png

(3)接着用整句文本(  )的表示和两个实体( 、 )的表示进行拼接,然后使用一个可训练矩阵来得到输出空间的向量:

9144181ce9d1ca9563ea0bd22bb26619.png

(4)最后应用一个softmax函数来预测两个实体之间的关系:

ac14ce0e592e78ac263ff76e0fa98ddb.png

实验

1.实验首先设计了以下几个变量进行比较,实验结果如下:

a)采用BERT-base 或BERT-large

b)进行依存剪枝L+G 或不剪枝Full

c)使用一般的GCN 和GAT

d)对于GCN 和A-GCN使用了不同的层数进行比较

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第3张图片

1)使用A-GCN的模型均比BERT-base和BERT-large要好。

2)在所有的数据集同样的设置下,A-GCN均比GAT和GCN的基线要好。

3)对于使用A-GCN的模型,进行依存剪枝L+G的效果均比Full好。

4)使用A-GCN的模型在两层时达到最佳性能。

2.使用上述实验得到的最佳模型设置和之前工作的比较:

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第4张图片

可以看到提出的模型达到了最佳效果。

3.使用不同依存信息的比较:

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第5张图片

4.消融实验(注意力机制+依存类型)

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第6张图片

总结

该论文提出了一种基于注意力图卷积神经网络来利用依存信息用于关系抽取的方法,通过注意力机制来对依存关系及其类型进行加权,从而更好地区分重要的依存信息并加以利用,使得A-GCN可以动态地学习不同的依存关系并剪枝掉无用的依存信息。在两个英文基准数据集上的实验结果证明了提出方法的有效性。


OpenKG

OpenKG(中文开放知识图谱)旨在推动以中文为核心的知识图谱数据的开放、互联及众包,并促进知识图谱算法、工具及平台的开源开放。

论文浅尝 | 基于注意力图卷积神经网络的依存驱动关系抽取_第7张图片

点击阅读原文,进入 OpenKG 网站。

你可能感兴趣的:(神经网络,算法,人工智能,深度学习,python)