Chinese Relation Extraction with Multi-Grained Information and External Linguistic Knowledge

本文思想主要为针对论文Chinese ner using lattice lstm进行改进,引入了外部信息hownet手工标注的多义词,目的是解决使用NLP工具的产生的分词错误。

Abstract

中文关系抽取是使用基于字符的或基于词的输入的神经网络来进行的,并且大多数现有的方法通常遭受分词错误和多义的歧义。本文针对当前问题:(1)将字级信息集成到字符序列输入中,从而避免分割错误。(2)利用外部语言知识,从而减轻多义歧义。

Introduction

中文RE的分割歧义与多义歧义

(1) 本文模型采用基于格结构LSTM,将字词级特征动态地集成到基于字符的方法中。因此,它可以利用输入的多粒度信息而不受分割错误的影响。
本文格结构LSTM思想来自论文 Chinese ner using lattice lstm用于命名实体识别的模型,下例来自博客:
格结构LSTM

通过将句子与自动得到的较大的词典匹配构建一个字词的lattice结构。例子中是得到了“长江大桥”“大桥”“长江”可以消除文中潜在命名实体的歧义。lattice lstm结构自动控制信息流从句子开始流到句子结尾,通过门单元动态的将不同路径得到的词输送到相应的字符。
(2) 本文认为尽管格LSTM模型能够充分利用词序信息,但多义词的歧义性仍然会对其产生严重影响。换言之,这些模型不能处理随着语言环境的变化而产生的多义现象。为了缓解多义词歧义的问题,模型利用了HowNet外部知识库对多义词进行人工标注。然后,在训练阶段自动选择词义,该模型能充分利用数据中的语义信息,提高数据的可重用性。

Methodology

基本的LSTM介绍
LSTM

  • 遗忘门:遗忘门是以上一层的输出和本层要输入的序列数据作为输入,通过一个激活函数sigmoid,得到输出为。的输出取值在[0,1]区间,表示上一层细胞状态被遗忘的概率,1是“完全保留”,0是“完全舍弃”。
  • 输入门:输入门包含两个部分,第一部分使用sigmoid激活函数,输出为,第二部分使用tanh激活函数,输出为。

    是遗忘门的输出,控制着上一层细胞状态被遗忘的程度,为输入门的两个输出乘法运算,表示有多少新信息被保留,基于此,我们就可以把新信息更新这一层的细胞状态(等式4)。
  • 输出门:输出门用来控制该层的细胞状态有多少被过滤。首先使用sigmoid激活函数得到一个[0,1]区间取值的,接着将细胞状态通过tanh激活函数处理后与相乘,即是本层的输出(等式5)。
格结构LSTM

Chinese ner using lattice lstm

由于在更新细胞状态时有两个输入门信息流入,所以需要对基本LSTM做修改,细胞状态更新改为:
权重设置:

MG lattice LSTM

MG lattice 结构

如图所示,根据词典得知“杜鹃”有两个sense“杜鹃花”和“杜鹃鸟”,通过一个能够联合学习词和sense表示的SAT模型得到表示。细胞状态更新公式改为,其中权重是各个sense的softmax:
最后使用一个softmax进行关系分类。

Experiments

评价标准为AUC和F1
实验结果

你可能感兴趣的:(Chinese Relation Extraction with Multi-Grained Information and External Linguistic Knowledge)