《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文

tagging scheme:

《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文_第1张图片

对每个关系生成单独的标签sequence,只有头实体和尾实体会被标注,其他被标注为O,此方法能解决重叠三元组问题

《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文_第2张图片

这张图是在rk关系下的模型图

input:a sentenc

经过bilstm进行编码得到句子向量{h1, h2......hn},然后应用注意机制来构建rk的特定句子表征。

Relation-Based Attention Mechanism(最重要的机制)

基于我们的假设,句子中的词在不同的关系下扮演不同的角色。为此,我们提出了一种基于关系的注意机制,为每个关系下的上下文词分配不同的权重。注意力得分按如下方式获得:

《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文_第3张图片

sg是全句向量 rk是关系 hi是词向量

这个公式计算的是hi这个词向量在这个关系对这句话的的贡献 

《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文_第4张图片

sk是经过attention的句子向量

Relational Gated Mechanism:

 sg是global representation

gk这个公式 是为了衡量 到底是sk关系的representation 还是sg这个global representation 对实体抽取更有用(保留的信息数)

uk是保留的关系信息

hi 词向量  

hik即为最终句子representation

Relation-Specific Entity Decoder:

《A Relation-Specific Attention Network for Joint Entity and Relation Extraction》论文_第5张图片

hik喂入lstm

P (yki)表示在关系rk下第I个单词的预测标签的概率。 

你可能感兴趣的:(nlp)