AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification

Unified Named Entity Recognition as Word-Word Relation Classification

做的比较精细的一个工作,是在表中实现了三种识别的统一。嗯哼,了了心头一事。主要是前一周一直在考虑怎么在表中实现统一识别。毕竟generative的方式出来了,图的方式出来,表的还差。

反思:在动手实操还有其他之前,一定要先把任务可能的形式想清楚,就比如,这种不连续实体,可能左不连续,也可能右不连续,但你只考虑了右不连续的场景,没有考虑到中间不连续等等场景,最后做的也不对。耗时耗力,没讨着好。

目录

  • Unified Named Entity Recognition as Word-Word Relation Classification
    • 模型架构-整理架构
      • 实体可能存在的几种情况:
    • 模型架构01-encoder layer
    • 模型架构02-conv layer
    • 模型架构03- predict layer

模型架构-整理架构

定义了两种关系类型,是否是下一个next word和tail-head word。在一个n*n的表格中,上三角部分表示next word relation,下三角部分表示tail-head word relation。

实体可能存在的几种情况:

AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification_第1张图片

AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification_第2张图片

模型架构01-encoder layer

Bert——Bi-LSTM——获得word的embedding。

模型架构02-conv layer

我们的卷积层包括三个模块,包括一个用于生成词对网格表示的归一化条件层 (Liu et al. 2021),一个 BERT 风格的网格表示构建以丰富词的表示 -对网格,以及用于捕获近处和远处单词之间的交互的多粒度扩张卷积

Conditional Layer Normalization——归一化条件层:为了得到高质量的span 表示,用来得到relation,借鉴了Liu等人的CLN机制。
V_{ij}表示word pair(x_{i},x_{j}).
AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification_第3张图片
Bert 灰度表示:V ∈ R N×N×dh 表示词信息,张量 Ed ∈ R N×N×dEd 表示每对词之间的
相对位置信息
,张量 Et ∈ R N×N×dEt 表示区域信息区分网格中的下三角区域和上三角区域

模型架构03- predict layer

**Co-Predictor Layer:**MLP 预测器可以通过与用于关系分类的双仿射预测器合作来增强。因此,我们同时采用这两个预测器来计算单词对 (xi , xj ) 的两个独立关系分布,并将它们组合为最终预测。

词对 (xi , xj ) 的最终关系概率 yij 是通过组合来自 bi 仿射和 MLP 预测器的分数来计算的.

在这里插入图片描述
AAAI-2022-NER-Unified Named Entity Recognition as Word-Word Relation Classification_第4张图片

你可能感兴趣的:(论文记录,AAAI,深度学习)