Matching the Blanks: Distributional Similarity for Relation Learning(2019 ACL)
典型的关系抽取可以大致分为以下三类:
该论文主要依据关系的分布式假设,提出了一种直接从文本中学习关系表示的新方法。本文的主要贡献有以下两个方面:
Overview
Task definition
本文的目标是学习从文本关系表述到向量关系表示之间的一个映射关系。给定一个序列表示,其中,为其特殊的开始和结束表示符。和为其两个实体的token范围,其中。
一个关系表述就变成了三元组的形式: 。我们的目标是学习一个函数映射, ,将三元组形式的关系表述转化为固定长度的向量化表示h。
Architectures for Relation Learning
Relation Classification and Extraction Tasks
Relation Representations from Deep Transformers Model
在该文的所有实验中,均基于BERTLARGE模型,面向特定任务的loss来训练。该论文主要依据两个问题来进行关系表示:(1)在BERT中如何表示实体。(2)如何从BERT的输出中提取一个固定大小的向量来表示该关系。
Entity span identification
Fixed length relation representation
对于最后的关系向量表示hr,其实基于Transformer的最后隐层表示来生成的。
除了定于Transformer的输入和输出,对于不同的任务我们还定义了不同的loss。
Learning by Matching the Blanks
受启发于直接从带标签的文本中推导关系,该模型提出了一种新颖的encode训练函数,该方法不依赖于预定于或者带标签的数据。对于两个语义上表示相似的关系的r和r’,它们的内积值应该高。相反的若表达的语义不同,其内积值应当较低。
我们发现web文本汇总存在着很高的数据冗余,任意一对实体之间的每个关系都可能被反复陈述多次。很可能表达相同的关系同,若s1和s1’,s2和s2’表示的是相同的实体。基于这个观察,该论文提出了Matching the blanks(MTB)方法。
Learning Setup
以下公式来判读两个关系表述是否表达相同的关系:
并且通过以下loss来训练:
Introducing Blanks
对于普通的关系表述:
为了避免实体表示对编码器的学习干预过大,该论文引入[BLANK]机制,每个实体对中的实体都有一点的概率被替换为一个普通的[BLANK]符号,
Matching the Blanks Training
使用采样策略从6亿对关系表述中来训练模型。
Experimental Evaluation
Few-shot Relation Matching
Supervised Relation Extraction
原文链接:https://arxiv.org/abs/1906.03158