【论文解读】Document-Level Relation Extraction with Adaptive Focal Loss and Knowledge Distillation
1Introduction1Docre任务比句子级任务更具挑战性:2现有的Docre方法:3现有的Docre方法存在三个局限性2Methodology1使用轴向注意力模块作为特征提取器:2第二,提出适应性焦距损失3第三用知识蒸馏相关知识类别不平衡问题长尾类分布交叉熵损失和二元交叉熵损失二元交叉熵损失定义为知识蒸馏全文翻译