2021-03-17(使用transformer做graph-to-sequence learning)

graph-to-sequence (Graph2Seq) learning的目标是在文本生成任务中将具有图结构关系的表达转换到词序列中,近年来有各种各样的模型去建模图结构信息,但是大多数模型都忽视了两个不相邻节点之间的间接关系或者将这种间接关系与直接关系同等对待。在这篇文章中,我们提出了Heterogeneous Graph Transformer来独立地建模节点中的各种关系,包括间接关系、直接关系以及可能的关系。实验在四个文本生成和语义翻译的常用benchmark上取得了强有力的效果。
Heterogeneous Graph Transformer for Graph-to-Sequence Learning

你可能感兴趣的:(2021-03-17(使用transformer做graph-to-sequence learning))