graph neural network没有考虑异构图。
异构图:在图里,节点的类型+边的类型>2。
异构性和丰富的语义信息给异构图的图神经网络设计带来了极大的挑战。
本文提出:heterogeneous graph neural network based on the hierarchical attention, including node-level and semantic-level attentions(基于层次注意力的异构图神经网络,包括节点级和语义级注意力)
具体来说,节点级注意旨在了解节点与其基于元路径的邻居之间的重要性,而语义级注意能够了解不同元路径的重要性。通过从节点级和语义级关注中学习到的重要性,可以充分考虑节点和元路径的重要性。
然后,该模型可以通过 从元路径的邻居,以分层的方式 聚合特征(aggregating features)。
Graph neural network(GNN)在图的表示上很强大。
[10,20,24]利用深度神经网络 学习 基于节点特征node features和图形结构graph structure的 节点表示node presentations。
同质图的Attention模型,Graph Attention Network(GAT)[35]
异构信息网络heterogeneous information network(HIN)[28] = heterogeneous graph 异构图。具有多种类型的节点和边。它有更全面的信息和丰富的语义。
meta-path 元路径[32],连接两个对象的composite relation,是一种广泛用于捕获语义的结构。
以图1a为例,包含3种类型节点,movie,actor,director。2部电影的关系可以通过元路径揭示,元路径比如Movie-Actor-Movie(同一个演员)、Movie-Director-Movie(同一个导演)。
可以看出,根据元路径的不同,异构图中节点之间的关系可以具有不同的语义。
由于异构图的复杂性,传统的图神经网络不能直接应用于异构图。
T1. 这里相当于提示了一些模型构建的初衷和注意点:
在为异构图设计具有注意机制的图神经网络体系结构时,我们需要满足以下新的要求:
本文提出了HAN,它同时考虑了node-level and semantic-level attentions.
GNN模型在深度网络 应用于处理图结构数据[10, 24]
GNN的propagate information[20]
图结构数据 使用卷积。图卷积神经工作一般分为两类,即谱域[2] [6] [18]和非谱域[14]。
Attention机制,分为self-attention[34]和soft-attention[1]
attention应用在图上 做recommendation[15, 16]
用于学习节点及其邻居之间的重要性,并融合邻居进行节点分类[35]
上面都只能应用在同质图上。
Network embedding = network representation learning(NRL)。旨在将network embed到低维空间中,同时保持network的结构和性质,以便将学习到的embedding应用于downstream network tasks。
例如,基于随机行走的方法[12,23]、基于深度神经网络的方法[36]、基于矩阵分解的方法[22,37]以及其他方法,例如LINE[33]。(在同质图上)
Heterogeneous graph embedding主要关注于保留基于元路径的结构信息。
论文符号表:
HAN framework
论文这里又复述了T1部分,说明了Node-level Attention的存在意义
由于异构性,不同类型节点有不同特征空间feature spaces。对于每种类型的节点,设计了type-specific transformation matrix M ϕ i M_{\phi_i} Mϕi,以将不同类型节点的特征投影到相同的特征空间中。
与[13]不同,matrix是基于node-type,rather than edge-type。
h i, h i’分别是original, projected feature of node i。
之后,使用self-attention[34]学习各种节点之间的权重。
然后,inject the structural information into the model via masked attention。计算 i在元路径 Φ \Phi Φ上的所有邻居 j(复数加s)的 e i j Φ e^{\Phi}_{ij} eijΦ。
之后,normalize,通过softmax获得权重系数 α i j Φ \alpha^{\Phi}_{ij} αijΦ。
a Φ _\Phi Φ是针对meta-path Φ \Phi Φ的node-level attention vector。
然后,节点i的基于元路径的embedding可以通过neighbor’s projected features与相应系数进行聚合,如下所示:
左边 = node i 学习到的embedding,在元路径 Φ \Phi Φ上。
为了更好地理解aggregating process of node-level,可以看图3a。
再多头注意力,重复K次。
输入meta-path set { . . . Φ p ...\Phi_p ...Φp}、node features,就可以获得P组的 semantic-specific node embeddings { . . . Z Φ p ...Z_{\Phi_p} ...ZΦp}。
To learn a more comprehensive node embedding, we need to fuse multiple semantics which can be revealed by meta-paths.
输入:P组 semantic-specific node embeddings learned from node-level attention。每条元路径的学习权重 β \beta β如下所示:
att sem表示deep neural network which performs the semantic-level attention.
在获得每个元路径的重要性之后,对其softmax进行normalizing。可以获得元路径Φi的权重,表示为βΦi
这可以解释为元路径Φi对特定任务的贡献。显然,βΦi越高,元路径Φi越重要。这些权重 * semantic-specific embeddings = 最终的embedding Z:
如图3(b)所示,final embedding = all semantic-specific embedding的聚合。然后根据特定任务,设计不同的loss function。针对半监督节点分类,使用Cross-Entropy:
HAN的整个过程如Algorithm 1所示。(很清晰)
HAN有以下优点:
有些复杂的论文还是自己慢慢看一遍好理解。