目标是将原始空间的相似性也体现在映射空间中。
目标: s i m i l a r t y ( u , v ) ≈ z v T z u similarty(u,v)\approx z_v^Tz_u similarty(u,v)≈zvTzu
两个关键组件:
浅层编码器我们可以将节点矩阵映射到一个特定的矩阵Z ,
矩阵的每一列表示一个节点。
1.需要 O ( ∣ V ∣ ) O(|V|) O(∣V∣)参数,每个节点有自己特定的编码
2.固定的“转换性”:不可能为在训练期间没有的节点生成嵌入
3.不能合并节点特性:许多图具有我们可以并且应该利用的特性
下面是基于图卷积网络的深度编码方法
v: 顶点集
A:邻接矩阵
X:节点特征矩阵
关键思想:
基于局部领域信息产生节点嵌入
here,将A的领域信息整合起来,其一阶领域有BDC,让然后BCD又有其对应的一阶信息,右边图相当于是二阶领域信息整合。
直观上:用神经网络将节点信息整合起来,每个节点具有其对应的计算图
节点在每一层进行映射,模型有任意的深度,第0层是其输入特征
,领域集聚可以视作中心环过滤器
在数学上,图卷积也可以用谱分解+ 傅里叶变换来解释。
不同方法关键的区别在于如何跨层聚合信息。
基础方法是:直接使用神经网络
基础方法:运用神经网络平均领域信息。包括当前信息与过去信息的整合。
训练模型需要定义一个好的损失函数
通过K层的领域集聚,我们可以得到 每个节点的输出嵌入, Z v = h v k \bm{Z}_v=h_v^k Zv=hvk,接着将这些嵌入放进任何的损失函数,然后用随机梯度下降,就可训练集聚参数。
仅仅使用图结构通过一种无监督法则去训练,无监督学习的损失函数可以来自上一部分的任何一个,比如随机游走,图分解,还有训练模型使得节点有相似的映射。
训练可选方案:
通过聚集领域信息去产生节点嵌入:
Kipf et al.’s Graph Convolutional
Networks (GCNs)跟前面提到的领域信息聚集有些不同,
经验来看,他们找到了更好结果的相关配置,即
Hamilton et al., 2017. Inductive Representation Learning on Large Graphs.
NIPS.
更好的聚集:
grapSAGE 与原本领域聚集的不同点:对应的AGG(即aggregation)形式有许多不同,包括平均、词化、LSTM
• Li et al., 2016. Gated Graph Sequence Neural Networks. ICLR.
• Gilmer et al., 2017. Neural Message Passing for Quantum Chemistry. ICML.
前面的GCNS与GraphSAGE通常只有2-3 层深度,即2-3阶邻域的信息整合,随着深度增加会带来以下挑战:
从数学上说,我们可以想到用RNN的状态更新机制来对领域信息进行信息更新
1… 在第k步获得领域信息,
2. 用门循环单元去更新节点状态,新结点状态取决于上一步的state与当前的来自领域信息的整合,
从门卷积神经网络出发我们也可以将其思想推广到Message-Passing Neural Networks(MPNN) 中,
第一步,从邻域中整合信息,
然后更新节点的状态
下面这个是贯穿大多数GNNs的框架
• Gilmer et al., 2017. Neural Message Passing for Quantum
Chemistry. ICML.
Based on material from:
• Velickovic et al., 2018. Graph Attention Networks. ICLR.
邻域注意力
有些领域的点的重要性大于其余点。
将基础的图神经网络扩展上注意力
将不同的注意力机制融合到信息传递步骤里边
也就是将注意力作为第k步的输入,经过函数M的作用(MLP,SUM, ect),将注意力信息给融合进去
图神经的最新进展:
Based on material from:
• Duvenaud et al. 2016. Convolutional Networks on Graphs for Learning Molecular Fingerprints. ICML.
• Li et al. 2016. Gated Graph Sequence Neural Networks. ICLR.
• Ying et al, 2018. Hierarchical Graph Representation Learning with Differentiable Pooling. NeurIPS.