文章:Predict then Propagate: Graph Neural Networks meet Personalized PageRank
出处:ICLR 2019
作者:Johannes Klicpera, Aleksandar Bojchevski & Stephan Gunnemann
机构:Technical University of Munich, Germany
传统GCN在节点分类中达到了不错的效果,但只能在将层数限制在2-3层,加深层数会导致两个问题:
因此提出:
使用基于图卷积网络GCN与PageRank之间的关系来推导基于个性化PageRank的改进传播方案。利用这种传播程序来构建一个简单的模型,神经网络预测的个性化传播模型(PPNP)及其快速逼近模型APPNP。
链路预测,图分类和半监督节点分类等可以利用图上的深度学习算法。 例如:
无监督方法:节点嵌入方法使用随机游走或矩阵分解直接训练单个节点嵌入,通常不使用节点特征并且通常以无监督的方式使用,即不利用节点类。
有监督方法:频谱图卷积神经网络,消息传递(或邻居聚合)算法,RNN神经网络,注意力机制等。
所有这些方法仅对每个节点使用非常有限的邻域信息。希望有更大的邻域来为模型提供更多信息,尤其是对于外围或稀疏标记设置中的节点。
这些算法使用的邻域大小(即它们的范围)并不是微不足道的,因为该方案中的邻域聚合本质上是 Laplacian smoothing 的一种,并且太多层会导致过度smoothing。
根据图卷积网络(GCN)的消息传递算法与随机游走之间的关系,可以看出随着层数的增加,GCN会收敛到该随机游走的极限分布。 极限分布是整个图的一个属性,没有考虑随机游走的起始(根)节点。因此,不适合描述根节点的邻居。因此,GCN的性能必然会因大量层(或聚合/传播步骤)而下降。
为了解决这个问题,作者根据极限分布与PageRank之间的内在联系提出了一种新的算法:PPNP和APPNP。
存在的缺陷:
原始的PageRank算法
考虑根节点的信息和传播方式的个性化PageRank算法
为了将上述影响力分数用于半监督分类,作者根据每个节点的自身特征生成预测,然后通过个性化PageRank方案传播它们,以生成最终预测。
PPNP从传播方案中分离出了用于生成预测的神经网络。
这种分离解决了上面提到的第二个问题:神经网络的深度现在完全独立于传播算法。
个性化PageRank甚至可以有效地使用无限多个邻域聚合层,这在传统消息传递框架中显然是不可能的。
分离使我们可以灵活地使用任何方法来生成预测,例如用于图像图形的深层卷积神经网络。
APPNP通过通过幂迭代逼近主题敏感的PageRank来实现线性计算复杂性。 虽然PageRank的功效迭代与常规的随机游走相关,但与主题相关的PageRank的功效迭代与重新启动的随机游走有关。 因此,主题敏感的PageRank变体的每次幂迭代(随机遍历/传播)步骤都可以通过以下式子实现:
在PPNP和APPNP中,可以通过传送概率α来调整影响每个节点的邻域的大小。 可以自由地使我们能够针对不同类型的网络调整模型。
数据集
实验效果
。。。。。。