【图神经网络论文整理】(十)—— How Powerful are Graph Neural Networks?:GIN

【图神经网络论文整理】(十)—— How Powerful are Graph Neural Networks?:GIN_第1张图片


  • 作者信息:Keyulu Xu, Weihua Hu, Jure Leskovec, Stefanie Jegelka
  • 论文来源:Computer Vision and Pattern Recognition
  • 论文地址:https://arxiv.org/abs/1810.00826

本文介绍的论文是《How Powerful are Graph Neural Networks?》。

作者提出了一个新的图神经网络框架GIN来捕捉图结构信息,经作者测试该GNN是最具表现力的,能够与Weisfeiler - Lehman图同构测试一样强大,在多个图分类基准上达到了最先进的性能。


一、背景

目前很多GNNs不断被提出,大多是采用邻居聚合和图级池化的方法,虽然这些GNN模型在节点分类、边预测和图分类等许多任务上都取得了不错的性能,但是新型的GNN的设计大多是基于经验直觉、启发式和实验试错,因此它们对GNNs的性质和局限性的理论认识较少,对GNNs表征能力的形式化分析有限。

作者提出了一个新的框架,该框架首先会将给定节点的邻居的特征向量集合表示为一个多重集,然后GNNs中的近邻聚集可以认为是多重集上的聚合函数。多重集函数越具有判别性,底层GNN的表征能力就越强。

二、模型方法

图神经网络通用框架:

在这里插入图片描述
其中第一个式子就是聚合函数,用于集合给定节点的邻居的特征向量,第二个式子就是将第一步聚合后的特征向量与该中心节点的特征向量进行结合,用于更新中心节点的特征向量。

聚合函数

在这里插入图片描述
上述的聚合操作采用的是最大池化,其中的 W W W 是一个可学习的矩阵,他会将每个节点的邻居进行映射到新的维度空间然后进行激活,最后再使用最大池化操作。

更新操作

在这里插入图片描述
这里采用的是均值,他会将所有邻居特征向量进行均值化,然后使用一个可学习的矩阵进行空间映射。

读出函数

在这里插入图片描述
对于一些图分类任务,我们需要学习一个图的表征向量用于表示该图的空间拓扑以及节点的特征信息,然后将该表征向量送到分类器中进行分类。

GIN网络

在这里插入图片描述
作者提出了一个新的聚合以及更新节点方式,他首先会将节点的所有邻居进行求和,然后与自身节点特征向量相加,但是上面式子中会有一个标量 ϵ \epsilon ϵ,是一个可学习的参数,然后将这个向量经过MLP层,进行空间映射,作为该节点的新的特征向量。

【图神经网络论文整理】(十)—— How Powerful are Graph Neural Networks?:GIN_第2张图片

三、实验结果

GINs、GNN变体和WL子树核的训练集性能如下:

【图神经网络论文整理】(十)—— How Powerful are Graph Neural Networks?:GIN_第3张图片

测试集分类准确率

【图神经网络论文整理】(十)—— How Powerful are Graph Neural Networks?:GIN_第4张图片

四、总结

在本文中,作者研究了关于GNNs表达能力的理论基础,并证明了流行的GNN变体的表示能力的严格界限。

作者还在邻域聚合框架下设计了一个可证明的最大性能的GNN,未来工作的一个有趣方向是超越邻域聚合(或消息传递),以追求可能更强大的图学习架构。

你可能感兴趣的:(图神经网络,神经网络,gin,深度学习,人工智能)