红色部分为个人的一些解读,不足之处请多多指点!
论文题目:模型退化阻碍深度图神经网络(AIR)(2022KDD)
论文链接:Model Degradation Hinders Deep Graph Neural Networks (arxiv.org)
代码链接:PKU-DAIR/AIR (github.com)
作者讲解:Model Degradation Hinders Deep Graph Neural Networks作者视频讲解_哔哩哔哩_bilibili
图神经网络 (GNN) 在各种图挖掘任务中取得了巨大成功。然而,当GNN堆叠多层时,总是会观察到性能急剧下降。因此,大多数GNN只有浅层架构,这限制了它们的表达能力和对深层邻域的利用。最近的研究将深度GNN的性能下降归因于过度平滑问题。在本文中,作者将传统的图卷积操作分解为两个独立的操作:传播(P)和变换(T)。分解之后,GNN的深度就可以分为传播深度 propagation depth()和变换深度transformation depth()。通过大量实验,我们发现深度GNN性能下降的主要原因是高的引起的模型退化问题,而不是主要由高的引起的过度平滑问题。此外,我们提出了自适应初始残差 (AIR),这是一个与各种GNN架构兼容的即插即用模块,以同时缓解模型退化问题和过度平滑问题。六个真实世界数据集的实验结果表明,得益于高的和的优势,配备AIR的GNN优于大多数具有浅层架构的GNN,而与AIR相关的时间成本可以忽略不计。
目前主流的GNN框架一般都是二层和三层的结构,一方面二层和三层的结构最终的模型性能表现还不错,另一方面若层数增加,就会带来模型性能下降问题以及计算量过大问题。但是直观的感觉来说,如果一个节点能用上更多的邻居对它最后的预测是有帮助的。作者把GNN深度分为传播深度和变换深度,传播深度指的是节点训练时要取到多少阶邻居,这是之前认为过平滑问题的原因就在于节点聚合了过多的邻居信息造成的;变换深度指的是激活操作(激活函数)和降维操作(左乘参数矩阵)的次数。通常的GNN传播深度和变换深度是耦合的,即二层GCN需要二阶邻居,三层GCN需要三层邻居,作者把这两个深度解耦开来,思想和ShaDowGNN有点像。
图神经网络 (GNN) [53] 最近的成功促进了对图数据的各种数据挖掘和知识发现任务的研究。GNN 提供了一个通用框架来处理节点级、边级和图级任务,包括社交网络分析 [33]、化学和生物学分子预测 [10]、推荐系统 [19、40]、自然语言处理 [2]、和计算机视觉。
近年来,图卷积网络(GCN)[20]提出的图卷积操作逐渐成为大多数GNN模型中层设计的规范形式。具体来说,GCN 中的图卷积操作可以分解为两个独立的操作:传播(P)和变换(T)。 P 操作可以看作是拉普拉斯平滑[30] 的一种特殊形式,之后附近节点的表示将变得相似。P操作大大降低了下游任务的难度,因为大多数现实世界的图都遵循同质假设[26],即连接的节点往往属于相似的类。 T 操作将非线性变换应用于节点表示,从而使模型能够捕获训练样本的数据分布。解开之后,GNN 的深度被分成传播深度()和变换深度()。具有较大 的 GNN 使每个节点能够利用来自更深邻域的信息,并且较大的使模型具有更高的表达能力。
P操作其实就是一种平滑,原本节点已有的特征属性不足以应对下游任务,比如说节点分类。根据同质性假设,图中相连的节点拥有类似的性质,于是就用该节点的邻居来平滑该节点的特征,以达到预期的效果,平滑就是节点自身特征和其邻居特征的一种特殊聚合。T操作就是原始MLP里面的激活函数以及将特征降到特定的维度。
尽管 GNN 取得了显著成功,但深度 GNN 很少应用于各种任务,因为简单地堆叠许多图卷积操作会导致性能急剧下降。因此,当今大多数 GNN 仅具有浅层架构 [20、38、39],这限制了它们的性能。已经提出了许多新颖的架构和策略来缓解这个问题,但他们在深度 GNN 性能下降的主要原因上存在分歧。在这些原因中,大多数现有研究 [4, 5, 8, 11, 13, 28, 34, 42, 54] 认为过度平滑问题是深度GNN性能下降的主要原因。过度平滑问题[23]是指经过多次图卷积操作后节点表示变得无法区分的现象。在[50]中证明了节点表示之间的差异仅由应用无穷P操作后的节点度数决定。
最终一句的证明可查看我的另一篇博客(两篇文章为同一个作者):Node Dependent Local Smoothing for ScalableGraph Learning(NDLS)论文阅读笔记_刘大彪的博客-CSDN博客
在本文中,我们对深度GNN中的过度平滑问题进行了全面分析,并试图找出深度GNN性能下降的主要原因。我们发现在数十次P操作后确实会出现过度平滑问题,但深度GNN的性能下降远远早于过度平滑问题的出现。因此,过度平滑问题并不是深度 GNN 性能下降的主要原因。
这里作者把GCN模型中的权重参数W和激活层去掉,去掉以后剩下的其实才是GCN多做的事情,而左乘权重矩阵和非线性变换其实就是MLP。
相反,实验结果表明,性能下降的主要原因是大(即堆叠许多T操作)引起的模型退化问题。模型退化问题自2018年1月1日讨论以来就为社区所熟知。它是指随着网络层数的增加,训练准确率和测试准确率都下降的现象。虽然两者都是由增加层数引起的,但模型退化问题与过拟合问题不同,因为后者的训练精度仍然很高。已经有许多研究解释了深度神经网络中出现模型退化问题的原因。
这里作者把过平滑和模型退化分为两个问题,即过平滑会引起模型退化,但是模型退化不一定全是由过平滑引起的。
为了帮助GNN享受大型 和的好处,我们提出了自适应初始残差 (AIR),这是一种即插即用的模块,可以轻松地与各种GNN架构相结合。AIR在P和T操作之间引入了自适应跳跃连接,同时缓解了模型退化问题和过度平滑问题。六个真实世界数据集的实验结果表明,配备AIR的简单GNN方法优于大多数仅具有浅层架构的GNN。此外,随着和的增加,配备AIR的简单GNN方法显示出更好或至少稳定的预测准确性,这验证了 AIR 在对抗模型退化问题和过度平滑问题方面的积极作用。
那么到底什么是AIR呢?空气吗?当然不是!
在本节中,我们首先解释问题的表述。然后我们将GCN中的图卷积操作分解为两个独立的操作:传播(P)和变换(T)。这种解耦将GNN模型的深度分为传播深度()和变换深度()。之后,将简要讨论扩大和的理论好处。最后,我们根据P和T操作的顺序将现有的GNN架构分为三类。
在本文中,我们考虑一个无向图 和个节点和条边。 是的邻接矩阵,也管理着加权与否。每个节点可能有一个特征向量,叠加成一个特征矩阵。表示节点的特征向量。表示的度矩阵,其中是节点的度。在本文中,我们专注于半监督节点分类任务,其中只有中的部分节点被标记。表示标记节点集,表示未标记节点集。此任务的目标是在中节点标签的有限监督下预测中节点的标签。
继图信号处理领域[35]的经典研究之后,图卷积运算首次在[3]中被提出。然而,特征分解的过高计算成本阻碍了[3]的实际应用。图卷积网络(GCN)[20]提出了一个大大简化的先前对图结构数据的卷积操作的版本,使其成为GNN的第一个可行尝试。近年来,GCN提出的图卷积操作逐渐成为大多数GNN架构的规范形式[27,43,44,47,48]。
GCN中的图卷积运算公式为:
其中是归一化的邻接矩阵,是添加了自环的邻接矩阵,是单位矩阵。是 的对应度矩阵。 是可学习的变换矩阵,是非线性激活函数。
从直观上看,GCN中的图卷积操作首先将每个节点的表示传播到其邻域,然后通过非线性变换将传播的表示转换为特定维度。 “GCN 中的图卷积操作”如果没有特别说明,在本文的其余部分称为“图卷积操作”。
这里结合图1就能很好的理解整个图卷积操作。
从以上小节的直观观点来看,图卷积操作可以分解为两个实现不同功能的连续操作:传播(P)和变换(T)。它们对应的公式形式如下:
(2)
(3)
其中,和与等式1中的含义相同。显然,进行图卷积操作等价于先进行P操作,再进行T操作,可以表示为:
GCN 将其模型深度定义为模型中图卷积操作的数量,因为它将一个图卷积操作视为一层。然而,在解开之后,我们可以通过两个新指标更精确地描述 GNN 的深度:传播深度()和转换深度()。
图1显示了一个两层 GCN 的说明性示例。需要注意的是,如果将归一化邻接矩阵设置为单位矩阵,则GCN将降级为MLP,即删除模型中的所有P操作。
仅由两层或三层组成的GCN实现了最佳性能。最近有许多旨在设计深度GNN的研究,其中一些 [25, 55] 在各种任务上实现了最先进的性能。在本小节中,我们将简要讨论深度GNN的理论优势,并解释扩大和都会增加模型的表达能力。
扩大相当于扩大了每个节点的感受野。在[29]中证明,GCN具有与一阶Weisfeiler-Lehman 图同构测试相同的表达能力。因此,扩大每个节点的感受野使模型更容易区分两个不同的节点,因为它们更有可能具有高度不同的感受野。 [9]证明,一旦模型经过适当的训练,GCN的表达能力会随着感受野的扩大而随着层数的增加而严格增长。综上所述,扩大增加了模型的表达能力,这可以从Weisfeiler-Lehman检验的观点来证明。
以Weisfeiler-Lehman检验的观点来说,就好比两个节点它们的一阶邻居一样,二阶邻居一样,三阶邻居一样,而四阶邻居不一样,那么四阶邻居的传播深度相对于二阶三阶就能更好的区分两个节点的区别。
分析 放大时模型表现力的变化比分析放大时更容易。众所周知,多层感知器(Multi-Layer Perceptron,MLP)的表达能力严格随着层数的增加而增长。如上一小节所述,代表模型中包含的非线性变换的数量。因此,扩大,即增加非线性变换的数量,也增加了模型的表达能力。
根据模型排列P和T操作的顺序,我们将现有的GNN架构大致分为三类:PTPT、PPTT 和 TTPP。
PTPT架构是GCN[20]提出的原始GNN设计,并被GraphSAGE[14]、GAT[38]和GraphSAINT等主流GNN广泛采用。PTPT架构仍然使用GCN中的图卷积操作,其中P和T操作是纠缠在一起的。在更一般的观点中,P和T操作按照PTPT架构中的PTPT...PT的顺序组织。因此,PTPT架构具有= 的严格限制。比如模型想要放大每个节点的感受野,自然的想法就是放大。但是,在PTPT架构中扩大需要同时扩大。它将为模型添加大量训练参数,从而加剧训练难度。
PPTT架构最早由SGC[39]提出,声称GNN的优势主要不在于T操作,而在于P操作。它解开了图卷积操作并呈现了PPTT架构,其中P和T操作被安排为PP...PTT...T。这种架构随后被许多最近的GNN研究[49]采用,例如GAMLP[51]、SIGN[12]、[55]和GBP。与PTPT架构相比,PPTT架构打破了= 的链条,因此具有更灵活的设计选择。对于模型想要扩大每个节点的感受野的相同场景,PPTT 架构可以在不改变的情况下增加堆叠P操作的数量(即扩大),从而避免增加训练难度。此外,P 操作在预处理过程中只需要执行一次,因为它们可以完全脱离训练过程。 PPTT 架构的这一宝贵特性使其具有高可扩展性和高效率。
TTPP是另一种解耦的GNN架构,由APPNP首次提出。作为PPTT架构的对偶等价物,TTPP架构将P和T操作排序为TT...TPP...P,其中堆叠的P操作的行为可以被视为标签传播。DAGNN[25]、AP-GCN[37]、GPR-GNN[8]和许多其他GNN模型都遵循TTPP架构。虽然TTPP架构也享受了图卷积操作解开带来的灵活性,但它的可扩展性远不如 PPTT 架构,因为堆叠的P操作与训练过程纠缠在一起,这阻碍了其在大图上的应用。从积极的方面来说,堆叠的T操作可以显着降低输入特征的维数,从而提高了TTPP架构在后面的堆叠P操作中的效率。
这三个架构包含了几乎所有的主流GCN变体,作者归纳的非常好,以这篇文章作为起点的话,之后再去阅读相关文章就会很快抓住模型的核心部分。
在本节中,我们首先定义平滑度级别并引入指标以在节点和图形级别对其进行测量。然后,我们回顾了过平滑问题及其发生的原因。本节的其余部分是一个实证分析,试图弄清楚过平滑问题是否是深度 GNN 性能下降的主要原因。
平滑度衡量图中节点对之间的相似性。具体来说,较高的平滑度表明从给定节点集中随机选取的两个节点相似的概率较高。
在这里,我们借用DAGNN[25]的指标来评估节点级别和图形级别的平滑度。然而,我们将[25]中的欧几里得距离替换为余弦相似度,以更好地衡量引文网络中两篇论文之间的相似度,因为节点的特征总是由词频构成。我们正式定义“Node Smoothness Level (NSL)”和“Graph Smoothness Level (GSL)”如下:
定义 3.1(节点平滑级别)。节点的节点平滑级别定义为:
余弦相似度,通过计算两个向量的夹角余弦值来评估他们的相似度
定义 3.2(图形平滑级别)。整个图的 Graph Smoothing Level 定义为:
测量节点与图中每个其他节点之间的平均相似度。相对应于,测量图中节点对之间的平均相似度。请注意,这两个指标都与平滑度呈正相关。
过平滑问题[23]描述了节点的输出表示在应用GNN模型后变得无法区分的现象。当GNN模型堆叠了许多层时,总是会出现过平滑问题。
在GCN采用的常规PTPT架构中,和被限制为具有相同的值。但是,在本文解开图卷积操作之后,分析仅放大或所带来的各自影响是可行的。在下面的分析中,我们将展示一个巨大的是过度平滑问题出现的真正原因。
在P操作(等式 2)中,每次归一化邻接矩阵与输入矩阵相乘,可以为每个节点多获取一跳邻居的信息。但是,如果我们无限次地应用 P 操作,同一连接组件内的节点表示将达到静止状态,从而导致无法区分的输出。具体而言,当采用时,遵循:
这表明当接近时,节点对节点的影响仅取决于它们的节点度数。相应地,每个节点的唯一信息被完全平滑,导致节点表示无法区分,即过平滑问题。
该处出自作者的另一篇论文,可查看我的另一篇博客:Node Dependent Local Smoothing for ScalableGraph Learning(NDLS)论文阅读笔记_刘大彪的博客-CSDN博客
放大,非线性变换的数量,对过度平滑问题的出现没有直接影响。为了支持这一说法,我们在流行的Cora[45]数据集上评估了完全解耦的PPTTGNN 模型、SGC和相应的的分类精度。我们放大SGC的,同时将其= 3以排除对输出的影响。图3中的实验结果表明,仅在很小的区间内波动。没有迹象表明仅当增加时会发生过度平滑问题。
在PTPT架构下进行,[31]证明了可学习变换矩阵的奇异值和非线性激活函数也与过平滑问题的出现相关。然而,[31]采用的假设在现实世界场景中相当罕见(例如,假设一个密集图)。在真实世界的数据集Cora上,上述实验表明,在完全解开的PPTT架构下,扩大与过度平滑问题没有相关性。
图2第一张图和图3,说明并不能导致过平滑;图2的后两张图,第一张是让=2,说明如果大的导致的过平滑是模型性能下降的原因,那么此处 =2 的准确率应该更低于Vanilla GCN的准确率,但实际上不是,增大 ,模型性能没有明显变化,第二张是固定,增加,可以看出模型准确率下降的很慢,红的是单独增加,黑的是在增加的同时增加,说明大的不是模型性能退化的主要原因。
大多数先前的研究[23, 52]声称过平滑问题是深度GNN失败的主要原因。已经有一系列旨在设计深度GNN的工作。例如,DropEdge[34]在训练期间随机删除边缘,而Grand[11]在传播之前随机删除节点的原始特征。尽管它们能够在保持甚至实现更好的预测准确性的同时更深入,但对其有效性的解释在一定程度上具有误导性。在本小节中,我们实证分析过度平滑问题是否是深度GNN性能下降的主要原因。
在第4.2节中,我们已经说明当接近时,总是会发生过平滑问题。然而,当从一个相对较小的值增长时,出现过平滑问题(即图表的)的风险变化趋势并未揭示。为了评估放大 对图的的单一效果,我们在PPTT GNN模型SGC[39]中放大,并在所有P操作之后测量中间节点表示的。在Cora数据集上的实验结果如图2(a)所示,随着的增长,呈现出单调增加的趋势。
备注 1:出现过度平滑问题的风险随着的增长而增加。
为了研究平滑度和节点分类准确度之间的关系,我们增加了普通GCN (= ) 和修改后GCN两者的图卷积操作数量,其中为PubMed数据集上的归一化邻接矩阵(即= 2)。假设过平滑问题是深度GNN性能下降的主要原因,那么= 2的GCN的分类准确率应该远低于 Vanilla GCN的分类准确率。实验结果如图2(b)所示。我们可以看到,即使较大(即平滑度较高),当从1增长到8,= 2的GCN分类精度与 vanilla GCN (=)分类精度相当,并且过多的P操作似乎只有当超过16 (2 × 8) 时才开始主导性能下降。然而,当超过2时,Vanilla GCN的性能开始急剧下降,远小于16(出现图 2(b)中的性能差距)。
备注2:考虑到深度GNN的性能下降经常发生在层数小于10的情况下,过度平滑问题可能不是其主要原因。
此处结合上面图2就可以很好的理解。
为了挖掘深度GCN的实际局限性,我们采用了两层GCN。在这个GCN模型的第一层中,归一化的邻接矩阵设置为;并且在第二层设置为。在接下来的分析中,这个GCN的修改版本将被称为“=2的GCN”。我们展示了Vanilla GCN和“=2的GCN”的 在图2(c) 中增加过程中的分类精度。实验结果表明," =2的GCN"的精度确实随着的增长而下降,但下降幅度相对较小,而Vanilla GCN(固定=)的精度面临急剧下降。因此,可以推断出,尽管单独扩大会增加出现过度平滑问题的风险,正如前面的分析所显示的那样,性能只受到轻微影响。然而,如果我们同时增加,性能将急剧下降。
备注3:大的会损害深度GNN的分类精度,但下降的幅度相对较小。相反,大的是导致深度GNN性能下降的主要原因。
为了了解大的造成的基本限制,我们首先评估了PubMed数据集上的深度MLPs的分类准确性,然后将结论扩展到深度GNNs。
我们在PubMed数据集上,随着,即MLP层数的增加,评估MLP的预测精度,图4(a)中的黑线表示评估结果。从结果可以得出,当增加时,MLP的分类精度也急剧下降。因此,大的引起的性能下降在MLP中也存在。这提醒我们,缓解深度MLP训练的方法可能也有助于缓解深度GNN中大引起的性能下降。
广泛使用的缓解深层MLP训练的方法是在层之间添加跳跃连接。在这里,我们在MLP中加入了残差和密集连接,并产生了两个MLP变体。分别是 "MLP+Res "和 "MLP+Dense"。图4(a)显示了这两个模型随着增长的分类准确率。与普通的深度MLP相比,"MLP+Res "和 "MLP+Dense "的分类准确率在增加时没有遇到大规模下降。评估结果说明,增加残差连接或密集连接可以有效地缓解深层MLP中因大的造成的性能下降问题。
残差连接就是本来一个数据经过权重层和激活层之后会变成一个另一个新的数据,加上残差连接之后,得到的新的数据要与原来数据进行相融,这样的操作可以在多层MLP中很好的保留数据的原始特征,提高模型性能。在GNN中就是一个节点聚合邻居信息的时候也要保留一部分自身的信息。
第4.3节的实证分析表明,大的是导致深度GNNs性能下降的主要原因。然而,广泛使用的缓解深度MLPs训练的方法是否也能缓解深度GNNs的问题,这仍然是一个悬而未决的问题。因此,在PubMed数据集上,我们评估了[22]中的 "ResGCN "和 "DenseGCN "的分类准确率,这两种方法分别在GCN层之间增加了残差和密集连接。图4(b)中的实验结果说明,与GCN的大规模性能下降相比,"ResGCN "和 "DenseGCN "的性能下降几乎可以忽略不计。
我们很自然地猜测,过拟合问题是造成大的性能下降的主要原因。具体来说,过拟合问题来自于这样的情况:一个过度参数化的模型试图用有限的、有偏见的训练数据来拟合一个分布,这导致了很大的泛化误差。为了验证过拟合问题的背后是否存在大的,我们评估了GCN在PubMed数据集上随着层数增加的训练精度和测试精度。评估结果如图5所示。图5显示,当模型层数超过4层时,不仅测试精度,而且训练精度也迅速下降。训练准确率的下降说明,大的引起的性能下降背后的实际原因不是过拟合问题。
如果是因为过拟合问题导致的模型精度下降,那么训练集的精度应该会越来越高的,结果并不是,说明不是过拟合的原因。
模式退化问题首次在文中正式提出。它指的是,随着模型的深入,模型的性能得到饱和,然后迅速退化的现象。它与过拟合问题的区别在于,训练精度和测试精度都会下降,而不仅仅是测试精度会大量下降。[15]并没有解释模型退化问题出现的原因,只是提出了一个巧妙的解决方案--跳跃连接。最近的许多研究都试图探索模型退化问题的主导原因是什么,其中大部分都是从梯度的角度来探究这个问题。深度GCN的训练精度和测试精度的趋势恰恰与模型退化问题所指的现象一致。
备注4:大的背后的模型退化问题是导致深层GNNs性能退化的主要原因。此外,在层与层之间增加跳跃连接可以有效地缓解深层GNN的性能退化。
根据上述结论,我们提出了一个即插即用的模块,称为自适应初始残差(AIR),它在P和T操作之间增加了自适应初始残差连接。P操作之间的自适应初始残差连接旨在缓解过度平滑问题,并以节点自适应的方式利用更深层次的信息,而T操作之间的自适应跳跃连接的主要目的是缓解模型退化问题。我们将在本节的剩余部分详细介绍AIR。之后,还将讨论AIR在三种GNN架构中的应用。
在对图卷积操作进行拆分后,几乎所有的GNN都可以被拆分成连续的部分,其中每个部分都是连续的P操作或T操作的序列。与[15]中的跳跃连接不同,我们直接从下面的原始输入中构造出一个连接。
对于连续的P操作序列,我们在每个P操作中取出节点的输入特征的自适应部分。将节点在第次操作中的表示记为。然后,节点在第次操作时的自适应部分的计算方法如下:
(7)
其中,是一个可学习的向量,将串联的向量转化为标量。
这里扒了下代码,两个特征之间是一个拼接操作,U是一个可训练的线性函数,sigmoid激活函数把值都投影到0~1区间,是一个0~1之间的数,最终每次的相加的和等于1,相当于把原始的特征拆分成了很多部分,依次加入每次的P操作中。
自适应加权矩阵的第行向量的所有位置都被同一个元素占据。
因为是一个数,所以和特征做哈达玛积的时候就用这个数与节点特征的每个元素相乘,比如说节点特征维度为1433,就用 分别与1433个元素相乘 。
那么,对于每个,部件内配备AIR的次P操作可以表述如下:
(8)
其中和是后面的表示矩阵次和次操作。是一个全为1的矩阵,并且表示哈达玛积。是方程2中的标准化邻接矩阵,是该部分的输入矩阵。
每次与原始特征相乘然后添加到每次的P操作之后,而原始的P操作之后获得的新特征也要乘以(1-),然后两个相乘后所得的特征相加。比如说原来特征是A,经过一次P操作之后变为了B,添加了AIR以后,应该变为 (1-)B+A
配备AIR后,连续P操作相当于首先计算传播输入,然后以节点自适应的方式,给它们分配可学习系数。根据这种观点,AIR显然可以帮助缓解过平滑问题。对于需要深层信息的节点,该模型可以将较大的系数分配给深层传播的输入。对于只需要本地信息的节点,可以将深度传播特征的系数赋值为零左右。
与P操作之间的自适应初始残差不同,T操作之间的连接不包括输入特征的可学习系数,而是采用固定系数,因为这两种方法在这种情况下几乎是等效的。
与上面介绍的P操作类似,对于每个,该层内配备AIR的T操作可公式化如下:
(9)
这里其实也是添加残差的思想,与P操作添加残差的思想不同,T操作是直接把原始特征添加到每次的T操作之后,做一个相加,若两个特征维度不一样,则用一个线性投影层把原始特征维度转换成和T操作之后一样的维度再相加。
其中是可学习变换矩阵,是非线性激活函数。注意,输入和潜在表示的特征维度可能不同。在这种情况下,一个线性投影层被用于将输入特征维度转换为给定的特征维度。
我们在这里采用的初始残差连接[7]与[15]中的残差连接具有相同的直觉,即深度模型应至少达到与浅层模型相同的性能。因此,采用带AIR的T操作有望缓解大的引发的模型退化问题。
对于没有纠缠在一起的PPTT和TTPP的GNN结构,模型可以分为两部分,一部分只包含P操作,另一部分只包含T操作。因此,P和T操作可以很容易地被上一小节中介绍的配备AIR的P和T操作所取代。
配备AIR的P操作将适量的原始输入直接加到操作上,并将其与由前一P操作生成的表示矩阵融合。融合后的矩阵被认为是次P操作的新输入。配备AIR的T操作将前一次T操作的输出与固定数量的原始输入相加。
图6(A)和图6(B)分别给出了在PPTT和TTPP架构下采用AIR的示例。
PTPT的GNN架构AIR与PPTT和TTPP的GNN架构AIR略有不同,因为P和T操作在PTPT架构中纠缠在一起。PTPT体系结构下的GNN模型可以看作是一系列的图卷积运算。因此,我们直接在图的卷积运算之间构造自适应初始残差连接。
如果输入和潜在表示的维度不同,则使用线性投影层将输入转换到给定的维度。对于每个,配备AIR的层图卷积运算可以表示为:
(10)
这相当于连续应用配备了AIR的P操作(公式8)和T操作(公式3)。
图6(c)概述了如何在PTPT的GNN架构下采用AIR。
在这一部分中,我们将在三种不同的GNN架构下对提出的AIR进行评估。我们将AIR应用于三种GNN模型:SGC[39](PPTT)、APPNP[21](TTPP)和GCN[20](PTPT),它们分别是三种GNN体系结构的代表性GNN模型。首先,我们介绍了所使用的数据集和实验装置。然后,我们比较了SGC+AIR、APPNP+AIR和GCN+AIR与基线方法在预测精度、深入能力、对图形稀疏性的稳健性和效率方面的差异。
数据集。我们采用了三个流行的引文网络数据集(Cora,Citeseer,PubMed)[36]和三个大型OGB数据集(ogbn-arxiv,ogbn-Products,ogbn-Paps100M)[17]来评估每种方法对节点分类任务的预测精度。附录B.1中的表2概述了这六个数据集。
基线。我们选择以下基线:GCN[20]、GraphSAGE[14]、JK-Net[41]、ResGCN[22]、APPNP[21]、AP-GCN[37]、DAGNN[25]、SGC[39]、SIGN[12]、S2GC[55]和GBP。SGC+AIR、APPNP+AIR、GCN+AIR以及所有基线方法的超参数细节可在附录B.3中找到。
表1总结了GCN+AIR、APPNP+AIR、SGC+AIR和所有比较基线在六个数据集上的评估结果。配备AIR后,GCN、APPNP和SGC的性能都远远好于它们各自的原始版本。例如,在PubMed数据集上,GCN+AIR、APPNP+AIR和SGC+AIR的预测精度分别比其原始版本高0.9%、0.9%和2.2%。此外,GCN+AIR,APPNP+AIR和SGC+AIR在它们自己的GNN架构中也优于或达到了与最先进的基线方法相当的性能。
值得注意的是,在两个最大的数据集ogbn-Products和ogbn-Papers100M上,SGC+AIR相对于比较基线方法的性能优势比在较小数据集上的更显著。这种对比是因为AIR能够在GNN中实现更大的和,这有助于该模型利用关于大型数据集的更有价值的深层信息。
在本小节中,我们在ogbn-arxiv数据集上进行实验,以验证简单的GNN方法在配备AIR时可以支持大的和大的。
我们首先在PPTT和TTPP架构下分别增加或。在图7(a)中,我们固定=3,并将从1增加到20。图7(a)显示,SGC+AIR在整个实验过程中都优于SGC,而当超过10时,APPNP+AIR的性能开始超过APPNP。实验结果清楚地说明,AIR可以大大降低过度平滑问题出现的风险。
在图7(b)中,我们将固定为10,并将从1增加到10。当超过4时,SGC和APPNP都遇到了明显的性能下降,而当增长时,SGC+AIR和APPNP+AIR的预测准确率保持甚至更高。这种鲜明的对比说明,AIR可以大大缓解模型退化的问题。因此,配备了AIR,SGC和APPNP可以更好地利用深度信息,实现更高的预测精度。
在PTPT架构下,我们同时增加了和,因为在这个架构中,P和T操作是纠缠在一起的。实验结果显示在图7(c)。与基线方法GCN、JK-Net和ResGCN相比,随着层数的增加,GCN+AIR的预测准确率呈稳定上升趋势,这再次验证了AIR的有效性。
在本小节中,我们评估了AIR在ogbn-arxiv数据集上的效率。这里我们只报告训练时间,因为在真实世界的场景中,训练阶段总是消耗最多的资源。SGC、APPNP和GCN在有或没有AIR的情况下训练时间结果展示在图8。所有比较的方法中,和都固定为3,每种方法都训练了500个epochs。
在本文中,我们对当前的GNN进行了实证分析,并找到了导致深度GNN性能下降的根本原因:大的转换深度()引起的模型退化问题。大的传播深度()引起的过平滑问题确实损害了预测的准确性。然而,我们发现,当和以类似的速度增加时,模型退化问题总是比过平滑问题发生得更早。基于上述分析,我们提出了自适应初始残差(AIR),一个即插即用的模块,帮助GNN同时支持大的传播和转换深度。在六个真实世界的图数据集上进行的广泛实验表明,配备了AIR的简单GNN方法优于最先进的GNN方法,与AIR相关的额外时间成本可以被忽略。
未完,待更新。