为什么GCN不能堆叠多层(过平滑问题)

        要不要做深和任务构建的图直接相关,理论上说做深存在一定瓶颈,必要时也有一些解决办法。

        我们来看下,用多层GCN会是什么样的效果,对于节点分类任务,在使用多层GCN之后,节点的区分性越来越差,其表示向量趋于一致,出现梯度消失、过平滑、过拟合等一系列问题,这使得相关学习任务难以继续进行。

        因此,尽管GCN为图数据的学习带来了一种全新的方式,但GCN模型无法像CNN模型一样进行深度堆叠,一旦使用多层GCN,相关任务的效果会急剧下降,这使得某些任务中,GCN的能力非常有限。

为什么GCN不能堆叠多层(过平滑问题)_第1张图片

        那为什么会出现这样的现象呢?我们知道GCN可以看作是一个低通滤波器,这种特性会造成信号变得更加平滑,对于低层GCN模型来说这算一种优势,但是进行多次这种信号平滑操作会使得信号趋于一致,这就丧失了节点特征的多样性。

        GCN主要聚合邻节点的信息,对于任意一个节点,节点特征每迭代依次,就聚合了更高阶的邻节点的信息。随着GCN层数的增加,节点的聚合半径(最高邻居节点的阶数)也变大,一旦达到某个阈值,该节点覆盖全图节点。如果层数很多,每个节点覆盖的节点都会收敛到全图,这就导致每个节点的局部网络结构的多样性大大降低,对于节点自身特征的学习反而不好。

        怎么解决这个问题呢?针对GCN在深层时出现的过平滑问题,GCNII提出了Initial Residual(在当前层representation和初始层representation之间进行权重选择)和Identity Mapping(在参数W和单位矩阵I之间设置权重选择)技巧;DeeperGCN 通过对GCN中的消息传递框架做出调整及借鉴CNN中解决梯度消失问题的剩余连接、密集连接和扩张卷积方法,以适应深层GCN模型的训练。一定程度上缓解了过平滑问题。

你可能感兴趣的:(深度学习,神经网络,人工智能)