GNN学习笔记(一)——图卷积网络(GCN)

一、引言

本文主要介绍图卷积网络(GCN),它是图神经网络(GNN)的一个重要分支。本节的介绍将从下面几点展开
1.Motivation:为什么需要图卷积神经网络
2.从空间域角度理解图卷积网络
3.从频域角度理解图卷积网络

二、Motivation:为什么需要图卷积神经网络

传统的CNN要求输入具有平移、尺度、形变不变性,具有规则的空间结构,比如图片、语音,可以用规则的一维或二维矩阵表示,但是生活中很多数据不具备规则的空间结构,比如社交网络、推荐系统等等。CNN中的卷积就是离散求和,GCN的一部分工作就是在寻找适用于图的卷积的形式。

三、从空间域角度理解图卷积网络

1. 图卷积的通式
在DNN网络中,单层网络的输出可以表示为如下所示:
GNN学习笔记(一)——图卷积网络(GCN)_第1张图片
类似的,在图卷积网络中,我们也定义定义图卷积层,记作如下所示:
GNN学习笔记(一)——图卷积网络(GCN)_第2张图片实现有如下几种:
2.实现一:平均法
GNN学习笔记(一)——图卷积网络(GCN)_第3张图片
CNN的卷积操作考虑的是一个点空间位置上的相邻像素,而到图里面自然想到用与某点边相连的点的加权和来代替该点。
GNN学习笔记(一)——图卷积网络(GCN)_第4张图片
这种方法存在以下缺点:

  • 只考虑了相邻节点的影响,这种操作没有考虑自身节点的影响。而在CNN的卷积操作中,滤波器的加权求和是涵盖本身的。
  • 邻接矩阵A没有规范化,这使得提特征的时候偏向邻居节点多的。这一点,在谱聚类也得到了体现。谱聚类就是将数据转换成一幅图,将分类问题变为找一个合理的切割,将图分为若干子图,使得子图之间的连接比较小,子图内的连接权重比较大。在经典的谱聚类中,如果出现一个野点、孤立点,它和其他所有点的连接都比较小,这时候分类往往就是把这个点切割出来,其他点当作是一类。由此引入了其他两种算法,即除以图的势、体积。在后面的介绍中也可以看到图卷积网络的改进也是借鉴了这个思想。
    3.实现二
    为了解决缺点1,我们将A换成图的拉普拉斯矩阵L=D-A,由于引入了度矩阵,考虑了自身节点信息自传递的问题,很自然的就有以下:
    GNN学习笔记(一)——图卷积网络(GCN)_第5张图片
    4.实现三
    和谱聚类中引入Ng’s算法类似的,采用子体积来对切割进行归一化,有归一化拉普拉斯矩阵:
    GNN学习笔记(一)——图卷积网络(GCN)_第6张图片GNN学习笔记(一)——图卷积网络(GCN)_第7张图片
    当然也有随机随走拉普拉斯矩阵,根据没有免费的午餐定理,不存在一个与应用无关的最优的卷积核,效果还是要具体问题具体分析,主要还是实现三。
    5.启发
    还是要把基础理论学好,很多新的技术和理论还是借鉴了前人的工作。图卷积网络就是借鉴了谱聚类的技术路线,在CNN的基础上给予了改进,将卷积核的形式改成更适用于图的情况。

五、从频域角度理解图卷积网络

参考:
https://mp.weixin.qq.com/s/9YqPSvfmfFnOrGzbmzPZbQ
https://mp.weixin.qq.com/s/mfTMdm3MAcIIvxLQRhLQZg
https://blog.csdn.net/yyl424525/article/details/100058264
https://mp.weixin.qq.com/s/3cOSjV3VsgJdYhDkQ9u6qA

你可能感兴趣的:(GNN)