图卷积神经网络学习笔记

图卷积神经网络学习笔记

  • 前言
  • 整体看待
    • 从卷积、CNN、GCN的关系来切入
    • GNN与GCN的关系
  • 图的特征
    • 图的特征分析
  • 特征提取方式
    • spectral domain
  • GCN的特征提取方式
    • 从拉普拉斯矩阵的特征分解开始
    • Graph上的傅里叶变换
    • Graph上的卷积定理
    • 第一类GCN卷积核
    • 第二类GCN卷积核
    • 第三类GCN卷积核(Chebyshev)
  • 后记

前言

这篇文章是作者在初次接触学习GNN/GCN的过程中为了方便理解而记录下的个人笔记,主要参考了这个问题下诸路大神们的解答。笔记将从尽量宏观的角度来切入图神经网络,然后由浅入深,分享在这里希望同时也能对一起初入这个领域的朋友们有一点帮助。

整体看待

从卷积、CNN、GCN的关系来切入

要了解GCN/GNN的现实意义就必须对CNN有一个基本的了解。从宏观意义上来看,不论是GCN/GNN或是CNN,实际上都是将现实生活中的高维数据通过数学手段处理,在保留数据关键特征的情况下将其降至人类可以直观理解的维度。

为了便于理解,我们以身份证号码为例。假设我们的目的是判断身份证号码持有者的性别,也就是说我们要把一维向量的身份证号码通过数学手段变换为0维的数字 { x ∣ x = 0 , 1 } \{x|x = 0,1\} {xx=0,1},这也就是特征提取。在这个例子中,我们是造物者,我们创造了身份证的编码方式,因此我们自然知道身份证的17个数字中16个与我们关注的性别这一关键特征毫无关系,从而我们很容易就得到了特征提取的具体手段。但在自然界当中,当我们不再是造物者时,这个特征提取的具体手段就成为困扰我们解决这类问题的瓶颈。

在上个世纪,许多领域的研究都面临着类似的问题,研究者们的不懈努力和聪明才智使得他们开发出了很多针对各类问题的特征提取处理手段,例如NLP的Ngram,语音识别中的MFCC和HMM,以及图像识别中一些简易的用于平滑或者做边缘检测的卷积核。这些手段的开发往往都结合了专家们对这一领域的多年研究,这样的代价实在是太高。而CNN为代表的一类方法的出现则消解了这个问题,它通过利用计算机的计算能力,用一套统一的数学方法进行迭代计算,从而逼近理想的特征提取方法。

但如此去逼近特征提取方法的手段是有限制的。这个手段当中很重要的一环就是卷积核,一个卷积核通常为大小 n × n n\times n n×n的矩阵, n n n的大小视实际情况而定。而卷积核与源数据进行卷积运算可以提取到源数据的特征。在此我们不细究卷积运算的细节,但有一点是肯定的。卷积核作为矩阵,与其进行卷积计算的源数据也应该是一个矩阵。 这在现实中意味着这类特征提取手段只能适应规规整整的数据,例如rgb三通道图片,灰度图片。我们会发现符合这一条件的最主要的数据就是图片,而事实也是如此,直接简单利用卷积作为特征提取手段的正是图片识别这一领域。而语音识别和自然语言处理等方面的数据还要结合其他手段。

从上述内容看来,对于数据的特征提取问题,上世纪研究者的研究是针对具体问题的特解;CNN则是在欧几里得数据中的通解。那么下文介绍的GCN则对应了任意拓扑结构的解。这里的拓扑结构在现实生活中可以是人际关系网,蛋白质结构等等,这使得卷积能处理的数据类型更加的广泛。

GNN与GCN的关系

通常所说的图神经网络(GNN)是一个比较宽泛的概念,在2013年GCN被提出之前,GNN代表的是一类利用压缩映射来迭代式更新,最终收敛到结果的一种图神经网络算法。GCN提出后,图神经网络包含了GNN和GCN,它们之间的关系类似于DNN与CNN的关系。

图的特征

GCN或GNN中的G都是指Graph,因此对图有基本的了解是必须的。

图的特征分析

在图神经网络中,我们研究的图往往如上图所示,它有顶点(Vertex)集 V = { x i } V = \{x_i\} V={xi},边(Edge)集 E = { x ( i , j ) } E = \{x_{(i,j)}\} E={x(i,j)}。它可以表示为 G ( V , E ) G(V,E) G(V,E)的形式。

图卷积神经网络学习笔记_第1张图片

为了表示它顶点之间的连接关系,我们通常通过邻接矩阵 A = { a i j } A = \{a_{ij}\} A={aij}的形式来表示。其中 a i j = 1 a_{ij} = 1 aij=1代表第 i i i个顶点与第 j j j个顶点相连; a j k = 0 a_{jk} = 0 ajk=0代表第 j j j个顶点与第 k k k个顶点不相连。对于无向图而言,邻接矩阵显然是对称矩阵。

此外我们记每个顶点的边的数量为该顶点的度(degree),与之对应的有一个度矩阵 D = { d i j } D = \{d_{ij}\} D={dij},其中 d i i d_{ii} dii的值为第 i i i个顶点的度数,其余元素都为 0 0 0

通过上述的量,我们可以刻画出一个图的所有细节,这在后续的应用中是不可或缺的。

特征提取方式

图的特征提取方式主要分成spatial和spectral两类,而GCN主要是spectral方法,因此我们只介绍这类方法。

spectral domain

spectral方法是GCN的理论基础,在上一个Part中我们提到GCN是CNN在拓扑数据中的抽象,而spectral就是完成这个迁移的基本方法。以下的介绍是基于对文章引用链接以及文章引用链接的理解和自我梳理。

首先我们先看看基于上文定义的图的基本特征可以得到什么。为了方便理解,这里引用文章的视角,从热传递的角度来看待图的特征。截取关键的部分:假设每个节点都有初始温度,并且相连的节点之间热量流动的速度满足牛顿冷却定律,即对于任意一点 x i x_i xi,其温度随时间的变化可以用以下式子来刻画:
d T i t = − k ∑ j a i j ( T i − T j ) \frac{dT_i}{t} = -k\sum_{j}a_{ij}(T_i-T_j) tdTi=kjaij(TiTj)

上述式子的物理意义即温度的变化速度正比于该点与周围节点的温度差。那么通过变形我们可以得到:
d T i t = − k ( T i ∑ j a i j − ∑ j a i j T j ) = − k ( T i d i i − ∑ j a i j T j ) \frac{dT_i}{t} = -k(T_i\sum_{j}a_{ij}-\sum_{j}a_{ij}T_j) = -k(T_id_{ii}-\sum_{j}a_{ij}T_j) tdTi=k(TijaijjaijTj)=k(TidiijaijTj)

其中 d i i d_{ii} dii即为顶点 i i i的度数。将上方式子写为向量形式,定义 T = [ T 1 , T 2 , ⋯   , T n ] T T = [T_1,T_2,\cdots,T_n]^T T=[T1,T2,,Tn]T,则有:
d T d t = − k D T + k A T = − k ( D − A ) T \frac{dT}{dt} = -kDT + kAT = -k(D - A)T dtdT=kDT+kAT=k(DA)T

上式的物理意义可以解释为:途中每个顶点的温度随时间的变化取决于两个因素:

  • 1.图的结构特征 ( D − A ) (D-A) (DA)
  • 2.顶点本身的值 T T T

而在GCN中,我们正是使用 L = D − A L = D - A L=DA,又称为拉普拉斯矩阵,来刻画图本身的结构特征。若从更宽泛的意义上来解读 L L L T T T,可以说每个顶点上的值不再是热量,而可以是代表该顶点的某个特征的值,而 L L L刻画的则是该值在图中传播的模式。由此我们正式开始介绍GCN的特征提取方式。

GCN的特征提取方式

从拉普拉斯矩阵的特征分解开始

由于 D D D A A A均为对称矩阵,所以 L L L也是对称矩阵,这使得拉普拉斯矩阵的特征分解可以写为特殊的形式:
L = U d i a g ( λ i ) U T L = Udiag(\lambda_i)U^T L=Udiag(λi)UT

其中 U = ( u ⃗ 1 , u ⃗ 2 , ⋯   , u ⃗ n ) U = (\vec{u}_1,\vec{u}_2,\cdots,\vec{u}_n) U=(u 1,u 2,,u n),列向量 u ⃗ i \vec{u}_i u i是特征值 λ i \lambda_i λi对应的特征向量。且有 U U T = I UU^T=I UUT=I

Graph上的傅里叶变换

由于拉普拉斯矩阵是对称矩阵,因此它有n个线性无关的特征向量并且相互正交。在 n n n个顶点的Graph ( n × n ) (n\times n) (n×n)空间中,我们以这n个特征向量为基。有:
L u = λ u Lu = \lambda u Lu=λu

传统的傅里叶变换中,将信号由时域变换到频域的公式为:
F ( w ) = ∫ f ( t ) e − i w t d t F(w) = \int f(t)e^{-iwt}dt F(w)=f(t)eiwtdt

其本质是使用 e − i w t e^{-iwt} eiwt(即拉普拉斯算子的特征函数)作为该变换的卷积核,将 w w w为特征值(即频率)的信号在时间上求积分从而得到 w w w对应的在频率域上的值。而对于图而言,拉普拉斯矩阵对应拉普拉斯算子,特征值 λ i \lambda_i λi对应频率 w w w,特征向量 u i u_i ui对应特征函数 e − i w t e^{-iwt} eiwt。从而我们可以定义Graph上的傅里叶变换为:
F ( λ i ) = ∑ k = 1 n f ( k ) u i ∗ ( k ) F(\lambda_i) = \sum_{k=1}^{n}f(k)u^*_i(k) F(λi)=k=1nf(k)ui(k)

其中 f ( k ) f(k) f(k)即对应傅里叶变换中的源信号,在上文中,它也指顶点的值 T i T_i Ti。总而言之,它是外界输入的特征。将上式推广为全图的矩阵形式,令 λ = { λ i } \lambda = \{\lambda_i\} λ={λi} f ^ ( λ ) = ( F ( λ 1 ) , F ( λ 2 ) , ⋯   , F ( λ n ) ) T \hat{f}(\lambda) = (F(\lambda_1),F(\lambda_2),\cdots,F(\lambda_n))^T f^(λ)=(F(λ1),F(λ2),,F(λn))T f = ( f ( 1 ) , f ( 2 ) , ⋯   , f ( n ) ) T f = (f(1),f(2),\cdots,f(n))^T f=(f(1),f(2),,f(n))T,那么:
f ^ = U T f \hat{f} = U^Tf f^=UTf

类似的,传统的傅里叶逆变换中,我们通过对频率 w w w求积分来还原信号值:
f ( t ) = 1 2 π ∫ F ( w ) e i w t d w f(t) = \frac{1}{2\pi}\int F(w)e^{iwt}dw f(t)=2π1F(w)eiwtdw

对应的在图中我们可以对特征值 λ i \lambda_i λi求和得到对应的 f ( i ) f(i) f(i)
f ( i ) = ∑ k = 1 n F ( λ k ) u k ( i ) f(i) = \sum_{k=1}^{n}F(\lambda_k)u_k(i) f(i)=k=1nF(λk)uk(i)

推广为矩阵形式:
f = U f ^ f = U\hat{f} f=Uf^

Graph上的卷积定理

在傅里叶变换中,有函数的卷积的傅里叶变换等于函数的傅里叶变换的乘积,即:
f ( t ) ∗ h ( t ) = 1 2 π ∫ f ^ ( w ) h ^ ( w ) e i w t d w f(t)*h(t) = \frac{1}{2\pi}\int \hat{f}(w)\hat{h}(w)e^{iwt}dw f(t)h(t)=2π1f^(w)h^(w)eiwtdw

那么迁移到Graph上,利用上节的结论我们可以得到:
( f ∗ h ) G = U ( ( U T f ) ⊙ ( U T h ) ) (f*h)_G = U((U^Tf)\odot(U^Th)) (fh)G=U((UTf)(UTh))

上式即为Graph上的卷积定理,在文章引用链接中,作者为了方便后续理解第一代GCN卷积核的结构,将上述卷积公式等价变换为如下形式:
( f ∗ h ) G = U d i a g ( h ^ ( λ i ) ) U T f (f*h)_G = Udiag(\hat{h}(\lambda_i))U^Tf (fh)G=Udiag(h^(λi))UTf

第一类GCN卷积核

在文章Spectral Networks and Locally Connected Networks on Graphs中,作者将原来的卷积定理中的 h ^ ( λ i ) \hat{h}(\lambda_i) h^(λi)替换为 θ i \theta_i θi,即:
y o u t p u t = σ ( U d i a g ( θ i ) U T x ) y_{output} = \sigma(Udiag(\theta_i)U^Tx) youtput=σ(Udiag(θi)UTx)

第二类GCN卷积核

在文章Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering中,作者把 h ^ ( λ i ) \hat{h}(\lambda_i) h^(λi)换为 ∑ j = 0 k α j λ i j \sum_{j=0}^{k}\alpha_j\lambda_i^j j=0kαjλij,因为原矩阵为对角矩阵,因此可以写为:
d i a g ( ∑ j = 0 k α j λ i j ) = ∑ j = 0 k α j d i a g ( λ i j ) diag(\sum_{j=0}^{k}\alpha_j\lambda_i^j) = \sum_{j=0}^{k}\alpha_jdiag(\lambda_i^j) diag(j=0kαjλij)=j=0kαjdiag(λij)

从而有:
y o u t p u t = σ ( U ∑ j = 0 k α j d i a g ( λ i j ) U T x ) = σ ( ∑ j = 0 k α j U d i a g ( λ i j ) U T x ) = σ ( ∑ j = 0 k − 1 α j L j x ) y_{output} = \sigma(U\sum_{j=0}^{k}\alpha_jdiag(\lambda_i^j)U^Tx) = \sigma(\sum_{j=0}^{k}\alpha_jUdiag(\lambda_i^j)U^Tx) = \sigma(\sum_{j=0}^{k-1}\alpha_jL^jx) youtput=σ(Uj=0kαjdiag(λij)UTx)=σ(j=0kαjUdiag(λij)UTx)=σ(j=0k1αjLjx)

第三类GCN卷积核(Chebyshev)

与第二类类似,使用Chebyshev多项式代替卷积核:
d i a g ( ⋅ ) : = ∑ j = 0 K − 1 β j T j ( d i a g ^ ( λ i ) ) diag(\cdot) := \sum_{j=0}^{K-1}\beta_jT_j(\hat{diag}(\lambda_i)) diag():=j=0K1βjTj(diag^(λi))

其中 d i a g ^ ( λ i ) = 2 d i a g ( λ i ) / λ m a x − I \hat{diag}(\lambda_i) = 2diag(\lambda_i)/\lambda_{max}-I diag^(λi)=2diag(λi)/λmaxI,是为了满足切比雪夫多项式的定义域 [ − 1 , 1 ] [-1,1] [1,1]的要求,而切比雪夫多项式本身的定义为 T k ( x ) = c o s ( k ⋅ a r c c o s ( x ) ) T_k(x) = cos(k\cdot arccos(x)) Tk(x)=cos(karccos(x))。于是有:
y o u t p u t = σ ( U ∑ j = 0 K − 1 β j T j ( d i a g ^ ( λ i ) ) U T x ) = σ ( ∑ j = 0 K − 1 β j T j ( U d i a g ^ ( λ i ) U T ) x ) = σ ( ∑ j = 0 K − 1 β j T j ( L ^ ) x ) y_{output} = \sigma(U\sum_{j=0}^{K-1}\beta_jT_j(\hat{diag}(\lambda_i))U^Tx) = \sigma(\sum_{j=0}^{K-1}\beta_jT_j(U\hat{diag}(\lambda_i)U^T)x) = \sigma(\sum_{j=0}^{K-1}\beta_jT_j(\hat{L})x) youtput=σ(Uj=0K1βjTj(diag^(λi))UTx)=σ(j=0K1βjTj(Udiag^(λi)UT)x)=σ(j=0K1βjTj(L^)x)

后记

到此为止我才刚刚在图卷积神经网络的这个领域沾了沾水,上述内容如果有错欢迎指正(在此先谢过各位),一起继续学习吧~

你可能感兴趣的:(机器学习,神经网络,gcn,机器学习,深度学习)