关注公众号跟踪最新内容:阿泽的学习笔记。
断断续续写了一个多星期,期间找了很多同学讨论学习,感谢指导过点拨过我的同学们,为了精益求精本着不糊弄别人也不糊弄自己的原则在本文中探讨了很多细节。
当然,还有很多细节没提到,包括总变差(Total Variation)、空域和频域视角下的图信号等,有兴趣的同学可以深入了解下图信号处理,本人才疏学浅还希望抛砖引玉引出更多的 GCN 的文章。
非常感谢知乎 @superbrother 同学和蘑菇先生的精彩笔记才使得我能够入门 GCN,当然我也将公开我的笔记希望能帮助更多的同学。
CNN 在图像识别等任务中具有重要作用,主要是因为 CNN 利用了图片在其域中的平移不变性。由于图结构不存在平移不变性,所以 CNN 无法直接在图上进行卷积。
刚刚提到 CNN 之所以可以应用到图像而无法应用到图网络中主要是因为图像具有平移不变形(translational invariance),而图网络不具备这一属性。那么问题来了,什么是平移不变形呢?
我们知道对于 CNN 来说,其核心在于使用了基于卷积核的卷积操作来提取图像的特征,这里的卷积操作类似于对计算区域内的中心节点和相邻节点进行加权求和:
CNN 之所以能成为图像领域的明珠却很少应用于其他领域原因是:图片是一个规整的二维矩阵,无论卷积核平移到图片中的哪个位置都可以保证其运算结果的一致性,这就是我们所说的平移不变性。CNN 的卷积本质就是利用这种平移不变性来对扫描的区域进行卷积操作,从而实现了图像特征的提取。
而网络是不规整的关系型数据,所以其不存在平移不变形(每个节点的周围邻居数不固定),这就使得传统的 CNN 方法无法直接应用于网络中。
既然是因为卷积核的原因,那么可不可以不使用卷积核?
答案肯定是不可以,因为卷积神经网络的一大核心就是利用卷积核实现参数共享(Parameter Sharing)。下图为有卷积核的卷积操作:
此时的参数大小只与卷积核大小有关,而如果不进行参数共享的话,参数的大小则与图像的像素矩阵保持一致:
除此之外,卷积神经网络还有另一大核心:局部连接性(Locally Connection)。局部连接是指卷积计算每次只在与卷积核大小对应的区域进行,也就是说输入和输出是局部连接的。如果不进行局部连接的话,相当于将图片的矩阵展开成向量进行输入,类似于全连接神经网络,此时的参数量会变得非常巨大:
也就是说,通过参数共享和局部连接性我们可以将参数从 O ( W ∗ H ∗ K ∗ N ) O(W*H*K*N) O(W∗H∗K∗N) 降低到 O ( m ∗ m ∗ k ) O(m*m*k) O(m∗m∗k) 。其中,W H 和 K 分别为图像的宽、高和通道,N 为隐藏层节点个数,m 为卷积核宽,k 为卷积核个数。
PS:CNN 有三大特点,除了上面说的局部连接和参数共享之外,还有层次化表达(Hierarchical Expression)。CNN 的层次化表达可以通过卷积层叠加得到,每一个卷积层都是在前一层的基础上进行的,这样的意义在于,网络越往后,其提取到的特征越高级。比如说:第一层可能是一些线条,第二层可能会是一些纹理,第三层可能是一些抽象图案:
可能会有同学问:那我们还有其他办法在图上进行卷积吗?答案是一定有的 = =。
目前的一大思路就是借助谱图理论(Spectral Graph Theory)来实现在拓扑图上的卷积操作,大致步骤为将空域中的拓扑图结构通过傅立叶变换映射到频域中并进行卷积,然后利用逆变换返回空域,从而完成了图卷积操作。
看到这里,估计大家会有一堆疑问,包括:什么是谱图理论?什么是傅立叶变换?什么是频域空域?逆变换是什么?
想要清楚的回答这个问题,要从图信号处理说起。
图信号处理(Graph Signal Processing,以下简称 GSP)用来处理那些定义在图上的非规则域的信号,这句话有点拗口,拆开说就是处理图上定义的信号,但信号所在域是规则的。
这里我们举一个图信号处理的简单例子:
假设我们在一个地方测量温度,并根据人口密度安排了温度感应点(如上图 a 所示),地区 n 的测量温度可以表示为 x ( n ) x(n) x(n) (如上图 b 所示),并且 x ( n ) = s ( n ) + ϵ ( n ) x(n)=s(n)+\epsilon(n) x(n)=s(n)+ϵ(n) , s ( n ) s(n) s(n) 为真实温度, ϵ ( n ) \epsilon(n) ϵ(n) 为随机噪声带来的误差。
现在我们想通过对测量地及周围的温度求平均来减少这些随机噪声,当然为了防止失去局部温度(这个也叫 Over Smooth),我们会对每个点取其周围区域进行平均:
y ( n ) = x ( n ) + ∑ m ∈ N ( n ) x ( m ) y(n) = x(n) + \sum_{m \in N(n)} x(m) \\ y(n)=x(n)+m∈N(n)∑x(m)
上图 c 展示了 y(1) 的计算方式。
我们也可以用矩阵来表示:
y = x + A x \mathbf{y} = \mathbf{x} + \mathbf{Ax} \\ y=x+Ax
其中,矩阵 A 为邻接矩阵(测量点的连接情况如上图 d 所示),测量位置及每个位置的测量温度如上图 e 所示。
我们还可以对其进行优化,根据距离来为不同测量点添加不同的权重:
y = x + W x \mathbf{y} = \mathbf{x} + \mathbf{Wx} \\ y=x+Wx
当然,我们也需要对权重进行归一化,以便产生无偏估计:
y = 1 2 ( x + D − 1 W x ) \mathbf{y} = \frac{1}{2}(\mathbf{x} + \mathbf{D^{-1}Wx} ) \\ y=21(x+D−1Wx)
其中,对角矩阵 D 用于归一化,其值为 D n n = ∑ m W n m D_{nn} =\sum_m W_{nm} Dnn=∑mWnm,这个矩阵还有另外一个名字,叫度矩阵(Degree Matrix)。
以上便是一个简单的是图信号处理过程,其框架大致为:
同样的,我们也可以将其应用在多个领域,如民意调查、政治分析等。
我相信如果我一上来就扔出傅立叶变换,很多人都会崩溃不想看,不信我们试试:
f ^ ( ξ ) = ∫ − ∞ ∞ f ( x ) e − 2 i π x ξ d x \hat f(\xi)=\int _{-\infty }^{\infty }{{f}}(x)e^{-2i\pi x\xi }\,dx\\ f^(ξ)=∫−∞∞f(x)e−2iπxξdx
如果没有崩溃的话就直接看下一节吧;如果崩溃了就接着看,但是笔掉了千万别捡,否则可能就看不懂了。
为了让大家无痛入门,我们先从最简单变换的说起。
我们知道笛卡尔坐标系中,每个点都会有一个坐标,如下图所示 A(-3,1) B(2,3):
那么为什么可以这么表示呢?为什么 A 的坐标为 (-3,1) 而 B 的坐标为 (2,3) ?
这是因为在笛卡尔坐标系中,我们定义了一组标准正交基 e x = ( 1 , 0 ) e y = ( 0 , 1 ) e_x = (1,0)\; e_y=(0,1) ex=(1,0)ey=(0,1),基是向量有方向有大小。(正交是指不同基之间的内积为 0,即两个基线性无关,而标准基是指基的模为 1)
A 的坐标其实就表示在 x 轴坐标上有 3 个 e x e_x ex 的长度且方向与 e x e_x ex 相反,在 y 轴坐标上有 1 个 e y e_y ey 的长度,且方向相同。
这样做的好处是什么呢?主要是为了方便计算和表示,试想下,如果只给你一点点而没有坐标系,你怎么表示两个点之间的距离呢?而放在坐标系中,这些问题就迎刃而解。
有同学可能疑问,不是说变换吗?怎么扯到笛卡尔坐标系了?其实我们刚刚说的就是一种变换:将图上的节点变换到坐标系中。
傅立叶变换分为傅立叶级数和连续傅立叶变换,我们先说傅立叶级数。
傅立叶级数适用于周期性函数,它能够将任何周期性函数分解成简单震荡函数的集合(正弦函数和余弦函数),举个例子,比如说下图:
左边是一个周期函数,右边是将周期函数分解成多个简单震荡函数,所以这个周期函数用数学公式可以表达为:
f ( t ) ≈ 2.5 + 10 π ( sin π t 4 + 1 3 sin 3 π t 4 + 1 5 sin 5 π t 4 + 1 7 sin 7 π t 4 ) f(t) \approx 2.5 + \frac{10}{\pi} {\left( \sin{{\frac{{\pi t}}{4}}} + \frac{1}{3}\sin{{\frac{{3 \pi t}}{4}}} + \frac{1}{5}\sin{{\frac{{5 \pi t}}{4}}} + \frac{1}{7}\sin{{\frac{{7 \pi t}}{4}}} \right)} \\ f(t)≈2.5+π10(sin4πt+31sin43πt+51sin45πt+71sin47πt)
我们看到上图中的信号是随着时间变换的,所以我称之为时域(Time domain)。
我们观察到,不同的振荡函数具有不同的振幅和频率,以上图为例 1 3 s i n ( 3 π t 4 ) \frac{1}{3}sin(\frac{3\pi t}{4}) 31sin(43πt) 的振幅为 1/3 而频率为 f = ω 2 π = 3 8 f=\frac{\omega}{2\pi} = \frac{3}{8} f=2πω=83,考虑以频率为横坐标,振幅为纵坐标,我们有:
这个就是我们所说的频域(Frequency Domain),其和时域是等价的,不过是从另外一个角度去描述信号。我们把它放在一起看一下:
我们可以放一张动图感受一下:
给出傅立叶级数的公式:
f ( x ) = a 0 2 + ∑ n = 1 ∞ a n sin ( n ω x + φ n ) f(x)= \frac{a_0}{2} + \sum_{n=1}^{\infty} a_n \sin (n \omega x + \varphi_n) \\ f(x)=2a0+n=1∑∞ansin(nωx+φn)
还可以将其稍作变换:
f ( x ) = a 0 2 + ∑ n = 1 ∞ a n sin ( n ω x ) + ∑ n = 1 ∞ b n cos ( n ω x ) f(x)= \frac{a_0}{2} + \sum_{n=1}^{\infty} a_n \sin (n \omega x) + \sum_{n=1}^{\infty} b_n \cos (n \omega x) \\ f(x)=2a0+n=1∑∞ansin(nωx)+n=1∑∞bncos(nωx)
这样我们便能看出来,此时的标准正交基为 { 1 , s i n ( n ω t ) , c o s ( n ω t ) ∣ n = 1 , . . , ∞ } \{1, sin(n\omega t),cos(n\omega t)\; \big| \; n=1,..,\infty \} {1,sin(nωt),cos(nωt)∣∣n=1,..,∞},而对应的系数 { a 0 2 , a n , b n ∣ n = 1 , . . . , ∞ } \{ \frac{a_0}{2},a_n,b_n \big| n=1,...,\infty \} {2a0,an,bn∣∣n=1,...,∞} 其实就是傅立叶级数在这组标准正交基下的向量。这便是傅立叶变换,将信号从时域变换到频域中。
这里介绍下傅立叶变换后的基为正交基,因为有个知识点后面还会用到。
我们知道判断两个向量是否正交可以用向量点乘求和等于 0 来判断,这种方法我们称为点积(内积):
v ⋅ w = v t w = v 1 w 1 + v 2 w 2 + . . . + v n w n = 0 v \cdot w = v^t w = v_1w_1 + v_2w_2 + ...+v_nw_n = 0 \\ v⋅w=vtw=v1w1+v2w2+...+vnwn=0
与向量点积不同的是,函数是连续的,假设现在有两个函数 f 和 g,f 的周期为 2n,我们也想用上述连续累加的方式来使得函数内积和向量内积的概念一致,而积分正是函数累加的概念,所以我们有:
f ⋅ g = ∫ 0 2 π f ( x ) g ( x ) d x f\cdot g = \int_0^{2\pi} f(x)g(x)dx \\ f⋅g=∫02πf(x)g(x)dx
对于上面我们说的傅立叶变换后的正交基,我们容易得到:
∫ 0 2 π c o s ( m x ) s i n ( n x ) d x = 0 ∫ 0 2 π s i n ( m x ) s i n ( n x ) d x = π δ m n m , n > 1 ∫ 0 2 π c o s ( m x ) c o s ( n x ) d x = π δ m n m , n > 1 w h e r e δ m n = { 1 m = n 0 m ≠ n \int_{0}^{2\pi} cos(mx)sin(nx) dx = 0 \\ \int_{0}^{2\pi} sin(mx)sin(nx) dx = \pi \delta_{mn} \quad m,n>1 \\ \int_{0}^{2\pi} cos(mx)cos(nx) dx = \pi \delta_{mn} \quad m,n>1 \\ where \quad \delta_{mn} = \left\{ \begin{aligned} 1 \quad m = n \\ 0 \quad m \neq n \end{aligned} \right. \\ ∫02πcos(mx)sin(nx)dx=0∫02πsin(mx)sin(nx)dx=πδmnm,n>1∫02πcos(mx)cos(nx)dx=πδmnm,n>1whereδmn={1m=n0m=n
容易证明上述标准基为正交基。
在数学里,希尔伯特空间(Hilbert Space)是有限维欧几里得空间的一个推广,是一个完备的内积空间,其定义了一个带有内积的完备向量空间。在希尔伯空间中,一个抽象元素通常被称为向量,它可以是一个复数或者函数。傅立叶分析的一个重要目的是将一个给定的函数表示成一族给定的基底函数的和,而希尔伯特空间为傅立叶分析提供了一种有效的表述方式。
可能大家看到这里要爆炸了,不过不用担心,我们只需要记住上面两个函数的内积形式即可。
我们刚刚说的都是周期性函数,但现实中大部分函数都是非周期的,那如果涉及到非周期性函数该怎么办呢?
在介绍非周期性函数之前,我们先简单介绍下欧拉公式。
考虑横轴为 1,纵轴为虚单位 i 的坐标系,图上任意一点都可以表示为 c o s θ + i s i n θ cos\theta + i\;sin \theta cosθ+isinθ。
根据欧拉公式,我们可以写成:
c o s θ + i s i n θ = e i θ cos\theta + i\;sin \theta = e^{i\theta} \\ cosθ+isinθ=eiθ
其中,e 为自然对数的底数。
所以坐标轴上的点现在有了两种表示方式:
考虑 θ = ω t \theta = \omega t θ=ωt, θ \theta θ 会随着 t 的增大而逆时针旋转。所以 e i ω t e^{i \omega t} eiωt 可以表示为坐标点 A 随着时间 t 逆时针旋转。我们以时间 t 为横坐标,则可以记录到坐标点 A 映射在虚轴的运动轨迹:
左边图是我们看到的旋转频率,称为频域,而右边图看到是时间流逝,称为时域,是不是和我们刚刚介绍的(从时域变换到频域)正好相反?也就是说,时域和频域其实是可以相互转换的。
回到正题,考虑非周期函数的傅立叶变换。
事实上,我们可以将非周期函数考虑为周期无穷大的函数,考虑频域中的横坐标: f = 1 T f=\frac{1}{T} f=T1,当周期 T 无穷大大时,频域图就从离散点变为连续的曲线,如下图:
那么,我们该如何从这个非周期函数中分解出各种信号呢?答案就是利用正交!比如说,假设这函数中有一个 c o s ( n ω x ) cos(n \omega x) cos(nωx) 的信号,那么我们用 c o s ( n w x ) cos(n wx) cos(nwx) 就可以把它乘出来,而其他分量如 { 1 , s i n ( m ω x ) , c o s ( k ω x ) ∣ m , k = [ 1... ∞ ) , k ≠ n } \{1, sin(m\omega x),cos(k\omega x)| m,k=[1...\infty) , k\neq n\} {1,sin(mωx),cos(kωx)∣m,k=[1...∞),k=n} 都会因为正交而消失。所以我们需要对函数做一个内积:
F T ( ω ) = ∫ − ∞ + ∞ f ( t ) e − i ω t d t \mathcal{F}_T(\omega) = \int_{-\infty}^{+\infty} f(t)e^{-i\omega t} dt FT(ω)=∫−∞+∞f(t)e−iωtdt
其中, e − i w t e^{-iwt} e−iwt 刚刚介绍过,就是一组正交基的组合。我们用正交基去与函数求内积,如果原函数中包含频率为 ω \omega ω 的三角函数,则 F ^ T ( ω ) \mathcal{\hat F}_T(\omega) F^T(ω) 便为 0,反之为 0,这样自然分离能分离出相应的信号,其图示如上图 c 中右部分所示。
细心的同学可能还会注意到上式的计算的结果中还有复数 i。其实是样子的:实数部分表示振幅,虚数部分表示相位。相关资料同学们可以自己查阅,不再进行过多介绍。
以上就是我们所说的傅立叶变换(Fourier Transform,FT)。同样的我们也存在逆变换:
f ( t ) = 1 2 π ∫ − ∞ + ∞ F T e i ω t d ω f(t) = \frac{1}{2\pi} \int_{-\infty}^{+\infty} \mathcal{F}_T e^{i\omega t}d\omega \\ f(t)=2π1∫−∞+∞FTeiωtdω
于是,我们便实现了将信号拆成多个正弦信号,再把正弦信号逆变换为原来信号的过程。
简单介绍下傅立叶变换的应用吧, 省得看了那么多不知道他能干什么。
一个很经典的例子就是:分离、降噪。如果男生和女生一起说话,该如何分离出两者的声音呢?答案就是对这一段声音(时域)做傅立叶变换转换到频率,而男女生的声音频率不同,在频域中,低频为男生,中频为女生,高频可能为噪音,我们可以根据需要去除中频和高频的信号,并将其进行逆变换,这样便分离出了男生的声音。
PS:这里再说一个好玩的,频域中是不是不存在时间的概念?不存在时间却可以表示时间,这有没有一点像我们的人生,看似无规律,但是从上帝视角来看,一切皆命中注定。
图拉普拉斯矩阵可以定义为:
L = D − W \mathbf{L} = \mathbf{D}-\mathbf{W} \\ L=D−W
其中,D 为度矩阵,W 为考虑权值的邻接矩阵。
考虑归一化后的拉普拉斯矩阵:
L N = D − 1 / 2 ( D − W ) D − 1 / 2 \mathbf{L}_N = \mathbf{D}^{-1/2}(\mathbf{D}-\mathbf{W})\mathbf{D}^{-1/2} \\ LN=D−1/2(D−W)D−1/2
以上为常规操作,不过介绍到这里不知道大家会不会有一点疑问。
至少我是有疑问的:图拉普拉斯矩阵为什么要这样定义的?
要想回答这个问题,首先我们得了解什么是拉普拉斯算子。
在数学中,拉普拉斯算子(Laplacian)是由欧几里得空间中的一个函数的梯度的散度给出的微分算子,通常有以下几种写法: Δ , ∇ 2 , ∇ ⋅ ∇ \Delta ,\nabla^2,\nabla \cdot \nabla Δ,∇2,∇⋅∇。所以对于任意函数 f f f 来说,其拉普拉斯算子的定义为:
Δ f = ∇ 2 f = ∇ ⋅ ∇ f \Delta f = \nabla^2 f = \nabla \cdot \nabla f \\ Δf=∇2f=∇⋅∇f
这里引入了一个新的概念——散度,这里简单介绍下:
散度(Divergence)是向量分析的一个向量算子,将向量空间上的向量场(矢量场)对应到一个标量场。散度描述的是向量场里一个点是汇聚点还是发源点。值为正时表示该点为发源点,值为负时表示该点为汇聚点,值为零时表示该点无源。散度在物理上的含义可以理解为磁场、热源等。
回到正文,我们看下拉普拉斯算子在 n 维空间中的笛卡尔坐标系的数学定义:
Δ f = ∑ i = 1 n ∂ 2 f ∂ x i 2 \Delta f = \sum_{i=1}^n \frac{\partial ^2 f}{\partial x_i^2} \\ Δf=i=1∑n∂xi2∂2f
数学表示为各个维度的二阶偏导数之和。
以一维空间为例:
∂ 2 f ∂ x i 2 = f ′ ′ ( x ) ≈ f ′ ( x ) − f ′ ( x − 1 ) ≈ f ( x + 1 ) − f ( x ) − ( f ( x ) − f ( x − 1 ) ) = f ( x + 1 ) + f ( x − 1 ) ) − 2 f ( x ) \begin{aligned} \frac{\partial ^2 f}{\partial x_i^2} &= f^{''}(x) \\ &\approx f^{'}(x) - f^{'}(x-1) \\ &\approx f(x+1) - f(x) -(f(x) - f(x-1)) \\ &= f(x+1) + f(x-1)) - 2f(x) \end{aligned} \\ ∂xi2∂2f=f′′(x)≈f′(x)−f′(x−1)≈f(x+1)−f(x)−(f(x)−f(x−1))=f(x+1)+f(x−1))−2f(x)
也就是说二阶导数近似于其二阶差分,可以理解为当前点对其在所有自由度上微扰之后获得的增益。这里自由度为 2,分别是 +1 和 -1 方向。
再以二维空间为例子:
Δ f ( x , y ) = ∂ 2 f ∂ x 2 + ∂ 2 f ∂ y 2 = [ f ( x + 1 , y ) + f ( x − 1 , y ) ) − 2 f ( x , y ) ] + [ f ( x , y + 1 ) + f ( x , y − 1 ) ) − 2 f ( x , y ) ] = f ( x + 1 , y ) + f ( x − 1 , y ) ) + f ( x , y + 1 ) + f ( x , y − 1 ) ) − 4 f ( x , y ) \begin{aligned} \Delta f(x,y) &= \frac{\partial ^2 f}{\partial x^2} + \frac{\partial ^2 f}{\partial y^2} \\ &=[f(x+1,y) + f(x-1,y)) - 2f(x,y) ]+[f(x,y+1) + f(x,y-1)) - 2f(x,y)] \\ &=f(x+1,y) + f(x-1,y)) + f(x,y+1) + f(x,y-1)) - 4f(x,y) \\ \end{aligned} \\ Δf(x,y)=∂x2∂2f+∂y2∂2f=[f(x+1,y)+f(x−1,y))−2f(x,y)]+[f(x,y+1)+f(x,y−1))−2f(x,y)]=f(x+1,y)+f(x−1,y))+f(x,y+1)+f(x,y−1))−4f(x,y)
看到上面可能大家会很可能很陌生,但是这个就是图像中的拉普拉斯卷积核:
此时共有 4 个自由度 (1,0),(-1,0),(0,1),(0,-1),当然如果对角线后其自由度可以为 8。
对此我们可以进行归纳:拉普拉斯算子是所有自由度上进行微小变化后所获得的增益。
我们将其推广到网络图中,考虑有 N 个节点的网络图,其自由度最大为 N,那么函数 f f f 可以是 N 维的向量,即:
f = ( f 1 , . . . , f N ) f = (f_1,...,f_N) \\ f=(f1,...,fN)
其中, f i f_i fi 表示函数 f f f 在网络图中节点 i 处的函数值,类比 f ( x , y ) f(x,y) f(x,y) 为函数 f f f 在 (x,y) 的函数值。
在网络图中,两个节点的之间的增益为 f i − f j f_i-f_j fi−fj,考虑加权图则有 w i j ( f i − f j ) w_{ij}(f_i-f_j) wij(fi−fj) ,那么对于节点 i 来说,总增益即为拉普拉斯算子在节点 i 的值:
Δ f i = ∑ j ∈ N i ∂ f i ∂ j 2 ≈ ∑ j w i j ( f i − f j ) = ∑ j w i j ( f i − f j ) = ( ∑ j w i j ) f i − ∑ j w i j f j = d i f i − w i : f i \begin{aligned} \Delta \boldsymbol{f}_i &= \sum_{j \in N_i} \frac{\partial f_i}{\partial j^2} \\ & \approx \sum_{j} w_{ij} (f_i - f_j) \\ &= \sum_{j} w_{ij} (f_i - f_j) \\ &= (\sum_{j} w_{ij}) f_i - \sum_j w_{ij} f_j \\ &=d_if_i - w_{i:}f_i \\ \end{aligned} \\ Δfi=j∈Ni∑∂j2∂fi≈j∑wij(fi−fj)=j∑wij(fi−fj)=(j∑wij)fi−j∑wijfj=difi−wi:fi
其中, d i = ∑ j ∈ N i w i j d_i=\sum_{j\in N_i} w_{ij} di=∑j∈Niwij 为节点 i 的度;上式第二行去掉了 j ∈ N i j\in N_{i} j∈Ni 是因为 w i j w_{ij} wij 可以控制节点 i 的邻接矩阵。
对于任意 i ∈ N i\in N i∈N 都成立,所以我们有:
KaTeX parse error: Undefined control sequence: \matrix at position 41: …a {f} =\left( {\̲m̲a̲t̲r̲i̲x̲{ {\Delta {f_1}…
自此,我们便给出了图拉普拉斯矩阵的推导过程,这个公式的全称为:图拉普拉斯算子作用在由图节点信息构成的向量 f f f 上得到的结果等于图拉普拉斯矩阵和向量 f f f 的点积。拉普拉斯矩阵反映了当前节点对周围节点产生扰动时所产生的累积增益,直观上也可以理解为某一节点的权值变为其相邻节点权值的期望影响,形象一点就是拉普拉斯矩阵可以刻画局部的平滑度。
拉普拉斯矩阵的谱分解就是矩阵的特征分解:
L u k = λ k u k \mathbf{Lu_k} = \lambda_k \mathbf{ u_k}\\ Luk=λkuk
对于无向图来说,拉普拉斯矩阵是实对称矩阵,而实对称矩阵一定可以用正交矩阵进行正交相似对角化:
L = U Λ U − 1 \mathbf{L}=\mathbf{U} \mathbf{\Lambda} \mathbf{U}^{-1} \\ L=UΛU−1
其中, Λ \mathbf{\Lambda} Λ 为特征值构成对角矩阵, U \mathbf{U} U 为特征向量构成的正交矩阵。
又因为正交矩阵的逆等于正交矩阵的转置: U − 1 = U T \mathbf{U}^{-1} = \mathbf{U}^{T} U−1=UT ,所以我们有:
L = U Λ U − 1 = U Λ U T \mathbf{L}=\mathbf{U} \mathbf{\Lambda} \mathbf{U}^{-1} =\mathbf{U} \mathbf{\Lambda} \mathbf{U}^{T} \\ L=UΛU−1=UΛUT
因为 L 是半正定矩阵,我们还可以有:
f T L f = f T D f − f T W f = ∑ i d i f i 2 − ∑ i , j f i f j w i j = 1 2 ( ∑ i d i f i 2 − 2 ∑ i j f i f j w i j + ∑ i d i f i 2 ) = 1 2 ∑ i , j w i j ( f i − f j ) 2 \begin{aligned} f^T \mathbf{L} f &= f^TDf - f^TWf \\ &=\sum_id_if_i^2 - \sum_{i,j} f_i f_j w_{ij} \\ &=\frac{1}{2}\big(\sum_i d_i f_i^2-2\sum_{ij}f_i f_j w_{ij} + \sum_id_i f_i^2 \big) \\ &= \frac{1}{2}\sum_{i,j} w_{ij} (f_i - f_j)^2 \\ \end{aligned} \\ fTLf=fTDf−fTWf=i∑difi2−i,j∑fifjwij=21(i∑difi2−2ij∑fifjwij+i∑difi2)=21i,j∑wij(fi−fj)2
其中, f i f_i fi 为节点 i 的信号。我们称 $f^T \mathbf{L} f $ 为图信号的总变差(Total Variation),可以刻画图信号整体的平滑度。
拉普拉斯的谱分解具有以下几点性质:
有同学看到这可能会感到疑问了:我们刚介绍傅立叶变换,现在又介绍拉普拉斯谱分解的,到底想干嘛。
这是因为:傅立叶分析是拉普拉斯谱分析的一个特例!想不到吧,是不是很震惊?
我们来证明下,首先考虑亥姆霍兹方程(Helmholtz Equation):
∇ 2 f = − k 2 f {\nabla} ^ {2} f = -k ^ {2} f \\ ∇2f=−k2f
其中, ∇ 2 \nabla^2 ∇2 为拉普拉斯算子, f f f 为特征函数, − k 2 -k^2 −k2 为特征值。
看不懂不要紧,把它当成广义特征方程就行: A x = λ x \mathbf{A}x=\lambda x Ax=λx,狭隘的特征方程只能用于处理向量和矩阵,而这个可以用于处理函数,最经典的应用是处理波动方程和扩散方程,所以我们可以用它处理信号。
回顾一下傅立叶变换:
F T ( ω ) = ∫ − ∞ + ∞ f ( t ) e − i ω t d t \mathcal{F}_T(\omega) = \int_{-\infty}^{+\infty} f(t)e^{-i\omega t} dt \\ FT(ω)=∫−∞+∞f(t)e−iωtdt
其实就是信号函数 f ( t ) f(t) f(t) 与基函数 e − i w t e^{-iwt} e−iwt 的内积(刚刚介绍过函数内积)。
对于基函数 $ e^{-iwt} $,我们让其与拉普拉斯算子求内积:
∇ 2 e − i ω t = ∂ e − i ω t ∂ t 2 = − ω 2 e − i ω t \nabla^{2} e^{-i\omega t} = \frac{\partial e^{-i\omega t}}{\partial t^2} = -\omega^2 e^{-i\omega t} \\ ∇2e−iωt=∂t2∂e−iωt=−ω2e−iωt
以上便证明 e − i ω t e^{-i\omega t} e−iωt 是拉普拉斯算子的特征函数,同时也证明了离散傅立叶变换是拉普拉斯谱分析的一个特例。
写到这我们有以下线索:首先拉普拉斯矩阵(离散拉普拉斯算子)可以应用在图像上,理论上也可以应用到网络上,而傅立叶变换是拉普拉斯的一个小弟,所以小弟也可以应用到图上。
回顾下拉普拉斯谱分析:
L u k = λ k u k \mathbf{Lu_k} = \lambda_k \mathbf{ u_k}\\ Luk=λkuk
我们类比一下:
信号中的傅立叶变换 | 网络图中的傅立叶变换 |
---|---|
频率 $\omega $ | 特征值 $\lambda_k $ |
正交基中某个向量 e i w t e^{iwt} eiwt | 正交矩阵中的某个向量 $\mathbf{u_k} $ |
是不是长得非常像,所以我们也有了网络图上的傅立叶变换:
F T ( λ k ) = f ^ k = ∑ i = 1 N f ( i ) u k ( i ) \mathcal{ F}_T(\lambda_k) = \hat f_k=\sum_{i=1}^N f(i) u_{k}(i) \\ FT(λk)=f^k=i=1∑Nf(i)uk(i)
其中, f k = ( f k ( i ) , . . . , f k ( n ) ) f_k=(f_k(i),...,f_k(n)) fk=(fk(i),...,fk(n)) 为网络图上的 n 维向量, f k ( i ) f_k(i) fk(i) 表示网络中的节点 i 的第 k 个分量, u k ( i ) u_{k}(i) uk(i) 表示特征向量 k 的第 i 个分量。做个类比解释:特征值(频率) λ k \lambda_k λk 下, f f f 的图傅立叶变换(振幅)等于 f f f 与 λ x \lambda_x λx 对应的特征向量 $\mathbf{u_k} $ 的内积。
考虑矩阵乘法:
KaTeX parse error: Undefined control sequence: \matrix at position 40: …at f} =\left( {\̲m̲a̲t̲r̲i̲x̲{ {{\hat f_1}} …
所以我们得到了图傅立叶变换的矩阵形式,这里的 U \mathbf{U} U 为拉普拉斯谱分解的正交矩阵。
我们也可以得到傅立叶逆变换:
f = U U − 1 f = U U T f = U f ^ f = \mathbf{U}\mathbf{U}^{-1}f = \mathbf{U}\mathbf{U}^{T}f = \mathbf{U}\hat f \\ f=UU−1f=UUTf=Uf^
前面的铺垫很多,终于要迎来 GCN 了。
我们先来看一下卷积的定义,卷积是指通过两个函数 f f f 和 g g g 生成第三个函数的一种数学算子,表征函数 f f f 与经过翻转和平移的 g g g 的乘积函数所围成的曲边梯形的面积:
( f ∗ g ) ( t ) = d e f ∫ R n f ( τ ) g ( t − τ ) d τ (f*g)(t)\ \ \,{\stackrel {\mathrm {def} }{=}}\ \int _{\mathbb {R} ^{n}}f(\tau )g(t-\tau )\,d\tau \\ (f∗g)(t) =def ∫Rnf(τ)g(t−τ)dτ
放两张动图感受一下:
对于离散卷积来说,我们可以定义为:
( f ∗ g ) [ n ] = ∑ m = − ∞ ∞ f [ m ] g [ n − m ] = ∑ m = − ∞ ∞ f [ n − m ] g [ m ] (f*g)[n]\ =\sum _{m=-\infty }^{\infty }{f[m]g[n-m]} =\sum _{m=-\infty }^{\infty }f[n-m]\,g[m] (f∗g)[n] =m=−∞∑∞f[m]g[n−m]=m=−∞∑∞f[n−m]g[m]
计算卷积有很多种方法,除了直接计算外,我们还可以考虑卷积定理:在适当条件下,两个信号的卷积的傅立叶变换是他们的傅立叶变换的点积。换句话说,一个域(如时域)的卷积等于另一个域(如频域)的点乘:
F { f ∗ g } = F { f } ⋅ F { g } \mathcal{F}\{f*g\} = \mathcal{F}\{f\} \cdot \mathcal{F}\{g\} \\ F{f∗g}=F{f}⋅F{g}
其中 F ( f ) \mathcal{F}(f) F(f) 表示 f f f 的傅立叶变换。
借助傅立叶逆变换 F − 1 \mathcal{F}^{-1} F−1 可以写成:
f ∗ g = F − 1 { F { f } ⋅ F { g } } f*g= \mathcal{F}^{-1}\big\{\mathcal{F}\{f\}\cdot\mathcal{F}\{g\}\big\} \\ f∗g=F−1{F{f}⋅F{g}}
这样做有什么好处呢?或者说,我们为什么要变换一个域后再去做卷积操作?
因为利用卷积定理可以简化卷积的运算量。对于一个长度为 n 的序列,按照卷积的定义来计算则需要做 2n-1 组对位乘法,即时间复杂度为 o ( n 2 ) o(n^2) o(n2) ;而利用傅立叶变换后,只需要计算一组对位乘法,而且离散傅立叶变换有快速的算法(快速傅立叶变换),所以总的计算复杂度为 O ( n l o g ( n ) ) O(nlog(n)) O(nlog(n)) 。
现在有了图傅立叶变换,又有了离散卷积操作,那么我们想:既然无法直接在空域进行卷积,可否将图信号映射到频域后再做卷积操作。
所以我们有:
( f ∗ h ) G = F − 1 [ F { f } ⋅ F { h } ] = F − 1 [ U T f ⋅ h ^ ] \begin{aligned} (f*h)_{G} &= \mathcal{F}^{-1}[\mathcal{F}\{ f\} \cdot \mathcal{F}\{ h \} ] \\ &= \mathcal{F}^{-1}[\mathbf{U}^T f \cdot \hat h ] \\ \end{aligned} \\ (f∗h)G=F−1[F{f}⋅F{h}]=F−1[UTf⋅h^]
其中,向量 f ^ \hat f f^ 与向量 h ^ \hat h h^ 的元素点积,等价于将 h ^ \hat h h^ 组织成对角矩阵的形式进行矩阵乘法,所以我们有:
( f ∗ h ) G = F − 1 [ U T f ⋅ h ^ ] = F − 1 [ d i a g [ h ^ 1 , . . . , h ^ n ] U T f ] \begin{aligned} (f*h)_{G} &= \mathcal{F}^{-1}[\mathbf{U}^T f \cdot \hat h ] \\ &= \mathcal{F}^{-1}[ diag[\hat h_1,...,\hat h_n] \mathbf{U}^T f ] \\ \end{aligned} \\ (f∗h)G=F−1[UTf⋅h^]=F−1[diag[h^1,...,h^n]UTf]
最后我们再左乘 U \mathbf{U} U 进行逆变换:
( f ∗ h ) G = U d i a g [ h ^ 1 , . . . , h ^ n ] U T f \begin{aligned} (f*h)_{G} & = \mathbf{U}{ diag[\hat h_1,...,\hat h_n ]}\mathbf{U}^T{ f}\\ \end{aligned} \\ (f∗h)G=Udiag[h^1,...,h^n]UTf
这里,我们不写成 h ^ = U T h \hat{h}= \mathbf{U}^T h h^=UTh 的主要原因在于,我们可以将其与深度学习相结合,在 GCN 中我们的卷积核是可训练并且参数共享的,所以在此我们可以直接将 $diag[\hat h_1,…,\hat h_n ] $ 写成 d i a g [ θ 1 , . . . , θ n ] diag[\theta_1,...,\theta_n ] diag[θ1,...,θn],这个便是深度学习中的可学习参数。
第一代的卷积神经网络也就是刚刚我们给出的公式:
y = σ ( U g θ U T x ) = σ ( U d i a g [ θ 1 , . . . , θ n ] U T x ) y =\sigma(\mathbf{U}g_{\theta}\mathbf{U}^Tx ) =\sigma(\mathbf{U}{ diag[\theta_1,...,\theta_n ]}\mathbf{U}^T{x}) \\ y=σ(UgθUTx)=σ(Udiag[θ1,...,θn]UTx)
这和论文中给出的公式是一样的:
x k + 1 , j = h ( V ∑ i = 1 f k − 1 F k , i , j V T x k , i ) x_{k+1,j} = h\big( V \sum_{i=1}^{f_{k-1}}F_{k,i,j}V^{T}x_{k,i} \big) \\ xk+1,j=h(Vi=1∑fk−1Fk,i,jVTxk,i)
这边补充一点,在这篇论文中,作者还给出了一个基于空域的深度局部连接网络(Deep Locally Connected Networks),我们可以简单看一下:
每一层变换定义为:
x k + 1 , j = L k h ( ∑ i = 1 f k − 1 F k , i , j x k , i ) j = 1 , . . , f k x_{k+1,j}= L_k h\big( \sum_{i=1}^{f_{k-1}}F_{k,i,j}x_{k,i} \big) \quad j=1,..,f_k \\ xk+1,j=Lkh(i=1∑fk−1Fk,i,jxk,i)j=1,..,fk
其中, x k , j x_{k,j} xk,j 表示第 k 第 i 个节点; F k , i , j F_{k,i,j} Fk,i,j 表示第 k 层节点 i 和节点 j 的权值,考虑局部邻居; h ( ⋅ ) h(\cdot) h(⋅) 表示卷积运算; L k L_k Lk 表示第 k 层的池化操作。也就是说每个节点都是由其邻居和自身卷积池化得到。
虽然看起来很简单,但是优点在于它不需要很强的前提假设,其只需要网络具有局部邻域结构,甚至不需要很好的 Embedding 向量。
但这种结构下有一个很大的缺点:没有办法实现共享参数。
作者针对这种问题提出了我们所看到第一代图卷积神经网络。
第一代的图卷积神经网络很巧妙的利用图谱理论来实现拓扑图的卷积操作,但其有很多缺点,比如说:计算复杂度太高,我们需要对拉普拉斯矩阵进行谱分解得到特征向量矩阵 U \mathbf U U,时间复杂度为 O ( n 3 ) O(n^3) O(n3) ;
针对这个问题,学者提出了第二代 GCN。
首先我们回顾下图傅立叶变换:
F T ( λ k ) = g ^ k = ∑ i = 1 N g ( i ) u k ( i ) \mathcal{ F}_T(\lambda_k) = \hat g_k = \sum_{i=1}^N g(i) u_{k}(i) \\ FT(λk)=g^k=i=1∑Ng(i)uk(i)
可以看到这是一个和特征值密切相关的函数,我们不妨将 g θ g_\theta gθ 写成拉普拉斯矩阵 L 的特征值函数 g θ ( Λ ) g_{\theta}(\Lambda) gθ(Λ):
y = σ ( U g θ U T x ) = σ ( U g θ ( Λ ) U T x ) y =\sigma(\mathbf{U} g_{\theta} \mathbf{U}^T x ) =\sigma(\mathbf{U}{g_\theta(\Lambda) }\mathbf{U}^T{x}) \\ y=σ(UgθUTx)=σ(Ugθ(Λ)UTx)
然后这个卷积核有两个局限性:
为了克服这个缺点,我们引入 K 阶多项式:
g θ ( Λ ) ≈ ∑ k = 0 K − 1 θ k Λ k g_{\theta}(\Lambda) \approx \sum_{k=0}^{K-1} \theta_k \Lambda^k \\ gθ(Λ)≈k=0∑K−1θkΛk
其中,参数 θ k ∈ R K \theta_k \in {R}^K θk∈RK 是多项式系数,这样滤波器就具有了 K 阶局部性了,复杂度也降低到 O ( K ) O(K) O(K)。
我们将这个公式带入卷积运算中:
y = σ ( U g θ ( Λ ) U T x ) = σ ( U ∑ k = 0 K − 1 θ k Λ k U x ) = σ ( ∑ k = 0 K − 1 θ k L k x ) y =\sigma(\mathbf{U}{g_\theta(\Lambda) }\mathbf{U}^T{x}) =\sigma(\mathbf{U}\sum_{k=0}^{K-1} \theta_k \Lambda^k\mathbf{U} x) = \sigma(\sum_{k=0}^{K-1}\theta_k L^k x) \\ y=σ(Ugθ(Λ)UTx)=σ(Uk=0∑K−1θkΛkUx)=σ(k=0∑K−1θkLkx)
此时,我们计算图卷积运算就不需要再乘上特征向量矩阵 U \mathbf{U} U,而是直接使用拉普拉斯矩阵 L 的 k 次方,这样就避免了进行特征分解。而我们可以事先计算好 L k L^k Lk ,这样就只需要计算矩阵相乘。同时由于 L 为稀疏矩阵,所以时间复杂度为 O ( K ∣ E ∣ ) O(K|E|) O(K∣E∣), ∣ E ∣ |E| ∣E∣ 为节点边数。
此外,作者还引入了切比雪夫展开式来近似 L k L^k Lk。
设 T k ( x ) T_{k}(x) Tk(x) 为切比雪夫多项式的第 k 阶式子,切比雪夫多项式的递归式为: T k ( x ) = 2 x T k − 1 ( x ) − T k − 2 ( x ) , T 0 ( x ) = 1 , T 1 ( x ) = x T_{k}(x) = 2xT_{k-1}(x) - T_{k-2}(x), \; T_{0}(x) =1, \;T_{1}(x)=x Tk(x)=2xTk−1(x)−Tk−2(x),T0(x)=1,T1(x)=x。所以我们有:
g θ ( Λ ) ≈ ∑ k = 0 K − 1 θ k T k ( Λ ~ ) g_{\theta}(\Lambda) \approx \sum_{k=0}^{K-1} \theta_k T_k(\widetilde \Lambda) \\ gθ(Λ)≈k=0∑K−1θkTk(Λ )
其中, Λ ~ = 2 λ m a x Λ − I N \widetilde \Lambda = \frac{2}{\lambda_{max}}\Lambda - I_N Λ =λmax2Λ−IN ; λ m a x \lambda_{max} λmax 是指拉普拉斯矩阵 L 的最大值。
这是因为切比雪夫多项式的输入要在 [ − 1 , 1 ] [-1,1] [−1,1] 之间,由于拉普拉斯矩阵的半正定性,所以所有的特征值都是大于等于 0 的,将其除以最大特征值可以将特征压缩到 [ 0 , 1 ] [0,1] [0,1] 区间内,现在需要将其压缩到 [ − 1 , 1 ] [-1, 1] [−1,1],所以我们有: Λ ~ = 2 Λ / λ m a x − I \widetilde \Lambda = 2\Lambda/\lambda_{max}-I Λ =2Λ/λmax−I
我们将切比雪夫多项式引入到我们的卷积变换中:
g θ ∗ x ≈ ∑ k = 0 K − 1 θ k T k ( L ~ ) x g_{\theta}*x \approx \sum_{k=0}^{K-1} \theta_k T_k (\widetilde L) x \\ gθ∗x≈k=0∑K−1θkTk(L )x
其中, L ~ = 2 λ m a x L − I N \widetilde L = \frac{2}{\lambda_{max}}L - I_N L =λmax2L−IN 。这个表达式为拉普拉斯多项式中的一个 k 阶近似函数,依赖于节点的 k 阶邻域(走 k 步能到的邻居),时间复杂度与边呈线形相关。
第二代 GCN 解决了图卷机要求特征分解的问题,但是在计算图卷积操作时,依然每次都要进行矩阵乘法,时间复杂度为 O ( n 2 ) O(n^2) O(n2) ,于是学者继续优化。
我们把上式拿下来:
g θ ∗ x ≈ ∑ k = 0 K − 1 θ k T k ( L ~ ) x g_{\theta}*x \approx \sum_{k=0}^{K-1} \theta_k T_k (\widetilde L) x \\ gθ∗x≈k=0∑K−1θkTk(L )x
GCN 通过上式的多层卷积层进行叠加,而每层都会逐点进行非线性叠加,考虑到时间复杂度问题,学者直接取 K=2,也就是说得到了一个拉普拉斯算子的二阶近似函数。这样我们既可以对网络进行卷积操作,又不会引入太多的切比雪夫系数。而且这样的线形运算允许我们构建更深的网路,提高模型的建模能力。
我们知道归一化的拉普拉斯矩阵的特征值区间为 [0, 2],进一步近似 λ m a x = 2 \lambda_{max}=2 λmax=2,所以我们有新的表达式:
g θ ∗ x ≈ θ 0 x + θ 1 ( L − I N ) x = θ 0 x − θ 1 D ~ − 1 2 A ~ D ~ − 1 2 x g_{\theta}*x \approx \theta_0 x + \theta_1 (L - I_N) x = \theta_0 x - \theta_1\widetilde D ^{-\frac{1}{2}} \widetilde A \widetilde D^{-\frac{1}{2}} x \\ gθ∗x≈θ0x+θ1(L−IN)x=θ0x−θ1D −21A D −21x
其中, θ 0 , θ 1 \theta_0,\theta_1 θ0,θ1 为切比雪夫系数的向量,是仅有的两个参数。
在实际训练过程中,我们需要规范化参数来避免过拟合,所以我们令 θ = θ 0 ′ = − θ 1 ′ \theta = \theta_0^{'} = - \theta_1^{'} θ=θ0′=−θ1′,从而有:
g θ ⋆ x ≈ θ ( I N + D − 1 2 A D − 1 2 ) x g_{\theta} \star x \approx \theta(I_{N}+D^{-\frac{1}{2}} A D^{-\frac{1}{2}}) x \\ gθ⋆x≈θ(IN+D−21AD−21)x
需要注意的是, I N + D − 1 2 A D − 1 2 I_{N}+D^{-\frac{1}{2}} A D^{-\frac{1}{2}} IN+D−21AD−21 的特征值范围在 [0, 2] 之间,所以如果在很深的网络中会引起梯度爆炸的问题,所以我们需要再次对他进行一次归一化(原文也称 renormalization trick):
I N + D − 1 2 A D − 1 2 → D − 1 2 A D − 1 2 I_{N}+D^{-\frac{1}{2}} A D^{-\frac{1}{2}} \rightarrow D^{-\frac{1}{2}} A D^{-\frac{1}{2}} \\ IN+D−21AD−21→D−21AD−21
我们把这个公式从标量推广到矩阵,对于输入节点的向量 $X \in R^{N\times C} $ ,其中 N 为节点数,C 为节点的特征向量维度,我们有:
Z = D − 1 2 A D − 1 2 X Θ Z = D^{-\frac{1}{2}} A D^{-\frac{1}{2}} X \Theta \\ Z=D−21AD−21XΘ
其中,$\Theta \in R^{C\times F} $ 是滤波器的参数矩阵,$Z \in R^{N\times F} $ 是卷积后的信号矩阵,时间复杂度为 O ( ∣ E ∣ F C ) O(|E|FC) O(∣E∣FC) 。节点的向量可以通过卷积操作从 C 维度 转变为 F 维度。
依据上面的单层运算,我们给出了多层图卷积网络的传播规则:
H ( l + 1 ) = σ ( D ~ − 1 2 A ~ D ~ − 1 2 H ( l ) W ( l ) ) H^{(l+1)} = \sigma (\widetilde D ^{-\frac{1}{2}} \widetilde A \widetilde D^{-\frac{1}{2}} H^{(l)}W^{(l)} ) \\ H(l+1)=σ(D −21A D −21H(l)W(l))
其中, A ~ = A + I N \widetilde A = A + I_N A =A+IN ,A 为邻接矩阵, I N I_N IN 为单位矩阵,所以 A ~ \widetilde A A 为添加自连接的邻接矩阵;$\widetilde D_{ii} = \sum_j \widetilde A_{ij} $ , D ~ \widetilde D D 可以理解为对角线为节点 i 的度数矩阵; W ( l ) W^{(l)} W(l) 为神经网络第 l l l 层的权重矩阵; σ ( ⋅ ) \sigma(\cdot) σ(⋅) 是激活函数;$H^{(l)} \in R^{N\times D} $ 是第 l l l 层的激活矩阵,并且 H ( 0 ) = X H^{(0)} = X H(0)=X , X X X 是由节点 x i x_i xi 的特征向量组成矩阵。
到此,便完成了 GCN 卷积操作的公式推导。
再来关注一下模型。
图卷积神经网络是指在图结构中做卷积操作的神经网络,所以其输入输出的都是图结构,区别于传统的神经网络结构,其隐藏层是直接在图结构中进行激活:
为了方便理解,我们举个分类任务例子,以包含一个隐藏层的 GCN 为例:
由于知道了 GCN 的传播规则,所以我们有最终的结果:
Z = f ( X , A ) = S o f t m a x ( A ^ R e L U ( A ^ X W ( 0 ) ) W ( 1 ) ) Z = f(X,A) = Softmax\big(\hat A \; ReLU(\hat A X W^{(0)} ) W^{(1)}\big) \\ Z=f(X,A)=Softmax(A^ReLU(A^XW(0))W(1))
其中, W ( 0 ) ∈ R C × H W^{(0)} \in R^{C\times H} W(0)∈RC×H 是输入层到隐藏层的权重, W ( 1 ) ∈ R H × F W^{(1)}\in R^{H\times F} W(1)∈RH×F 是隐藏层到输出层的权重;用 Softmax 是因为这是一个节点分类任务,需要预测标签。
然后,我们用交叉熵作为代价函数:
L = − ∑ l ∈ y L ∑ f = 1 F Y l f l n Z l f L = -\sum_{l\in y_L} \sum_{f=1}^F Y_{lf}\; ln\; Z_{lf} \\ L=−l∈yL∑f=1∑FYlflnZlf
其中, y L y_L yL 为有标签的节点集合。
有了代价函数后,我们可以通过梯度下降来更新网络的参数。
简单看下第三代 GCN 的试验。
由于 GCN 比较复杂,所以这里我将给出两种实验,一种是 GCN 的效果实验,另一种是模拟 GCN 运行的实验。
我们来看一下实验部分,GCN 与其他模型的对比:
可以看到 GCN 的结果在不同数据集上都取得了非常好的效果,远超其他模型。
我们再看一下,对于 GCN 而言不同程度的近似会有什么样的效果:
可以看到并不是模型越复杂效果越好。
GCN 还有除了训练后模型精度高外,还有两个非常硬核的地方,即使不训练,直接随机参数也可以获得不错的效果,下图展示了在某一数据集下随机赋权值的结果:
另外,作为半监督学习,GCN 可以在只标注少量样本的情况下学得出色的效果,下图为每个类别只标注一个样本的分类结果:
为了更加形象的理解 GCN,我们来对 GCN 进行模拟。
首先,以一个简单有向图模型为例:
邻接矩阵 A 和 节点的特征向量 X 为:
KaTeX parse error: Unknown column alignment: 1 at position 29: …\begin{array}{c1̲} 0, 1, 0,…
我们有一个简单的传播规则(不考虑参数矩阵和激活函数):
KaTeX parse error: Unknown column alignment: 1 at position 63: …\begin{array}{c1̲} 1, -1\\ …
可以看到节点的特征变成了其邻居的特征之和!
但这边也就一些小问题:
为了解决这个问题,我们需要:
我们先看下加上单位矩阵的效果:
KaTeX parse error: Unknown column alignment: 1 at position 45: …\begin{array}{c1̲} 1, -1 \\…
可以看到,加上单位矩阵的计算考虑了节点的特征。
再看下邻接矩阵归一化的效果:
$$
f(A,X) = D^{-1} A X=
\left [ \begin{array}{c1}
1, 0, 0, 0 \
0, 2, 0, 0 \
0, 0, 2, 0 \
0, 0, 0, 1 \
\end{array} \right]^{-1}
\left [ \begin{array}{c1}
0, 1, 0, 0 \
0, 0, 1, 1 \
0, 1, 0, 0 \
1, 0, 1, 0 \
\end{array} \right]
\left [ \begin{array}{c1}
0, 0\
1, -1 \
2, -2\
3, -3
\end{array} \right] =
\left [ \begin{array}{c1}
0, 1, 0, 0 \
0, 0, 0.5, 0.5 \
0, 0.5, 0, 0 \
0.5, 0, 0.5, 0 \
\end{array} \right]
\left [ \begin{array}{c1}
0, 0\
1, -1 \
2, -2\
3, -3
\end{array} \right] =
\left [ \begin{array}{c1}
1, -1\
2.5, -2.5 \
0.5, -0.5\
2, -2
\end{array} \right] \
$$
邻接矩阵被归一化到 0 到 1 之间。
我们将两个放在一起,并考虑参数矩阵 W:
KaTeX parse error: Unknown column alignment: 1 at position 29: …\begin{array}{c1̲} 1, -1\\ …
所以我们有:
KaTeX parse error: Unknown column alignment: 1 at position 81: …\begin{array}{c1̲} 1, -1\\ …
以上便完成了 GCN 的简单仿真。
我们回过头来再来看一下网络的传播规则:
H ( l + 1 ) = σ ( D ~ − 1 2 ( A + I N ) D ~ − 1 2 H ( l ) W ( l ) ) H^{(l+1)} = \sigma (\widetilde D ^{-\frac{1}{2}}(A+I_N) \widetilde D^{-\frac{1}{2}} H^{(l)}W^{(l)} ) \\ H(l+1)=σ(D −21(A+IN)D −21H(l)W(l))
现在是不是更能明白为什么这么传播了?
这里解释一下归一化为什么是两边乘上矩阵的 -1/2 次方。
这是因为对称归一化的拉普拉斯矩阵其元素定义为:
L i j = { 1 i f i = j a n d d e g ( v i ) ≠ 0 − 1 d e g ( v i ) d e g ( v j ) i f i ≠ j a n d v i i s a d j a c e n t t o v j 0 o t h e r w i s e L_{ij} = \left\{ \begin{aligned} & 1 \quad\quad \quad \quad \quad \quad \quad \quad \quad if \; i=j \; and \;deg(v_i) \neq0 \\ & -\frac{1}{\sqrt{deg(v_i)deg(v_j)}} \quad if \; i\neq j \; and \; v_i \; is \; adjacent \;to \; v_j \\ &0 \quad\quad \quad \quad \quad \quad \quad \quad \quad otherwise \end{aligned} \right. Lij=⎩⎪⎪⎪⎨⎪⎪⎪⎧1ifi=janddeg(vi)=0−deg(vi)deg(vj)1ifi=jandviisadjacenttovj0otherwise
我们仿真模拟的是用加权求和取平均的方式来聚合,而作者采用的是拉普拉斯变换。我这边做一个化简大家可能个就会明白了:
f ( A , X ) i = D − 1 2 A i D − 1 2 = ∑ k = 1 N D i , k − 0.5 ∑ j = 1 N A i , j ∑ l = 1 N D i , l − 0.5 X j = ∑ j = 1 N D i , i − 0.5 A i , j D j , j − 0.5 X j = ∑ j = 1 N A i , j D i , i D j , j X j \begin{aligned} f(A,X)_i &= D ^{-\frac{1}{2}}A_i D^{-\frac{1}{2}} \\ &= \sum_{k=1}^N D_{i,k}^{-0.5} \sum_{j=1}^N A_{i,j} \sum_{l=1}^N D_{i,l}^{-0.5} X_j\\ &= \sum_{j=1}^N D_{i,i}^{-0.5} A_{i,j} D_{j,j}^{-0.5} X_j\\ &= \sum_{j=1}^N \frac{A_{i,j}}{\sqrt{D_{i,i}}\sqrt{D_{j,j}}} X_j\\ \end{aligned} f(A,X)i=D−21AiD−21=k=1∑NDi,k−0.5j=1∑NAi,jl=1∑NDi,l−0.5Xj=j=1∑NDi,i−0.5Ai,jDj,j−0.5Xj=j=1∑NDi,iDj,jAi,jXj
区别于加权求和取平均的方式,拉普拉斯变换不但考虑当前节点的 i 的度,还考虑其他节点 j 的度。
GCN 的入门文章就介绍完了,大致思路为:CNN 中的卷积无法直接应用于网络图中,所以引出了图信号处理(Graph Signal Processing)中的 Graph Fourier Transformation,进而定义 Graph Convolution,最后结合深度学习发展出来 GCN。
关注公众号跟踪最新内容:阿泽的学习笔记。