前面废点话:
终于!来到了GNN最相关的内容!前面四章来说都是一些预备知识,或者说是介绍性的认识的东西,其实和GNN的关系不是特别大。但从这一章开始一上来就是GNN最核心的东西:图信号处理。这部分其实非常关键,但大部分人学的时候可能都会忽视这一点,认为自己可以直接进入GCN的部分,这是错误的。入门GCN最劝退的地方其实就是拉普拉斯和傅里叶变换那里,当然没懂的话也可以对着DGL或者PyG这两个轮子几行代码就写出来几个GCN,但轮子得来终觉浅,个人认为作为开山的论文,GCN的思想还是很重要的,所以这一章的读书笔记会做的比之前都详细,尽量能写出自己的理解。
夯实基础!什么叫夯实基础!矩阵乘法确实是整个机器学习的重中之重,所以我们先从最基础的开始看起。
对于矩阵 A ∈ R K × M , B ∈ R M × P , C = A B A \in R^{K\times M},B\in R^{M\times P},C=AB A∈RK×M,B∈RM×P,C=AB,我们有三种计算方式:
我们设 A = [ 1 − 1 2 0 2 1 ] , B = [ 2 0 − 1 1 0 − 1 ] A=\begin{bmatrix}1&-1&2\\0&2&1\end{bmatrix},B=\begin{bmatrix}2&0\\-1&1\\0&-1\end{bmatrix} A=[10−1221],B=⎣⎡2−1001−1⎦⎤。
进行矩阵乘法当然是简单的,也就是用传统的内积视角,很容易得到 C = [ 3 − 3 − 2 1 ] C=\begin{bmatrix}3&-3\\-2&1\end{bmatrix} C=[3−2−31]。
如果我们用行向量的视角,则有 C C C的第一行: [ 3 − 3 ] = [ 1 − 1 2 ] [ 2 0 − 1 1 0 − 1 ] \begin{bmatrix}3&-3\end{bmatrix}=\begin{bmatrix}1&-1&2\end{bmatrix}\begin{bmatrix}2&0\\-1&1\\0&-1\end{bmatrix} [3−3]=[1−12]⎣⎡2−1001−1⎦⎤。
如果我们用列向量的视角,则有 C C C的第一列: [ 3 − 2 ] = [ 1 − 1 2 0 2 1 ] [ 2 − 1 0 ] \begin{bmatrix}3\\-2\end{bmatrix}=\begin{bmatrix}1&-1&2\\0&2&1\end{bmatrix}\begin{bmatrix}2\\-1\\0\end{bmatrix} [3−2]=[10−1221]⎣⎡2−10⎦⎤。
需要注意的特别是行视角的计算方式对理解空域图卷积的计算逻辑与意义有很大帮助。
图 G = ( V , E ) G=(V,E) G=(V,E),假设共有 N N N个节点,图信号是一种描述 V → R V\to R V→R的映射,表示成向量 x = [ x 1 , x 2 , . . . , x N ] T x=[x_1,x_2,...,x_N]^T x=[x1,x2,...,xN]T,其中 x i x_i xi表示在节点 v i v_i vi上的信号强度。
拉普拉斯矩阵定义为 L = D − A L=D-A L=D−A, D D D是一个对角矩阵,对角线元素为节点的度数, A A A则是图的邻接矩阵。
拉普拉斯矩阵中的元素可以表示为
L i j = { deg ( v i ) if i = j − 1 if e i j ∈ E 0 otherwise L_{ij}=\begin{cases}\text{deg}(v_i)&\text{if } i=j \\ -1&\text{if }e_{ij}\in E\\0&\text{otherwise}\end{cases} Lij=⎩⎪⎨⎪⎧deg(vi)−10if i=jif eij∈Eotherwise
拉普拉斯矩阵还有一种正则化的表示(Symmetric Normalized Laplacian) L s y m = D − 1 2 L D − 1 2 L_{sym}=D^{-\frac{1}{2}}LD^{-\frac{1}{2}} Lsym=D−21LD−21,各个元素可以表示为
L s y m [ i , j ] = { 1 if i = j − 1 deg ( v i ) deg ( v j ) if e i j ∈ E 0 otherwise L_{s ym}[i,j]=\begin{cases}1&\text{if } i=j \\ \frac{-1}{\sqrt{\text{deg}(v_i)\text{deg}(v_j)}}&\text{if }e_{ij}\in E\\0&\text{otherwise}\end{cases} Lsym[i,j]=⎩⎪⎪⎨⎪⎪⎧1deg(vi)deg(vj)−10if i=jif eij∈Eotherwise
很关键!GCN用的就是这个。
那么拉普拉斯矩阵是怎么来的呢?
考虑拉普拉斯算子: Δ f = Σ i = 1 n ∂ 2 f ∂ x i 2 \Delta f=\Sigma^n_{i=1}\frac{\partial^2f}{\partial x_i^2} Δf=Σi=1n∂xi2∂2f,将其作用到离散的二维图像空间里,就能得到边缘检测算子:
Δ f ( x , y ) = ∂ 2 f ( x , y ) ∂ x 2 + ∂ 2 f ( x , y ) ∂ y 2 = f ( x + 1 , y ) + f ( x − 1 , y ) + f ( x , y + 1 ) + f ( x , y − 1 ) − 4 f ( x , y ) \Delta f(x,y)=\frac{\partial^2f(x,y)}{\partial x^2}+\frac{\partial^2f(x,y)}{\partial y^2}=f(x+1,y)+f(x-1,y)+f(x,y+1)+f(x,y-1)-4f(x,y) Δf(x,y)=∂x2∂2f(x,y)+∂y2∂2f(x,y)=f(x+1,y)+f(x−1,y)+f(x,y+1)+f(x,y−1)−4f(x,y)
具体的计算过程不赘述,就表明一点:因为是离散的空间,离散函数的导数退化为差分。
矩阵形式的表示为: [ 0 1 0 1 − 4 1 0 1 0 ] \begin{bmatrix}0&1&0\\1&-4&1\\0&1&0\end{bmatrix} ⎣⎡0101−41010⎦⎤。其描述了中心像素与局部上下左右四邻居像素的差异,所以拿来进行边缘检测。
同理对于图信号,拉普拉斯算子也被用来描述中心节点与邻居节点之间的信号差异:
L x = ( D − A ) x = [ . . . , ∑ v j ∈ N ( v i ) ( x i − x j ) , . . . ] Lx=(D-A)x=[...,\sum_{v_j\in N(v_i)}(x_i-x_j),...] Lx=(D−A)x=[...,vj∈N(vi)∑(xi−xj),...]
可以看到我们将拉普拉斯矩阵与图信号相乘后得到的向量中的元素 ( L x ) i (Lx)_i (Lx)i代表的就是 v i v_i vi的信号值乘 v i v_i vi的度数再减掉其邻居的信号值之和。所以拉普拉斯矩阵可以用来刻画图信号的局部平滑度。
进一步可以定义二次型:
x T L x = ∑ e i j ∈ E ( x i − x j ) 2 x^TLx=\sum_{e_{ij}\in E}(x_i-x_j)^2 xTLx=eij∈E∑(xi−xj)2
这个被称为 T V ( x ) TV(x) TV(x),图信号的总变差,是一个反应图信号的整体平滑度的标量。
我们先对拉普拉斯矩阵再进行一些分析:
假设图 G G G的拉普拉斯矩阵有 L ∈ R N × N L\in R^{N\times N} L∈RN×N,由前面的定义很容易知道 L L L是一个实对称矩阵,可以对角化,所以有:
L = V Λ V T = [ ⋮ ⋮ ⋯ ⋮ v 1 v 2 ⋯ v N ⋮ ⋮ ⋯ ⋮ ] [ λ 1 λ 2 ⋱ λ N ] [ ⋯ v 1 ⋯ ⋯ v 2 ⋯ ⋯ ⋮ ⋯ ⋯ v N ⋯ ] L=V\Lambda V^T= \begin{bmatrix} \vdots&\vdots&\cdots&\vdots\\ v_1&v_2&\cdots&v_N\\ \vdots&\vdots&\cdots&\vdots \end{bmatrix} \begin{bmatrix} \lambda_1 &&&\\ &\lambda_2&&\\ &&\ddots&\\ &&&\lambda_N \end{bmatrix} \begin{bmatrix} \cdots&v_1&\cdots\\ \cdots&v_2&\cdots\\ \cdots&\vdots&\cdots\\ \cdots&v_N&\cdots \end{bmatrix} L=VΛVT=⎣⎢⎢⎡⋮v1⋮⋮v2⋮⋯⋯⋯⋮vN⋮⎦⎥⎥⎤⎣⎢⎢⎡λ1λ2⋱λN⎦⎥⎥⎤⎣⎢⎢⎢⎡⋯⋯⋯⋯v1v2⋮vN⋯⋯⋯⋯⎦⎥⎥⎥⎤
V = [ v 1 , . . . , v N ] V=[v_1,...,v_N] V=[v1,...,vN]是 L L L的N个特征向量,且有 V ∈ R N × N V\in R^{N\times N} V∈RN×N是正交矩阵 V V T = I VV^T=I VVT=I。用 λ k \lambda_k λk表示第 k k k个特征向量对应的特征值,并令 λ 1 ≤ λ 2 ≤ . . . ≤ λ N \lambda_1\le\lambda_2\le...\le\lambda_N λ1≤λ2≤...≤λN。
因为前面有 x T L x = ∑ e i j ∈ E ( x i − x j ) 2 ≥ 0 x^TLx=\sum_{e_{ij}\in E}(x_i-x_j)^2\ge0 xTLx=∑eij∈E(xi−xj)2≥0,所以拉普拉斯矩阵是半正定矩阵,其所有特征值均非负。且如果我们将全为 1 1 1的向量带入前面的 L x Lx Lx显结果然为0,说明拉普拉斯矩阵具有最小特征值为0,对应的特征向量全为 1 1 1。
之后考虑图傅里叶变换,对于图 G G G上信号 x x x,其图傅里叶变换为
x ~ k = ∑ i = 1 N V k i T x i = ⟨ v k , x ⟩ \tilde x_k=\sum^N_{i=1}V^T_{ki}x_i=\lang v_k,x\rang x~k=i=1∑NVkiTxi=⟨vk,x⟩
我们称特征向量为傅里叶基, x ~ k \tilde x_k x~k是 x x x在第k个傅里叶基上的傅里叶系数。通过定义我们可以看出傅里叶系数本质上是图信号在傅里叶基上的投影,衡量了图信号与傅里叶基之间的相似度。
矩阵形式可以计算所有傅里叶系数: x ~ = V T x \tilde x=V^Tx x~=VTx。
因为 V V V是正交矩阵,所以上式可以变换为 V x ~ = V V T x = I x = x V\tilde x=VV^Tx=Ix=x Vx~=VVTx=Ix=x,由此定义逆图傅里叶变换IGFT:
x k = ∑ i = 1 N V k i ⋅ x ~ i x_k=\sum_{i=1}^NV_{ki}·\tilde x_i xk=i=1∑NVki⋅x~i
同时可以有其向量形式:
x = V x ~ = [ ⋮ ⋮ ⋯ ⋮ v 1 v 2 ⋯ v N ⋮ ⋮ ⋯ ⋮ ] [ x ~ 1 x ~ 2 ⋮ x ~ N ] = x ~ 1 v 1 + x ~ 2 v 2 + ⋯ + x ~ N v N = ∑ k = 1 N x ~ k v k \begin{aligned} x=V\tilde x&= \begin{bmatrix} \vdots&\vdots&\cdots&\vdots\\ v_1&v_2&\cdots&v_N\\ \vdots&\vdots&\cdots&\vdots\\ \end{bmatrix} \begin{bmatrix} \tilde x_1\\\tilde x_2\\\vdots\\\tilde x_N \end{bmatrix} \\&=\tilde x_1v_1+\tilde x_2v_2+\cdots+\tilde x_Nv_N \\&=\sum^N_{k=1}\tilde x_kv_k \end{aligned} x=Vx~=⎣⎢⎢⎡⋮v1⋮⋮v2⋮⋯⋯⋯⋮vN⋮⎦⎥⎥⎤⎣⎢⎢⎢⎡x~1x~2⋮x~N⎦⎥⎥⎥⎤=x~1v1+x~2v2+⋯+x~NvN=k=1∑Nx~kvk
这表明傅里叶基是一组完备的基向量,任意一个图信号都可以被这组基所表示。
此时我们再回头看总变差,可以将其改写为:
T V ( x ) = x T L x = x T V Λ V T x = ( V x ~ ) T V Λ V T ( V x ~ ) = x ~ T ( V T V ) Λ ( V T V ) x ~ = x ~ T Λ x ~ = ∑ k N λ k x ~ k 2 \begin{aligned} TV(x)&=x^TLx=x^TV\Lambda V^Tx \\&=(V\tilde x)^TV\Lambda V^T(V\tilde x) \\&=\tilde x^T(V^TV)\Lambda (V^TV)\tilde x \\&=\tilde x^T\Lambda\tilde x \\&=\sum^N_k\lambda_k\tilde x_k^2 \end{aligned} TV(x)=xTLx=xTVΛVTx=(Vx~)TVΛVT(Vx~)=x~T(VTV)Λ(VTV)x~=x~TΛx~=k∑Nλkx~k2
说明图的总变差与图的拉普拉斯矩阵的特征值之间有着线性对应关系,是图的所有特征值的一个线性组合,权重是图信号的傅里叶系数的平方。
之后书中分析了什么样的图信号具有最小的总变差,个人感觉这一段写的有些混乱,没太读懂,这里仅给出一个结论:如果 x = v i x=v_i x=vi, v i v_i vi是拉普拉斯矩阵的一个特征向量,那么总变差就为 λ i \lambda_i λi即特征向量对应的特征值。所以我们取最小特征值对应的特征向量就可以得到最小的总变差为0(拉普拉斯矩阵最小特征值为0)。还有一个引申出来的结论:特征值实际上是图信号平滑度的一种梯度刻画,可以将其视为”频率”,特征值越低,频率越低,傅里叶基变化的越缓慢,相近节点上的信号趋于一致;特征值越高,频率越高,傅里叶基变化的越剧烈,相近节点上的信号有很大不同。
好!这里已经灌输了太多概念和定义还有一些二级结论,我读的时候就有点晕,写这篇笔记的时候又晕了一次,所以我觉得要停下来做一点梳理。
我认为主要迷惑的点是GFT和IGFT为什么是那样定义的,我查询了一些资料,得到的结果是:别问,问就是定义。GFT实际上不是“基于数学”的,而是将傅里叶变换经过类比定义出了图上的一种计算操作,我们可以将其视为以拉普拉斯矩阵的特征向量为基对图信号进行投影,其将一个图信号分解到不同平滑程度的图信号上。
另一个迷惑的点是空域和频域在GFT里到底是啥,我的理解是原始的图信号是空域,得到的傅里叶系数则是在频域。
书中稍后也提到的傅里叶系数可以等价成图信号在对应频率分量上的幅值,反映了图信号在这个频率上的强度(前面说了将拉普拉斯矩阵的特征值看作频率)。那么再结合总变差中如果图信号是某特征向量那么总变差的值就是特征向量对应的特征值的结论,我们就有图信号在低频分量(较小的特征值)上的强度越大,信号的平滑度就越高(总变差小),反之平滑度越低。
由此就定义好了图信号的频域。我们又有IGFT,所以相应地可以得到空域。这样算对GFT有了一个基本的各方面的定义。
定义:对给定图信号的频谱中各个频率分量的强度进行增强或衰减的操作。图滤波器 H ∈ R N × N H\in R^{N\times N} H∈RN×N,那么有 H : R N → R N H:R^N\to R^N H:RN→RN,有经过图滤波器的输出图信号 y y y,则:
y = H x = ∑ k = 1 N ( h ( λ k ) x ~ k ) v k y=Hx=\sum^N_{k=1}(h(\lambda_k)\tilde x_k)v_k y=Hx=k=1∑N(h(λk)x~k)vk
可以得到:
H = V [ h ( λ 1 ) h ( λ 2 ) ⋱ h ( λ N ) ] V T H=V \begin{bmatrix} h(\lambda_1)\\ &h(\lambda_2)\\ &&\ddots\\ &&&h(\lambda_N) \end{bmatrix} V^T H=V⎣⎢⎢⎡h(λ1)h(λ2)⋱h(λN)⎦⎥⎥⎤VT
对比拉普拉斯矩阵,图滤波器可以写为:
H = V Λ h V T H=V\Lambda_h V^T H=VΛhVT
H x Hx Hx描述了一种作用在每个节点一阶子图上的变换操作。我们称满足这样性质的矩阵为 G G G的图位移算子。
图滤波器具有以下几个性质:
称 Λ h \Lambda_h Λh为图滤波器 H H H的频率响应矩阵, h ( ) h() h()为 H H H的频率响应函数。不同的频率响应函数可以实现不同的滤波类型,常见的即为低通、高通、带通。(插一句嘴,忘了哪篇paper分析过GCN实际上是低通滤波器~)
书里给了个计算的例子没头没脑的挺迷的…给了个式子但前面写 L L L后面写 H H H…没懂想表达什么,所以就只记录一下一些概念和结论。
贴一下给的空域的式子:
y = ∑ k = 0 K h k x k x k = H k x = H x k − 1 y=\sum^K_{k=0}h^kx^{k}\\ x^{k}=H^kx=Hx^{k-1} y=k=0∑Khkxkxk=Hkx=Hxk−1
(书里写的是 x k = L k x x^k=L^kx xk=Lkx,我觉得写错了应该是H)
图滤波器的局部性:k阶的计算只涉及节点的k阶邻居。
空域角度下,滤波操作具有如下性质:
因为局部性,所以 H H H可以看做一个聚合邻居的操作算子。(酷,马上想到GraphSAGE的聚合操作)
将拉普拉斯矩阵的定义带入到 H H H的定义给出这样一个形式:
H = V [ ∑ k = 0 K h k λ 1 k ∑ k = 0 K h k λ 2 k ⋱ ∑ k = 0 K h k λ N k ] V T H=V \begin{bmatrix} \sum_{k=0}^Kh_k\lambda_1^k\\ &\sum_{k=0}^Kh_k\lambda_2^k\\ &&\ddots\\ &&&\sum_{k=0}^Kh_k\lambda_N^k \end{bmatrix} V^T H=V⎣⎢⎢⎡∑k=0Khkλ1k∑k=0Khkλ2k⋱∑k=0KhkλNk⎦⎥⎥⎤VT
这说明只要K足够大,那么可以通过这种形式来逼近关于 λ \lambda λ的任意一个函数。
考虑
y = H x = V ( ∑ k = 0 K h k Λ k ) V T x y=Hx=V(\sum^K_{k=0}h_k\Lambda^k)V^Tx y=Hx=V(k=0∑KhkΛk)VTx
这是频域视角下的滤波操作,其变换过程如下:
说是频域角度,其实最后还是得到空域的图信号。
对比空域,频域要先计算拉普拉斯矩阵的特征值和特征向量,本身时间复杂度不低,所以有一定的局限性。
定义:图信号 x 1 , x 2 x_1,x_2 x1,x2,图卷积运算为:
x 1 ∗ x 2 = I G F T ( G F T ( x 1 ) ⊙ G F T ( x 2 ) ) x_1*x_2=IGFT(GFT(x_1)\odot GFT(x_2)) x1∗x2=IGFT(GFT(x1)⊙GFT(x2))
⊙ \odot ⊙是哈达玛积,在第2章的时候提到过(没看过的朋友快去看!),简单来说就是把矩阵相乘简化为元素相乘再凑成矩阵。
将图卷积展开有:
x 1 ∗ x 2 = V ( ( V T x 1 ) ⊙ ( V T x 2 ) ) = V ( x ~ 1 ⊙ ( V T x 2 ) ) = V ( diag ( x ~ 1 ) ( V T x 2 ) ) = ( V diag ( x ~ 1 ) V T ) x 2 \begin{aligned} x_1*x_2&=V((V^Tx_1)\odot(V^Tx_2)) \\&=V(\tilde x_1\odot(V^Tx_2)) \\&=V(\text{diag}(\tilde x_1)(V^Tx_2)) \\&=(V\text{diag}(\tilde x_1)V^T)x_2 \end{aligned} x1∗x2=V((VTx1)⊙(VTx2))=V(x~1⊙(VTx2))=V(diag(x~1)(VTx2))=(Vdiag(x~1)VT)x2
将 x ~ 1 \tilde x_1 x~1变成对角阵那步从结果上来说和哈达玛积等价,所以可以去掉哈达玛积。
定义 H x ~ 1 = V diag ( x ~ 1 ) V T H_{\tilde x_1}=V\text{diag}(\tilde x_1)V^T Hx~1=Vdiag(x~1)VT,回顾前面图滤波器的定义,显然其也是一个图滤波器,其频率响应矩阵为 x 1 x_1 x1的频谱,由此图卷积就变为了图滤波运算。
下面考虑的是如何将图卷积运算应用到图数据的学习中去。
这是很自然的想法,即定义这样的神经网络层:
X ′ = σ ( V [ θ 1 θ 2 ⋱ θ N ] V T X ) = σ ( V diag ( θ ) V T X ) = σ ( Θ X ) X ′ = σ ( V [ θ 1 θ 2 ⋱ θ N ] V T X ) = σ ( V diag ( θ ) V T X ) = σ ( Θ X ) \begin{aligned} X'&=\sigma(V \begin{bmatrix} \theta_1\\ &\theta_2\\ &&\ddots\\ &&&\theta_N \end{bmatrix}V^TX) \\&=\sigma(V\text{diag}(\theta)V^TX) \\&=\sigma(\Theta X) \end{aligned}\begin{aligned} X'&=\sigma(V \begin{bmatrix} \theta_1\\ &\theta_2\\ &&\ddots\\ &&&\theta_N \end{bmatrix}V^TX) \\&=\sigma(V\text{diag}(\theta)V^TX) \\&=\sigma(\Theta X) \end{aligned} X′=σ(V⎣⎢⎢⎡θ1θ2⋱θN⎦⎥⎥⎤VTX)=σ(Vdiag(θ)VTX)=σ(ΘX)X′=σ(V⎣⎢⎢⎡θ1θ2⋱θN⎦⎥⎥⎤VTX)=σ(Vdiag(θ)VTX)=σ(ΘX)
σ ( ⋅ ) \sigma(·) σ(⋅)为激活函数, θ \theta θ是需要学习的参数,X是输入的图信号,X’是输出的图信号。
可以从空域和频域两个角度来考虑这层网络:
这样的方法简单,但也有一些问题:
就贴了个公式没细说,总之也是在学习图滤波器,略过,贴一下公式:
X ′ = σ ( V ( ∑ k = 0 K θ k Λ k ) V T X ) X'=\sigma(V(\sum^K_{k=0}\theta_k\Lambda^k)V^TX) X′=σ(V(k=0∑KθkΛk)VTX)
这个方法在GCN的paper里也有提到,GCN就是从这个方法改进来的,所以重点还是看后续的GCN的部分。
终于!GCN来辣!
首先是考虑5.2里的公式,令 K = 1 K=1 K=1可以得到这样一个神经网络层:
X ′ = σ ( θ 0 X + θ 1 L X ) X'=\sigma(\theta_0 X+\theta_1LX) X′=σ(θ0X+θ1LX)
令 θ 0 = θ 1 = θ \theta_0=\theta_1=\theta θ0=θ1=θ,有:
X ′ = σ ( θ ( I + L ) X ) = σ ( θ L ~ X ) X'=\sigma(\theta(I+L)X)=\sigma(\theta \tilde LX) X′=σ(θ(I+L)X)=σ(θL~X)
注意 θ \theta θ是一个标量一个值,也就是对 L ~ \tilde L L~的频率响应函数做了一个尺度变换,因为尺度变换最后会被归一化操作所替代,所以没必要引入这个参数,不妨就令其为1,所以就有了一个固定的图滤波器 L ~ \tilde L L~。
那么对 L ~ \tilde L L~的归一化就是:
L ~ s y m = D ~ − 1 2 A ~ D ~ − 1 2 , A ~ = A + I , D ~ i i = Σ j A ~ i j \tilde L_{sym}=\tilde D^{-\frac{1}{2}}\tilde A\tilde D^{-\frac{1}{2}},\tilde A= A+I,\tilde D_{ii}=\Sigma_j\tilde A_{ij} L~sym=D~−21A~D~−21,A~=A+I,D~ii=ΣjA~ij
再考虑一下 L ~ s y m \tilde L_{sym} L~sym,想一下它是怎么来的:我们一步步定义、推导出了GFT和IGFT,定义了图滤波器,给出了图卷积的定义,将图卷积的运算写成了图滤波器的形式,为了加强图滤波器的拟合能力给出了多项式形式的图滤波器,最后我们将其化简为只有两项,得到了 L ~ \tilde L L~,再进行归一化得到了 L ~ s y m \tilde L_{sym} L~sym。
也就是说, L ~ s y m \tilde L_{sym} L~sym就可以被看作是一个图滤波器,也可以看做是图位移算子, L ~ s y m X \tilde L_{sym}X L~symX就是在做图卷积!
而得到 L ~ s y m \tilde L_{sym} L~sym无疑是容易的,不需要计算特征值、特征向量,只需要得到邻接矩阵即可。
为了增强网络的拟合能力,考虑一个参数化的权重矩阵 W W W,即:
X ′ = σ ( L ~ s y m X W ) X'=\sigma(\tilde L_{sym}XW) X′=σ(L~symXW)
W W W是可学习的(不然 L ~ s y m \tilde L_{sym} L~sym是确定的网络在学啥呢hh),上式就是一层GCN Layer所做的事情。GCN就是多层堆叠的神经网络,我们也叫它图卷积神经网络。
终于!在前面4章加上这一章大量的内容铺垫之后,GCN终于现出了真容。
由此我们可以简单分析一下GCN:
更多的分析会在之后的章节。书中5.6节是GCN的代码实战,我会专门再出一篇博客来写,敬请期待。
写在后面:
你可能注意到我好久之后才更新了这一章读书笔记orz
一方面是在准备期末焦头烂额,另一方面是这一章的内容硬核而且又非常重要,我读了好几遍确保我理解正确之后才开始动手写读书笔记(虽然也不确定我理解的是不是都对)。之前我对GCN的认识全来自于Kipf的论文,诚实地讲没太读明白,因为缺了很多基础的知识。这次顺着这本书读下来感觉好理解了很多。其实GCN的原理讲解网上一抓一大把,我也看了不少,但也都是似懂非懂的,这次真的读书笔记顺着写下来才有种豁然开朗的感觉。希望各位也都能有所收获。如果我的笔记有错误也请多多指教。