GNN之常用矩阵汇总

最近在看图卷积网络(graph convolutional networks),其中有一些基础知识,比如:

  • g = (\nu , \varepsilon )表示一个图,\nu ,\varepsilon分别表示相应的节点集与边集。u,v\in \nu表示图中的节点,(u,v)\in \varepsilon表示图中的边。
  • A表示图中的邻接矩阵(adjacency matrix)。
  • D表示图中的度矩阵(degree matrix)。
  • L表示图中的拉普拉斯矩阵(Laplacian matrix),\L表示图的归一化拉普拉斯矩阵。

会有许多不同的矩阵,这里列出一些常用的矩阵形式。

目录

1.Degree matrix

2.Adjacency matrix

3.Laplacian matix

4.Toeplitz matrix

5.Hankel matix


1.Degree matrix

度矩阵和拓扑学相关,矩阵中只有main diagonal上有非零值,节点的度表示与该节点相连的边的数量(如果自循环则算两个)。

图的度矩阵即用于描述图中每个节点的度的矩阵,一般使用D表示。

其中,D_{i,i}\ (1\leqslant i \leqslant N)表示节点 i 的度。

度矩阵是一个对角矩阵,对于无向图来说,一般只使用入度矩阵或出度矩阵。

2.Adjacency matrix

图的邻接矩阵指用于表示图中节点的连接情况的矩阵。该矩阵可以是二值的,也可以是带权的。

对于有N个节点的无向图来说,邻接矩阵是一个N x N的实对称矩阵。

如果两个edge之间有vertex相连,则对应位置填1。

因此,邻接矩阵是对称的,main diagonal上的1表示自循环。

3.Laplacian matix

拉普拉斯矩阵(也称为导纳矩阵admittance matrix、基尔霍夫矩阵Kirchohoff matrix或离散拉普拉斯算子),主要应用在图论中,作为一个图的矩阵表示,是由上面两个矩阵相减得到的:

L = D - A

图的归一化拉普拉斯矩阵可以这样计算:

\L = D^{-1/2}LD^{-1/2} = I - D^{-1/2}AD^{-1/2}

示例如下:

GNN之常用矩阵汇总_第1张图片

4.Toeplitz matrix

托普利兹矩阵(也叫常对角矩阵),形如:

GNN之常用矩阵汇总_第2张图片

5.Hankel matix

汉克尔矩阵,形如:

GNN之常用矩阵汇总_第3张图片,刚好是Toeplitz的transpose。

 

你可能感兴趣的:(GNN)