GCN神经网络学习(一)

      本篇的两个重点:图卷积网络GCN的基本原理,以及如何聚合邻居的基本信息

      一、基本原理

          假设创建一个图G:

                     顶点集V;

                     邻接矩阵A;

                     代表节点特征的矩阵X:X=m*|v|(顶点数量),m:每个节点有m维的特征。

           现在我有一个图是这个样子的:

GCN神经网络学习(一)_第1张图片

            用神经网络来表示它:(例子中只表示了A节点的,其他节点的表示方法雷同就不再展示)

GCN神经网络学习(一)_第2张图片

             将图转化为神经网络的方式来表示就是基本的一个原理。

二、聚合

     基本方法:对来自邻居的信息取平均值并且应用于神经网络。(平均思想是核心)

     由于本人作图能力较差就不做图演示,下面用公式和文字的方式来叙述。

     GCN神经网络学习(一)_第3张图片

   k:代表第k层;h:代表第k层的一个特征信息;N(v):顶点数量;Wk:对第k层做神经网络的变换;B(k):同样是对第k层做神经网络变换;        

 所以也就是说通过嵌套的方式就可以一层一层求出从0到k层的神经网络的聚合。

还有一种等价的数学表示写法:

GCN神经网络学习(一)_第4张图片

你可能感兴趣的:(神经网络,学习,深度学习)