GCN详解

a ⃗ \vec{a} a 向量
a ‾ \overline{a} a 平均值
a ‾ \underline{a} a下横线
a ^ \widehat{a} a (线性回归,直线方程) y尖
a ~ \widetilde{a} a
a ˙ \dot{a} a˙ 一阶导数
a ¨ \ddot{a} a¨ 二阶导数


GCN详解_第1张图片
H(l)表示l层的节点的特征
W(l)表示l层的参数
D ~ \widetilde{D} D 表示度矩阵,体现每个节点都度。是个主对角矩阵。
GCN详解_第2张图片
A是邻接矩阵,I是E是单位阵

GCN详解_第3张图片
上图中, A ^ \widehat{A} A 为归一化后的 A ^ \widehat{A} A = D ~ \widetilde{D} D -0.5* A ^ \widehat{A} A * D ~ \widetilde{D} D -0.5。这里的 A ^ \widehat{A} A 就是 L ~   s y s   \widetilde{L}~sys~ L  sys ,即归一化后的拉普拉斯矩阵
X 是输入值,W(0)是0层的参数值。

在这里插入图片描述

你可能感兴趣的:(图神经网络,python)