图神经网络的核心就是进行图模型搭建,图是由点和边组成的。在计算机处理时,通常将数据以向量的形式进行存储。因此,在存储图时,就会有点的向量,点与点之间边的向量,全局向量(描述整张图),邻接矩阵(记录哪些点之间存在关联)等。
既然输入给计算机的是向量格式,那么embedding也是GNN中很重要的环节,即将元素进行编码
邻接矩阵记录了点与点之间是否存在关联,例如:0表示无关联,1表示有关联(先这样理解,后续有算法并不这样记录)。如果图模型中有5个点,那么邻接矩阵就是一个55的对称矩阵。
当然,邻接矩阵并没有严格的定义,只要能描述元素之间的关联即可,例如,输入一段文本,邻接矩阵记录了每个单词的下一个单词是什么,如下图所示:
然而,在实际任务中,我们通常并不是以NN的格式构建邻接矩阵,因为不仅难以计算,而且矩阵是对称的,即浪费空间。一般地,邻接矩阵是 2*M 的格式,如下图中的