基于空间方法的图神经网络模型_【博客推荐】漫谈图神经网络模型GNN

基于空间方法的图神经网络模型_【博客推荐】漫谈图神经网络模型GNN_第1张图片

最近看了一些图与图卷积神经网络的论文,深感其强大,但一些Survey或教程默认了读者对图神经网络背景知识的了解,对未学过信号处理的读者不太友好。同时,很多教程只讲是什么,不讲为什么,也没有梳理清楚不同网络结构的区别与设计初衷(Motivation)。

因此,这篇博客试图沿着图神经网络的历史脉络,从最早基于不动点理论的图神经网络(Graph Neural Network, GNN)一步步讲到当前用得最火的图卷积神经网络(Graph Convolutional Neural Network, GCN), 期望通过本文带给读者一些灵感与启示。

在开始正文之前,笔者先带大家回顾一下图神经网络的发展历史。不过,因为图神经网络的发展分支非常之多,笔者某些叙述可能并不全面,一家之言仅供各位读者参考:

1. 图神经网络的概念最早在2005年提出。2009年Franco博士在其论文中定义了图神经网络的理论基础,笔者呆会要讲的第一种图神经网络也是基于这篇论文。

2. 最早的GNN主要解决的还是如分子结构分类等严格意义上的图论问题。但实际上欧式空间(比如像图像 Image)或者是序列(比如像文本 Text),许多常见场景也都可以转换成图(Graph),然后就能使用图神经网络技术来建模。

3. 2009年后图神经网络也陆续有一些相关研究,但没有太大波澜。直到2013年,在图信号处理(Graph Signal Processing)的基础上,Bruna(这位是LeCun的学生)在文献中首次提出图上的基于频域(Spectral-domain)和基于空域(Spatial-domain)的卷积神经网络。

4. 其后至今,学界提出了很多基于空域的图卷积方式,也有不少学者试图通过统一的框架将前人的工作统一起来。而基于频域的工作相对较少,只受到部分学者的青睐。

5. 值得一提的是,图神经网络与图表示学习(Represent Learning for Graph)的发展历程也惊人地相似。2014年,在word2vec的启发下,Perozzi等人提出了DeepWalk,开启了深度学习时代图表示学习的大门。更有趣的是,就在几乎一样的时间,Bordes等人提出了大名鼎鼎的TransE,为知识图谱的分布式表示(Represent Learning for Knowledge Graph)奠定了基础。

详细内容详见下述三篇博客: 作者: SivilTaram

博客1:从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (一)

博客2:从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (二)

博客3:从图(Graph)到图卷积(Graph Convolution):漫谈图神经网络模型 (三)

你可能感兴趣的:(基于空间方法的图神经网络模型)