Top100值得一读的图神经网络 (qq.com)
https://mp.weixin.qq.com/s?__biz=MzIyNDY5NjEzNQ==&mid=2247491631&idx=1&sn=dfa36e829a84494c99bb2d4f755717d6&chksm=e809a207df7e2b1117578afc86569fa29ee62eb883fd35428888c0cc0be750faa5ef091f9092&mpshare=1&scene=23&srcid=1026NUThrKm2Vioj874F3gqS&sharer_sharetime=1635227630762&sharer_shareid=80f244b289da8c80b67c915b10efd0a8#rd清华大学的Top 100 GNN papers,其中分了十个方向,每个方向10篇

本文是对架构方向10篇的阅读笔记:
- Semi-Supervised Classification with Graph Convolutional Networks. Thomas N. Kipf, Max Welling. NeuIPS'17.
- Graph Attention Networks. Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, Yoshua Bengio. ICLR'18.
- Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering. NeuIPS'16.
- Predict then Propagate: Graph Neural Networks meet Personalized PageRank. Johannes Klicpera, Aleksandar Bojchevski, Stephan Günnemann. ICLR'19.
- Gated Graph Sequence Neural Networks. Li, Yujia N and Tarlow, Daniel and Brockschmidt, Marc and Zemel, Richard. ICLR'16.
- Inductive Representation Learning on Large Graphs. William L. Hamilton, Rex Ying, Jure Leskovec. NeuIPS'17.
- Deep Graph Infomax. Petar Veličković, William Fedus, William L. Hamilton, Pietro Liò, Yoshua Bengio, R Devon Hjelm. ICLR'19.
- Representation Learning on Graphs with Jumping Knowledge Networks. Keyulu Xu, Chengtao Li, Yonglong Tian, Tomohiro Sonobe, Ken-ichi Kawarabayashi, Stefanie Jegelka. ICML'18.
- DeepGCNs: Can GCNs Go as Deep as CNNs?. Guohao Li, Matthias Müller, Ali Thabet, Bernard Ghanem. ICCV'19.
- DropEdge: Towards Deep Graph Convolutional Networks on Node Classification. Yu Rong, Wenbing Huang, Tingyang Xu, Junzhou Huang. ICLR'20
目录
一、GCN 基于图卷积网络的半监督分类 SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
二、GAT 图注意力网络 Graph Attention Networks
三、具有快速局部谱滤波的图上的卷积神经网络 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering
五、门控图序列神经网络 GATED GRAPH SEQUENCE NEURAL NETWORKS
六、GraphSAGE大型图的归纳表示学习 Inductive Representation Learning on Large Graphs
七、DGI DEEP GRAPH INFOMAX
八、JK Representation Learning on Graphs with Jumping Knowledge Networks
九、DeepGCNs: Can GCNs Go as Deep as CNNs?
十、DROPEDGE: TOWARDS DEEP GRAPH CONVOLUTIONAL NETWORKS ON NODE CLASSIFICATION
一、GCN 基于图卷积网络的半监督分类 SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS
提出了一种全新的基于图结构的半监督学习方法,使用谱图理卷积的局域近似一阶进行卷积,模型在图的边数中线性缩放,并学习同时编码局部图结构和节点特征的隐含层表示
1 INTRODUCTION
- 图半监督学习:对图(如引文网络)中的节点(如文档)进行分类的问题,其中标签只对一小部分节点可用
- 传统的拉普拉斯正则项:
- 依赖于图中连接的节点可能共享相同标签的假设。然而,这种假设可能会限制建模能力,因为图的边不一定需要编码节点相似性,但可以包含附加信息
- 本文改进:
- 直接使用神经网络模型(,)对图结构进行编码
- 对所有带标签的节点在有监督的目标0上进行训练,从而避免了损失函数中显式的基于图的正则化。
- 图的邻接矩阵上的条件(·)将允许模型分发来自监督损失0的梯度信息,并将使其能够学习带和不带标签的节点的表示
2 FAST APPROXIMATE CONVOLUTIONS ONGRAPHS 关于图的快速近似卷积

- 这种传播规则的形式可以通过图上的局域谱滤波的一阶近似来实现
谱图卷积
- 图上的谱卷积,计算量大,最后与U相乘需要(2)
- 近似:可以用切比雪夫多项式的截断展开式很好地逼近,复杂度降为()
分层线性模型
- 让K近似为1,变为分层模型,然后可通过层的堆叠实现丰富的卷积滤波函数
- 进一步让≈2, 神经网络参数将在训练期间适应这种规模的变化

- 进一步减少参数:

得到最后的公式,Z为输出,Θ为可训练参数
3 SEMI-SUPERVISED NODE CLASSIFICATION
- 首先计算出来
- 然后进行两层的分层线性模型

- 0为input-hidden, 1为hidden-output
二、GAT 图注意力网络 Graph Attention Networks
两种解释:
- 将注意力机制引入到图中
- 对特征X的再参数化(使用矩阵W对h进行的)
注意力机制(打分函数):
更新节点特征

- 多头注意力的两种方式(拼接与平均)
三、具有快速局部谱滤波的图上的卷积神经网络 Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering