图神经网络学习笔记:2018年-2020年 GNN Basic models 论文简读

  1. Graph Partition Neural Networks for Semi-Supervised Classification
    提出 GPNN (graph partition neural networks),可以运行在超级大图
    其核心思想是
    用修改的 multi-seed flood fill
    快速划分大图,子图结点间的局部信息传播和子图间的全局信息传播交替进行。

  2. Stochastic Training of Graph Convolutional Networks with Variance Reduction
    提出基于控制变量的算法减小感受野大小,降低训练成本。

  3. Adaptive Graph Convolutional Neural Networks
    提出 SGC-LL (spectral graph
    convolver),可以把任意图结构作为输入
    其核心思想是
    通过学习最有度量和特征变换,给每个图拓扑结构学习一个
    residual graph Laplacian

  4. Structure-Aware Convolutional Neural Networks
    提出 SACNNs (Structure-Aware Convolutional Neural Networks),可以处理
    Euclidean 和 non-Euclidean 结构数据
    其核心思想是
    通过 univariate functions 表示滤波器

  5. Graph Capsule Convolutional Neural Networks
    提出 GCAPS-CNN (Graph Capsule
    Network),可以捕获更多的局部结构信息,为单独的图结点提供更丰富的表示
    其核心思想是
    将 capsule 应用到GNN中

  6. CAPSULE GRAPH NEURAL NETWORK
    提出 CapsGNN (Capsule Graph Neural Network)
    其核心思想是
    以 capsules 的形式提取基本的结点特征,用路由机制生成
    high-level graph capsules 和 class capsules

  7. GRAPH WAVELET NEURAL NETWORK
    提出 GWNN (graph wavelet neural
    network),不需要矩阵特征值分解,计算更高效
    其核心思想是
    用 graph wavelet transform 代替图傅里叶变换

  8. Deep Graph Infomax
    提出 DGI (Deep Graph Infomax)
    其核心思想是
    通过图卷积得到 graph’s patch
    representations,然后利用局部互信息最大化得到考虑图全局结构属性的结点嵌入

  9. PREDICT THEN PROPAGATE: GRAPH NEURAL NETWORKS MEET PERSONALIZED PAGERANK
    提出 PPNP (personalized propagation of neural predictions)及其近似
    APPNP,解耦预测和传播,在不引入额外参数的情况下,解决了许多消息传递模型中有限范围问题
    其核心思想是
    通过GCN和PageRank的关系导出基于个性化PageRank的传播方案

  10. LANCZOSNET: MULTI-SCALE DEEP GRAPH CONVO- LUTIONAL NETWORKS
    提出 LanczosNet (Lanczos network)
    其核心思想是
    用 Lanczos 算法构造graph Laplacian的低秩近似

  11. GMNN: Graph Markov Neural Networks
    提出 GMNN (Graph Markow Neural Network)
    其核心思想是
    用条件随机场对对象标签的联合分布进行建模

  12. Position-aware Graph Neural Networks
    提出 P-GNNs (Position-aware Graph Neural Networks)
    其核心思想是

    先采样锚结点,计算目标结点到每个锚结点的距离,然后在锚集上学习一个非线性的距离加权聚合方法

  13. Disentangled Graph Convolutional Networks
    提出 DisenGCN (disentangled graph convolutional network)
    其核心思想是

    用新的邻居路由机制动态识别结点和邻居间产生边的潜在因素,然后根据潜在因素将邻居分配给相应的信道提取和卷积特征

  14. Data Representation and Learning With Graph Diffusion-Embedding Networks
    提出 GDENs (Graph Diffusion-Embedding networks)
    其核心思想是
    通过 diffusion-embedding 同时将 feature diffusion
    和图结点(低维)嵌入到网络中

  15. Graph Learning-Convolutional Networks
    提出 GLCN (Graph Learning-Convolutional Network)
    其核心思想是
    将图学习和图卷积集成到一个统一的网络架构中
    最后
    学习到一个最优的图结构来做 graph CNNs

  16. MixHop: Higher-Order Graph Convolutional Architectures via Sparsified
    Neighborhood Mixing
    提出 MixHop
    其核心思想是
    利用邻接矩阵的多次幂

  17. DEMO-Net: Degree-specific Graph Neural Networks for Node and Graph
    Classification
    提出 DEMO-Net
    其核心思想是
    根据结点度值将特征聚合为一个多任务学习问题

  18. Graph Representation Learning via Hard and Channel-Wise Attention Networks
    提出 hGAO (hard graph attention operator) 和 cGAO (channel-wise graph
    attention
    operator),hGAO只关注重要结点,cGAO在信道上做注意力操作

  19. Topology Optimization based Graph Convolutional Network
    提出 TO-GCN (Topology Optimization based Graph Convolutional Networks)
    其核心思想是

    通过联合改善(refining)网络拓扑结构和学习FCN网络的参数来充分利用潜在信息

  20. SPAGAN: Shortest Path Graph Attention Network
    提出 SPAGAN (Shortest Paht Graph Attention
    Network),可以在一层中探索基于高阶路径的注意力
    其核心思想是

    查找中心节点与其高阶邻居之间的最短路径,然后计算路径到节点的注意,以更新节点的特征和系数,并迭代这两个步骤。

  21. GeniePath: Graph Neural Networks with Adaptive Receptive Paths
    提出
    GeniePath,它可以在排列不变的图中学习自适应感受野,而且可用于深度GNN
    其核心思想是

    通过自适应广度函数选择重要的一阶邻居,通过自适应深度函数提取和过滤有用的信号和噪音

  22. Dual Self-Paced Graph Convolutional Network: Towards Reducing Attribute
    Distortions Induced by Topology
    提出 DSP-GCN (Dual Self-Paced Graph Convolutional Network)
    核心思想是

    逐渐把未标记但可预测的结点加入训练集,逐渐把简单边和复杂边加入到训练集

  23. Bayesian graph convolutional neural networks for semi-supervised
    classification
    提出Bayesian GCNN
    核心思想是

    将观察到的图作为参数随机图簇的实现,将观察到的邻接矩阵与特征和标签结合起来进行联合推断
    最后

    实现用更多的计算从更少的数据中学习到更多的东西,提高了表达不确定性的能力。

  24. Hierarchical Graph Convolutional Networks for Semi-supervised Node
    Classification
    提出 H-GCN (Hierarchical Graph Convolutional Network)
    其核心思想是

    先反复聚合结构相似的结点到超级结点,然后改善粗化后的图到原来的图,以恢复每个结点的表示。通过增大每个结点的感受野来捕获更多的全局信息。

  25. N-GCN: Multi-scale Graph Convolution for Semi-supervised Node
    Classification
    提出 N-GCN (Network of GCNs)
    其核心思想是

    在不同距离的随机游走得到的结点上训练多个GCNs实例,学习实例输出的组合,优化分类目标

  26. Gaussian-Induced Convolution for Graphs
    提出 GIC (Gaussian-induced
    convolution),提出了一种新的图卷积方式
    其中
    edge-induced Gaussian mixture model (EI-GMM)
    用于编码子图变化,其原理是通过将边信息集成到加权高斯模型,在高斯模型中,每个分量隐式刻画了子图变化的一个分量。
    vertex-induced Gaussian mixture model (VI-GMM)用于图动态粗化

  27. Masked Graph Convolutional Network
    提出 masked graph convolution network (Masked GCN)
    其核心思想是
    根据masking indicator 仅传播一部分属性到邻居,masking indicator
    通过联合考虑局部邻居的属性和分类

  28. Lovasz Convolutional Networks
    提出 Lovász Convolutional Network (LCNs)
    其核心思想是
    用 Lovász’s orthonormal 嵌入结点,获得更好的嵌入效果

  29. Confidence-based Graph Convolutional Networks for Semi-Supervised Learning
    提出ConfGCN
    其核心思想是
    评估标签得分及其置信度
    最后

    可以通过标签得分及其置信度确定一个结点对另一个结点的影响

  30. A Flexible Generative Framework for Graph-based Semi-supervised Learning
    提出Generative Graph models with Graph Neural Networks as approximate
    posterior(G3NN)
    其核心思想是
    利用结点特征、标签和图结构的联合分布
    通过变分推理,可以利用GNN和随机图模型的优点

  31. Graph-Based Semi-Supervised Learning with Non-ignorable Non-response
    提出 Graph-based joint model with Nonignorable Missingness (GNM)
    其核心思想是
    将逆响应可能性赋值给结点标签

  32. Graph Agreement Models for Semi-Supervised Learning
    提出了Graph Agreement Models (GAM)
    其核心思想是

    引入一个辅助模型来预测两个结点标签一样的可能性,通过结点分类模型和结点协议模型的交互,得到较好的效果

  33. Hyperbolic Graph Convolutional Neural Networks
    提出 Hyperbolic Graph Convolutional Neural Network
    (HGCN),减少嵌入失真
    其核心思想是
    把图的相关操作放到双曲空间

  34. MEASURING AND IMPROVING THE USE OF GRAPH INFORMATION IN GRAPH NEURAL
    NETWORKS
    提出了 CS-GNN
    其核心思想是
    用平滑度指标选择性的聚合邻居信息

  35. GRAPH INFERENCE LEARNING FOR SEMI-SUPERVISED CLASSIFICATION
    提出 Graph Inference Learning (GIL)
    其核心思想是
    将结点信息,结点间路径和局部拓扑结构放在一起考虑

  36. Effective Decoding in Graph Auto-Encoder using Triadic Closure
    提出了 triad decoder,用 triadic closure
    特征作为结构化预测和单链路预测的tradeoff
    其核心思想是
    用 triadic closure刻画边链接

  37. ADAPTIVE STRUCTURAL FINGERPRINTS FOR GRAPH ATTENTION NETWORKS
    提出 adaptive structural fingerprint (ADSF)
    其核心思想是
    用一个加权、可学习的感受野编码丰富多样的局部图结构
    最后
    可以较好的利用图的结构信息

  38. CURVATURE GRAPH NETWORK
    提出 Curvature Graph Network (CurvGN),更好的捕获结构信息
    其核心思想是
    将连续的曲率定义迁移到图结构上

  39. DROPEDGE: TOWARDS DEEP GRAPH CONVOLU- TIONAL NETWORKS ON NODE
    CLASSIFICATION
    提出了DropEdge
    其核心思想是
    在每次训练时随机丢弃输入图一定比率的边
    最后

    用DropEdge降低过平滑收敛的速度或减少信息损失,加深网络深度

  40. GEOM-GCN: GEOMETRIC GRAPH CONVOLUTIONAL NETWORKS
    提出 Geom-GCN,提取更多的图结构信息
    其核心思想是
    通过图嵌入将离散图带到连续几何空间

  41. GraphSAINT: GRAPH SAMPLING BASED INDUCTIVE
    提出 GraphSAINT (Graph SAmpling based INductive learning meThod)
    解决“邻居爆炸”问题
    其核心思想是
    对训练图采样,然后在子图上建立完全的GCN

你可能感兴趣的:(机器学习,图神经网络)