2018-NIPS-Towards Sparse Hierarchical Graph Classifiers

2018-NIPS-Towards Sparse Hierarchical Graph Classifiers

2018-NIPS-Towards Sparse Hierarchical Graph Classifiers_第1张图片
Paper: https://arxiv.org/abs/1811.01287
Code:

对稀疏分类分级图

作者提出以往的图分类方法中通常使用单个全局池化步骤来聚合节点特征或手动设计的固定启发式算法,这样做会丢失信息,所以将readout层表示为 S = 1 N ∑ i = 0 N x i ∣ ∣ m a x x i S=\frac{1}{N}\sum^N_{i=0}x_i||maxx_i S=N1i=0Nxi∣∣maxxi, 池化层的方法沿用Graph U-Net提出的Topk算法,整个网络架构沿用JK-Net的思想,每一个层得出的信息都是有用的。
2018-NIPS-Towards Sparse Hierarchical Graph Classifiers_第2张图片
具体方式如下图所示
2018-NIPS-Towards Sparse Hierarchical Graph Classifiers_第3张图片

实验

2018-NIPS-Towards Sparse Hierarchical Graph Classifiers_第4张图片
表 1 说明了在所有情况下,该算法都明显优于 GraphSAGE 稀疏聚合方法 ,同时成功地与 DiffPool的三个变体在最多 1 个百分点的精度内竞争,这是分层图表示学习的最新发展。与后者不同,该方法不需要二次存储。
2018-NIPS-Towards Sparse Hierarchical Graph Classifiers_第5张图片
在图 2 中,证明该方法在更大规模的图形上优于 DiffPool,即使池化层不丢弃任何节点

你可能感兴趣的:(图神经网络,人工智能)