图神经网络(二十五)L2-GCN: Layer-Wise and Learned Efficient Training of Graph Convolutional Networks

本文收录于CVPR2020,作者来自于德克萨斯农工大学。GCN的性能是不可否认的,但将GCN应用于大图面临着高昂的时间复杂度和空间复杂度,因为计算每个节点的嵌入表示需要递归的从邻居节点那聚合邻居的信息,并且随着层数的增长邻域数量也成倍增长。本文提出了一种新的用于GCN的分层训练框架(L-GCN),该框架将训练过程中的特征聚合和特征变换分离开来,从而大大降低了时间复杂度和空间复杂度。在后面作者进一步提出了 L 2 L^2 L2

你可能感兴趣的:(图神经网络论文集锦,GNN)