清华大学的Top 100 GNN papers,其中分了十个方向,每个方向10篇。此篇为自监督学习与预训练方向的阅读笔记。
Top100值得一读的图神经网络| 大家好,我是蘑菇先生,今天带来Top100 GNN Papers盘点文。此外,公众号技术交流群开张啦!可https://mp.weixin.qq.com/s?__biz=MzIyNDY5NjEzNQ==&mid=2247491631&idx=1&sn=dfa36e829a84494c99bb2d4f755717d6&chksm=e809a207df7e2b1117578afc86569fa29ee62eb883fd35428888c0cc0be750faa5ef091f9092&mpshare=1&scene=23&srcid=1026NUThrKm2Vioj874F3gqS&sharer_sharetime=1635227630762&sharer_shareid=80f244b289da8c80b67c915b10efd0a8#rd
架构篇连接:TOP 100值得读的图神经网络----架构_tagagi的博客-CSDN博客https://blog.csdn.net/tagagi/article/details/121318308
同时推荐一个很好的博客: 图对比学习的最新进展_模型GCC以及我们提出的GRACE和同期GraphCL的工作采用了local-local的思路,即直接利用两个经过增强的view中节点的embedding特征,巧妙地绕开了设计一个单射读出函数的需求。 …https://www.sohu.com/a/496046127_121124371论文列表
目录
一、图神经网络预训练的策略 STRATEGIES FORPRE-TRAININGGRAPHNEURAL NETWORKS
二、DGI DEEP GRAPH INFOMAX
三、GraphSAGE大型图的归纳表示学习 Inductive Representation Learning on Large Graphs
四、INFOGRAPH: UNSUPERVISED ANDSEMI-SUPERVISED GRAPH-LEVEL REPRESENTATION LEARNING VIA MUTUAL INFORMATION MAXIMIZATION
五、GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training
六、多视图对比学习 Contrastive multi-view representation learning on graphs
七、GraphCL Graph Contrastive Learning with Augmentations
八、GPT-GNN: Generative Pre-Training of Graph Neural Networks
九、When Does Self-Supervision Help Graph Convolutional Networks?
十、GRACE Deep Graph Contrastive Representation Learning
主要内容:提出了一种图神经网络的预训练方法,在ROC-AUC曲线上得到了11.7%的绝对值提升
问题:传统的图核的方法,在获得固定长度的图表征方面有效,但是由于是手工设计的,泛化能力较差
方法:
问题:现有的GNN多是基于特定任务的,往往不能迁移
提出:基于最近NLP和CV中的预训练方法,提出了 Graph Contrastive Coding (GCC),获取跨多个网络的通用网络拓扑属性
主要内容:通过对比图的结构视图来学习节点级和图级表示的自监督方法
结果:将视图数增加到两个以上或对比多尺度编码并不能提高性能,对比一阶邻居的编码和图扩散可以获得最佳性能
内容: GraphCL,一个图对比学习的预训练框架
数据扩充时采用均匀分布有时候并不一定合理:
Graph Contrastive Learning with Adaptive Augmentation, CASIA, 2020arxiv
对比损失函数:归一化的温度标度交叉熵损失(NT-Xent),最后的损失是通过小批量中的所有正(?)对计算的
内容:有标签数据十分困难,一个有效的解决方法是先在无标签任务中进行预训练,然后使用少量标签进行微调。提出了通过生成性预训练(属性生成和边生成)初始化GNNs的框架:GPT-GNN
内容:图自监督学习,提出了三种新的GCN自监督学习任务,将多任务自我监控融入到图形对抗训练中
代码:https: //github.com/Shen-Lab/SS-GCNs
提出:一种基于节点级对比目标的无监督图表示学习框架
代码:https://github.com/CRIPAC-DIG/GRACE
改进:GCA。本质上来说,对比学习希望模型能学习到在外界施加扰动的情况下不敏感的特征表达。但是在图中每个节点和每一条边的重要程度不同,我们在 data augmentation 时进行去边的操作时应该尽可能多的去除不重要的边,进而可以保留图中重要的边与节点的结构信息以及属性信息。GCA 依然遵循 GRACE 的数据增强策略,即采取拓扑结构层面的数据增强(去边)以及节点属性层面的数据增强(mask 节点特征)。我们希望在进行数据增强的操作时,对于每个边以及每个节点进行扰动的概率有所差别,且事件发生的概率应该偏向于不重要的边与节点特征
triplet loss: