图自监督表征

1、综述

  • 数据挖掘领域大师俞士纶团队新作:最新图自监督学习综述
  • 图自监督学习综述:Graph Self-Supervised Learning A Survey
  • 图自监督学习(Graph Self-supervised Learning)最新综述+Github代码汇总
  • 图自监督学习在腾讯Angel Graph中的实践
  • [KDD’22] GraphMAE: 生成式图自监督学习超越对比学习
  • 论文推荐:SIGIR’21 | 用于推荐的自监督图学习SGL
  • WWW22 - 无监督图结构学习

前面两个综述是对论文Graph Self-Supervised Learning A Survey的翻译,该论文综述比较全面,重点讲解了生成式和对比式
全文链接:https://arxiv.org/pdf/2103.00111.pdf

2、对比学习基础

  • 自监督学习助力内容风控效果提升
  • 基于 Pretext Task 的自监督学习
  • 张俊林:从对比学习视角,重新审视推荐系统的召回粗排模型

3、哪种图自监督效果好?

根据实际情况来决定实践的路径,一般来说实现复杂度如下:
生成式 -> 对比式
一般而言,对比式图自监督效果会比生成式好,但是在比赛和日常实践中,生成式效果也不错,且结构简单,所以建议冷启动时,从生成式入手,然后逐步增加复杂度到对比式;

可以参考的一篇生成式图自监督论文解读和代码如下:
图自监督表征_第1张图片

  • [KDD’22] GraphMAE:
    生成式图自监督学习超越对比学习

  • [KDD’22] GraphMAE: 生成式图自监督学习超越对比学习

  • KDD 2022 | GraphMAE:生成式图自监督学习超越对比学习,解读的比较详细和中肯

  • https://github.com/THUDM/GraphMAE,代码

你可能感兴趣的:(图神经网络GNN,pytorch,机器学习/深度学习,人工智能,深度学习,pytorch)