【KD】2023 ICML Linkless Link Prediction via Relational Distillation

1、简介

图神经网络(GNN)有很强的链接预测能力,但是其计算依赖于对邻居节点知识的聚合,因此导致其在实际应用中往往有较高的延迟。与GNN不同,多层感知机(MLP)在预测时不依赖于邻居节点信息,因此其推理速度更快,但也在一定程度上影响了其预测准确性。为了同时利用这两种模型的优点,即在快速预测的同时保持较高的预测准确性,我们提出了基于知识蒸馏的链接预测方法,将GNN中的知识通过蒸馏的方式教给学生MLP以提升MLP在链接预测中的效果。我们提出了一种适合于链接预测的图关系知识的蒸馏方法LLP,并在实验中证明了它的有效性。本报告的主要内容发表于ICML 2023的论文:Linkless Link Prediction via Relational Distillation。

分享嘉宾

郭之春是圣母大学(University of Notre Dame)计算机科学与工程系的四年级博士生,师从Nitesh Chawla教授。其博士期间主要研究对象为图神经网络,尤其是图神经网络在链接预测任务及化学应用中的问题。其在ICML, ICLR, AAAI, Web Conference, IJCAI等重要学术会议上发表多篇论文,并曾获得2022年Snap Research Fellowship。更多信息请参考她的个人主页https://zguo.io/.

2、LLP--基于知识蒸馏的链接预测加速

【KD】2023 ICML Linkless Link Prediction via Relational Distillation_第1张图片

 背景

你可能感兴趣的:(KD论文阅读,KD,GNN)