知识蒸馏论文精选——《Graph-Free Knowledge Distillation for Graph Neural Networks 》
(GFKD)无图知识蒸馏《Graph-FreeKnowledgeDistillationforGraphNeuralNetworks》2021作者是XiangDeng和ZhongfeiZhang,来自纽约州立大学宾汉姆顿分校论文地址见文末摘要知识蒸馏(KnowledgeDistillation,KD)通过强制学生网络模仿在训练数据上预训练老师网络的输出,从而将知识从老师网络转移到学生网络。然而,在