【AAAI 2021】跨层知识蒸馏:Cross-Layer Distillation with Semantic Calibration

【AAAI 2021】跨层知识蒸馏:Cross-Layer Distillation with Semantic Calibration

  • 论文地址:
  • 代码地址:
  • 主要问题:
  • 主要思路:
  • 具体实现:
    • 基本符号:
    • 语义校准公式:
  • 实验结果:
  • 联系作者:
  • 我的公众号:

论文地址:

https://arxiv.org/abs/2012.03236

代码地址:

https://github.com/DefangChen/SemCKD

主要问题:

目前的知识蒸馏算法中,中间层的语义在不同的网络中可能会有所不同,而层的人工关联可能会导致某些教师学生层对之间的语义不匹配而导致效果不佳

(跟这一篇:

你可能感兴趣的:(深度学习,人工智能,神经网络,模型压缩,知识蒸馏)