ICLR2021——神经注意力蒸馏(NEURAL ATTENTION DISTILLATION):去除DNN中的后门触发器
NEURALATTENTIONDISTILLATION:ERASINGBACKDOORTRIGGERSFROMDEEPNEURALNETWORKS这篇论文发布在ICLR2021。https://arxiv.org/abs/2101.05930本文提出一种新型的防御框架:NeuralAttentionDistillation(NAD),用于去除DNN中的后门。NAD使用一个教师模型知道后门学生模型在