【NISP: Pruning Networks using Neuron Importance Score Propagation】论文笔记
简介和综述论文链接:https://arxiv.org/pdf/1711.05908.pdf这篇论文对于裁剪部分写的很详细,同时综述也不错。这篇博客只是将论文翻译了一下(大部分机翻)。为了减少深度卷积神经网络(CNN)中的显着冗余,大多数现有方法仅通过考虑单个层或两个连续层的统计来修剪神经元(例如,修剪一个层以最小化下一层的重建误差),忽略深度网络中误差传播的影响。相反,我们认为必须根据统一的目标