【深度学习解惑】结合神经网络结构剪枝或知识蒸馏,能否把 Inception 精剪到 mobile‑friendly 仍保持精度?
Inception系列模型移动端压缩研究报告摘要Inception系列卷积神经网络(如GoogLeNet/Inceptionv1、v3等)通过模型剪枝和知识蒸馏等压缩技术可以显著减小模型规模,使其更适合移动端部署,同时保持较高的推理准确率。研究表明,大型Inception模型经过结构化剪枝可在参数量减少约10倍的情况下仅造成很小的精度下降;例如,Inception-v3模型即使剪除87.5%的权重