神经网络压缩库 Distiller

Distiller 是 Intel 开源的一个用于神经网络压缩的 Python 包,可减少深度神经网络的内存占用、提高推断速度并节省能耗。Distiller 为 PyTorch 环境提供原型和分析压缩算法,例如稀疏方法和低精度运算。

Distiller 包含:

  • 整合修剪、正则化和量化算法的框架

  • 一组用于分析和评估压缩性能的工具

  • (当前)最先进的压缩算法的示例实现

 

https://github.com/NervanaSystems/distiller

Distiller 压缩示例:https://nervanasystems.github.io/distiller/model_zoo/index.html

 

 

 

 

 

 

 

你可能感兴趣的:(Deep,Learning)