DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN...

这篇文章主要分为三个部分:剪枝、权值共享和哈夫曼编码。具体的细节,已经有很多论文阅读的博客写的比较详细了,http://lib.csdn.net/article/deeplearning/50854?knId=1741
但是放在没有sparse库帮助处理sparse矩阵计算的硬件上计算有几个问题:

  1. 没有sparse库怎么计算sparse矩阵
  2. 存储方式改变以后存取数据改变
    量化还算是比较容易做,因为量化部分可以用查找表实现,将所有类别号和聚类中心对应值用一个查找表实现

你可能感兴趣的:(DEEP COMPRESSION: COMPRESSING DEEP NEURAL NETWORKS WITH PRUNING, TRAINED QUANTIZATION AND HUFFMAN...)