文献阅读(82)二值化神经网络

文章目录

  • 1 abstract & introduction
  • 2 Clamping Rectified Linear Unit
  • 3 量化方法
    • 3.1 前向近似
    • 3.2 后向近似

  • 题目:Efficient Quantization for Neural Networks with Binary Weights and Low Bitwidth Activations
  • 时间:2019
  • 会议:AAAI
  • 研究机构:上海交大倪冰冰

1 abstract & introduction

本篇论文的主要贡献:

  1. 设计了一个新的激活函数CReLU
  2. 提出了多层二值化和线性/对数量化方法
  3. 最终的结果可以实现二值化的权重效果超过全精度模型

2 Clamping Rectified Linear Unit

过去有很多二值化网络的工作,他对之前的工作进行了总结,发现二值化网络的一些特性制约了行动

unbounded characteristic is disadvantageous for quantization since some outliers on the tail of distribution can lead to large quantization errors
无界特性不利于量化,因为分布尾部的一些异常值会导致较大的量化误差

于是提出了带上界的ReLU
文献阅读(82)二值化神经网络_第1张图片
后向传播是
文献阅读(82)二值化神经网络_第2张图片
损失函数是:
文献阅读(82)二值化神经网络_第3张图片
其中C是原来网络的损失函数,后面加一项就好了,g表示一次范式或二次范式

3 量化方法

3.1 前向近似

本质就是用二值化的数拟合训练好的权重,设 b i b_i bi表示第i个kernel,加粗表示是个向量, α i \alpha_i αi表示第i个kernel的缩放值scale:
文献阅读(82)二值化神经网络_第4张图片
最小化二者之间的残差,这是NP难问题,他用贪心法解决
在这里插入图片描述
文献阅读(82)二值化神经网络_第5张图片

3.2 后向近似

文献阅读(82)二值化神经网络_第6张图片
w带波浪线的表示量化之后的数值,s表示符号函数
文献阅读(82)二值化神经网络_第7张图片

你可能感兴趣的:(算法论文,神经网络,人工智能,深度学习)