重训练量化(改进QAT)

原文链接:https://www.yuque.com/yahei/hey-yahei/quantization-retrain_improved_qat
欢迎引用&转载,但烦请注明出处~

Quantize Aware Training(QAT)通过在训练过程中融入量化和反量化过程,来实现量化模型的精度恢复,但考虑一下量化过程
![image.png](https://img-blog.csdnimg.cn/img_convert/a86094a7396694cbba5791bd488c0b63.png#align=left&display=inline&height=254&margin=[object Object]&name=image.png&originHeight=329&originWidth=215&size=23595&status=done&style=none&width=166)
w q = q ( w ) = α ⋅ C l a m p ( R o u n d ( w α ) ) w_q = q(w) = \alpha \cdot Clamp(Round(\frac{w}{\alpha})) wq=q(w)=αClamp(Round(αw))
∂ L ∂ w = ∂ L ∂ w q ⋅ ∂ w q ∂ w ≈ S T E ∂ L ∂ w q ⋅ 1 = ∂ L ∂ w q \frac{\partial L}{\partial w} = \frac{\partial L}{\partial w_q} \cdot \frac{\partial w_q}{\partial w} \mathop{\approx} \limits_{STE} \frac{\partial L}{\partial w_q} \cdot 1 = \frac{\partial L}{\partial w_q} wL=wqLwwqSTEwqL1=wqL
显然取整的 R o u n d ( ⋅ ) Round(\cdot) Round()求导的时候处处为零,是无法训练的。因此QAT需要引入Straight-Through Estimator(STE)来得到一个近似的梯度,也即令 ∂ R o u n d ( x ) ∂ x ≈ 1 \frac{\partial Round(x)}{\partial x} \approx 1 xRound(x)1,相当于用 y = x y=x y=x去近似 y = R o u n d ( x ) y=Round(x) y=Round(x) y = q ( x ) y=q(x) y=q(x)来进行求导。通常,如果比特数比较高的时候,这里带来的误差并不明显;但在低精度场景下,STE会导致训练不稳定。所以一直有研究者试图通过避免或优化STE来改进QAT。

Alpha-Blending(AB)

论文:《Learning low-precision neural networks without Straight-Through Estimator(STE) (IJCAI2019)》

AB算法将全精度权重跟量化权重加权混合得到新的权重用于训练,反向传播时,量化权重的链路不采用STE,故导数为0,因此只会沿着全精度权重的链路反向传播。
![image.png](https://img-blog.csdnimg.cn/img_convert/8b9a4059310a99775d0c425dccd707cb.png#align=left&display=inline&height=300&margin=[object Object]&name=image.png&originHeight=350&originWidth=218&size=26187&status=done&style=none&width=187)
w ′ = ( 1 − α ) w + α w q w' = (1-\alpha)w + \alpha w_q w=(1α)w+αwq
∂ L ∂ w = ∂ L ∂ w ′ ∂ w ′ ∂ w = ∂ L ∂ w ′ ( ( 1 − α ) + α ∂ w q ∂ w ) = ( 1 − α ) ∂ L ∂ w ′ \frac{\partial L}{\partial w} = \frac{\partial L}{\partial w'} \frac{\partial w'}{\partial w} = \frac{\partial L}{\partial w'} \left( (1-\alpha) + \alpha \frac{\partial w_q}{\partial w} \right) = (1-\alpha) \frac{\partial L}{\partial w'} wL=wLww=wL((1α)+αwwq)=(1α)wL

随着训练的进行, α \alpha α逐渐从0增长到1,增长的方式可以有很多种,比如
α = 1 − e − λ ⋅ s t e p \alpha = 1 - e^{-\lambda \cdot step} α=1eλstep

α = { 0 s t e p ≤ T 0 1 − ( T 1 − s t e p T 1 − T 0 ) T 0 < s t e p ≤ T 1 \alpha = \begin{cases} 0 & step \leq T_0 \\ 1 - (\frac{T_1 - step}{T_1 - T_0}) & T_0 < step \leq T_1 \end{cases} α={ 01(T1T0T1step)stepT0T0<stepT1

并且学习率也随着 α \alpha α的增长而衰减
ϵ = ϵ b a s e ⋅ ( 1 − α ) \epsilon = \epsilon_{base} \cdot (1-\alpha) ϵ=ϵbase(1α)

(以下实验中,均采用最小化L2误差的交替优化方案)
![image.png](https://img-blog.csdnimg.cn/img_convert/2b953b7013d7178817e6fb6d631eaf9c.png#align=left&display=inline&height=199&margin=[object Object]&name=image.png&originHeight=366&originWidth=481&size=87361&status=done&style=none&width=261)
![image.png](https://img-blog.csdnimg.cn/img_convert/e6efe66fdd2b17a4a0cf7d83f7dd5440.png#align=left&display=inline&height=126&margin=[object Object]&name=image.png&originHeight=251&originWidth=622&size=62312&status=done&style=none&width=311)
![image.png](https://img-blog.csdnimg.cn/img_convert/dd0db67eaaeb9a0ef92a9e68d4ac2128.png#align=left&display=inline&height=79&margin=[object Object]&name=image.png&originHeight=158&originWidth=608&size=40355&status=done&style=none&width=304)
(ImageNet实验)

QuantNoise

论文:《Training with Quantization Noise for Extreme Model Compression (2020)》
来自facebook的工作,算是借鉴了Dropout和增量式量化的思路,在训练过程中随机量化一部分权重而保持其他权重为全精度,以保证训练过程中总有一部分权重是不需要使用STE获得近似梯度。

![image.png](https://img-blog.csdnimg.cn/img_convert/0e966a9a09ce147742364f14edf81385.png#align=left&display=inline&height=214&margin=[object Object]&name=image.png&originHeight=220&originWidth=410&size=35578&status=done&style=none&width=398)
(Dropout示意,训练时随机丢弃部分权重)

![image.png](https://img-blog.csdnimg.cn/img_convert/2289ee7cb1dd6c90e0ecb07f93a33678.png#align=left&display=inline&height=340&margin=[object Object]&name=image.png&originHeight=679&originWidth=1232&size=130226&status=done&style=none&width=616)
(增量式量化示意,训练时从绝对值较大的权重开始,逐步扩大量化范围)

![image.png](https://img-blog.csdnimg.cn/img_convert/d3bbaf08196c201897e6ccf091792954.png#align=left&display=inline&height=172&margin=[object Object]&name=image.png&originHeight=280&originWidth=845&size=145792&status=done&style=none&width=518)
(QuantNoise示意,训练时每次随机量化一部分权重)

PyTorch实现上非常简单,原本QAT的代码为

noise = quantize(w) - w
w_q = w + noise.detach()

QuantNoise只需要乘上一个随机生成的掩膜

noise = quantize(w) - w
w_q = w + noise.detach() * mask

论文里做了很多NLP的实验,可惜我对NLP了解的不多,做不出评判。CV也就跑了EfficientNet-B3,诶就不能跑下MobileNet吗,跑EfficientNet不太好跟其他论文直接比较。
![image.png](https://img-blog.csdnimg.cn/img_convert/a25db3952e96c15f6c35e0ace6c8d68b.png#align=left&display=inline&height=302&margin=[object Object]&name=image.png&originHeight=604&originWidth=1260&size=187179&status=done&style=none&width=630)
不过看起来EfficientNet int4掉点有点厉害啊(这里的int4应该是同时将权重和激活都量化成int4了)。简单地复现过论文,发现并不能跑出这样的结果,在同等条件下QAT总是比QuantNoise好而且收敛更快。论文其实隐瞒了很多实验细节,倒是指明了QuantNoise激活值是采用PyTorch的HistogramObserver来量化(HistogramObserver实现细节可以参见《后训练量化 - 数据收集方法 - 直方图 - 如何在直方图上计算L2误差? | Hey~YaHei!》),但对QAT没做更多说明。我怀疑实验中QAT是采用了指数平滑平均的方式量化激活值,也做了几个简单的实验,发现QAT采用指数平滑平均量化激活值,QuantNoise采用HistogramObserver量化激活值时实验结果跟论文实验结果“惊人”地相似……于是跑到github项目上(只开源了一小部分代码)提了issue不过没有得到答复,感觉QuantNoise的实际效果存疑。

全精度辅助模块

论文:《Training Quantized Neural Networks with a Full-precision Auxiliary Module (CVPR2020)》

AB算法混合了量化权重和全精度权重来训练,那么为什么不干脆分成两个分支,共享一套权重,一个分支走量化权重、另一个分支走全精度呢?这样在反传的时候,就既有来自全精度分支的梯度、也有来自量化分支的梯度。
![image.png](https://img-blog.csdnimg.cn/img_convert/055a97b46afa470be9fe69c1e2d26270.png#align=left&display=inline&height=337&margin=[object Object]&name=image.png&originHeight=337&originWidth=345&size=17242&status=done&style=none&width=345)

这种想法比较朴素,训练代价(主要是训练时间)相比于原始模型就增加了一倍。而论文则是采用辅助模块来做量化补偿以实现这种想法:
![image.png](https://img-blog.csdnimg.cn/img_convert/7d01a178c0f5289678a0be1f3ee233e0.png#align=left&display=inline&height=162&margin=[object Object]&name=image.png&originHeight=273&originWidth=1134&size=62320&status=done&style=none&width=671)
(设计思路)

![image.png](https://img-blog.csdnimg.cn/img_convert/f30cba3dad8c253df96dac4d90a0bd89.png#align=left&display=inline&height=223&margin=[object Object]&name=image.png&originHeight=265&originWidth=673&size=18584&status=done&style=none&width=566)
(如果觉得上一张图比较绕,我们可以试试换种画法)

蓝色部分的block采用量化的模型,每个block的输出(加和之前的特征图)经过Adaptor来做一定的量化补偿后加到全精度分支里,最后分别求loss,两者加和后反传和更新梯度,此时权重梯度既能来源于量化分支又能来源于“全精度”分支。论文里Adaptor采用的是一个1x1卷积,更复杂的设计会带来一些细微的提升,但1x1卷积基本就够用(后边有实验数据)。

这个思路跟辅助任务、知识蒸馏有点像,论文里还特地比较了一下
![image.png](https://img-blog.csdnimg.cn/img_convert/345901aa3c973333f350d20414b43a03.png#align=left&display=inline&height=143&margin=[object Object]&name=image.png&originHeight=185&originWidth=635&size=17115&status=done&style=none&width=491)
(辅助任务)

![image.png](https://img-blog.csdnimg.cn/img_convert/e494ae93831b8d67f2ba86514b91885f.png#align=left&display=inline&height=138&margin=[object Object]&name=image.png&originHeight=174&originWidth=636&size=25947&status=done&style=none&width=503)
(知识蒸馏)

辅助任务可能存在多个分类器,挑选辅助分类器插入的位置会比较麻烦,而且跟引入全精度分支的思路相比还是差了那么点意思;知识蒸馏两分支则完全独立,训练时用全精度网络来监督量化网络的训练,但训练代价会比较大,再有就是知识蒸馏的是否需要加权,加多大的权重也是需要微调的。

实验细节
量化均采用QIL的算法,保持BN层统计量的更新;对于RetinaNet,各个head之间不共享,论文给出的解释是,在量化模型中,不同尺度特征图语义信息不能被很好的编码,不共享head虽然会增加参数量,但却不会增加计算代价。
![image.png](https://img-blog.csdnimg.cn/img_convert/19bc72421a735ad632b35fabae1c78b1.png#align=left&display=inline&height=198&margin=[object Object]&name=image.png&originHeight=346&originWidth=682&size=96594&status=done&style=none&width=390)
(有无辅助模块的比较实验,ImageNet)

![image.png](https://img-blog.csdnimg.cn/img_convert/412986605f757752d9fe04d1213e84fc.png#align=left&display=inline&height=224&margin=[object Object]&name=image.png&originHeight=407&originWidth=722&size=103294&status=done&style=none&width=397)
(与辅助任务、知识蒸馏方法的比较实验,2bit,ImageNet)

![image.png](https://img-blog.csdnimg.cn/img_convert/ba20541636c3a3029d456cc92cdbd97a.png#align=left&display=inline&height=76&margin=[object Object]&name=image.png&originHeight=134&originWidth=724&size=34530&status=done&style=none&width=412)
(Adaptor设计比较,2bit,ImageNet)
(3x3卷积稍微好一点点,但不明显)

![image.png](https://img-blog.csdnimg.cn/img_convert/1a3afc96eaf9397c9e8a502efae743f9.png#align=left&display=inline&height=174&margin=[object Object]&name=image.png&originHeight=277&originWidth=682&size=82695&status=done&style=none&width=428)
(与FQN方法比较,4bit,COCO)

![image.png](https://img-blog.csdnimg.cn/img_convert/bf49468183dcb7b9832d9f6e7302a1cb.png#align=left&display=inline&height=117&margin=[object Object]&name=image.png&originHeight=187&originWidth=723&size=70591&status=done&style=none&width=452)
(共享head,4bit,COCO)
(Backbone only指的是只量化Bakbone)

你可能感兴趣的:(人工智能,机器学习,深度学习,模型压缩,量化)