神经网络量化----为了部署而特别设计

引言:一般神经网络量化有两个目的:

  1. 为了加速,在某些平台上浮点数计算比较耗费时间,替换为整形可以加快运算
  2. 为了部署,某些平台上只支持整形运算,比如在芯片中

如果是第1个目的,则使用常规的量化手段就可以满足,将浮点数运算变成整形运算+较少的浮点运算

但是如果是第2个目的,那就需要对量化手段做一下改变。

如果是初学者,大家可以先看我的另一篇博客,这里有详细介绍【精选】神经网络量化----吐血总结-CSDN博客量化技术是连接学院派和工程派之间的桥梁,效果再好的网络速度不快,那么也不会在工业上普及,因此量化技术还是很有发展潜力的。_神经网络量化https://blog.csdn.net/weixin_41910772/article/details/109637956

目录

 1. 关于量化,我们需要了解哪些可以人为设计

1.1 缩放因子

1.2 权重初始化

1.3 损失

1.4 标签的变换

1.5 s设置后的收敛问题


 

 

 1. 关于量化,我们需要了解哪些可以人为设计

1.1 缩放因子

        以对称量化举例,输入、权重、输出可以表示为

                        x=x_{q}/s_{1}w=w_{q}/s_{2}y=y_{q}/s_{3}

        在训练时设置约束,可以将他们的关系表示为

        ​​​​​​​        ​​​​​​​        y_{q}/s_{3}=f(w_{q}*x_{q}/s_{1}/s_{2})

        其中的f可以为四舍五入、向下取整或者向上取整,变换一下或许更加清晰:

                        y_{q}=f(w_{q}*x_{q}*\frac{s_{3}}{s_{1}*s_{2}})

        那么如果你的平台只支持整形的四则运算以及移位操作,而{s_{3}}/({s_{1}*s_{2}})是个浮点数,那么就需要对{s_{3}}/({s_{1}*s_{2}})做一个巧妙的设计,比如在训练时直接将这个比值表示为a*2^b,这样就将与浮点数的运算表示为与整形的乘法和移位操作了,又或者将s都限制为2^m,这样就将与浮点数的运算表示为移位操作了。

1.2 权重初始化

        为了配合1.1中的对s做限制,初始化是个关键的步骤,好的初始化可以快速收敛,我个人比较喜欢torch.nn.init.xavier_normal_,这个初始化会根据扇入扇出来使得输入输出的方差保持一致,这样s1,s3不会有太大的变动。

1.3 损失

        例如,在二分类中,通过的做法是最后一层使用sigmoid+BCE损失,由于sigmoid的存在会导致输入的分布过于分散,所以可以将sigmoid+BCE替换为MSE。

1.4 标签的变换

        为了配合s的设置,还需要将标签变换一下,使得输出分布尽量沿原点对称且集中,比如二分类中,标签为0、1,那么可以修改为-0.5,+0.5.

1.5 s设置后的收敛问题

        可以将溢出的数据的梯度设置为0。

2. 举例说明

接下来我会找一个典型的芯片部署的问题来进行说明,,,

你可能感兴趣的:(神经网络量化,神经网络,人工智能,深度学习)