《Distilling the Knowledge in a Neural Network》知识蒸馏论文解读

问题:由于网络结构的复杂,进行预测的代价过高,难以将网络部署到轻量级设备用户中。

解决方法:利用知识蒸馏进行模型压缩,实现轻量级网络。

接下来以这篇论文为基础来认识知识蒸馏。

1、软标签和硬标签

描述:硬标签就是指我们在预测时正确的值为1,错误的值为0。而软标签则认为错误的标签不可能都是零,因为对错误标签而言总有着自己的差距,如下面所示。

                     硬标签       软标签

       宝马           1               0.9

       奔驰           0               0.6

      垃圾车         0               0.3

          胡萝卜         0               0.001

从上面描述可知,在我们预测宝马车时,除了正确的标签归为1,其他的标签都为0,也就是非0即1。但是实际上在错误类别中,宝马更像奔驰而更不像胡萝卜,这说明错误标签的信息也有差距。于是就引入了软标签,将标签值改为0到1之间的值,这样呈现的信息就更为丰富。

2、温度系数T 

软标签可以把错误标签的信息呈现出来,但是在呈现时有些错误标签的差距不明显,也就是标签值不够软。这个时候为了把这个不明显的差距变得更为明显,论文作者就引入了温度系数T来改变原来的SoftMax函数,即:

式中qi代表使用SoftMax输出的类别概率、zi代表每个类别的logit、T为温度系数。

PS:如果T小,错误类别的信息差距较小,但如果T过大,标签就会过软,容易导致平均主义,难以达到预测的效果,具体T的选值效果如下所示。

《Distilling the Knowledge in a Neural Network》知识蒸馏论文解读_第1张图片

 图中,我们可以看出T越大,曲线越平滑。如果T过大就易出现平均主义,就会变得难以预测。

3、知识蒸馏网路框架

《Distilling the Knowledge in a Neural Network》知识蒸馏论文解读_第2张图片

 图中分别将样本喂入教师模型和学生模型进行训练,其中教师模型为原有的复杂模型,学生模型为压缩后的简单模型。在计算损失时,需要分别计算蒸馏损失和学生损失,蒸馏损失是在温度为T的时候计算教师和学生两个网络输出的交叉熵,而学生损失是在温度为1的情况下计算真实标签和学生网络输出的交叉熵,具体公式如下。

L_{total}=-\frac{1}{m}\sum_{i=1}^{m}\sum_{j=1}^{n}\lambda* log\left (y*P\left ( x_{ij} \right ) \right )+\left ( 1-\lambda \right )* log\left (Y_{ij}*P\left ( x_{ij} \right ) \right )

式中共有m个样本和n个类别,y代表真实标签(硬标签) ,P(xij)表示学生网络输出的软标签,Yij表示教师网络输出的软标签,λ表示0到1之间的权重系数。

4、交叉熵梯度 

假设教师模型为vi,学生模型为zi,两者分别的软目标概率分布为qi和pi,则梯度为:

 1、假设温度系数可以无限大,式子就变形为:

PS:采用e^{x}的泰勒展开式, 假如T无限大,则后面几项就可以忽略不计,此时我们取泰勒的前两项,就转变为上面的形式。

2、假设不同样本的logit值为0:

 PS:分母里的两个西格玛求和为0。

因此在这两个条件都满足的特例情况下,就转变为求最小化均方误差。

5、结论 

为了验证知识蒸馏的效果,论文作者在MINST手写数字集上进行了预实验,然后以语音识别的复杂模型蒸馏来验证了知识蒸馏的性能。

《Distilling the Knowledge in a Neural Network》知识蒸馏论文解读_第3张图片

你可能感兴趣的:(知识蒸馏,深度学习,神经网络,计算机视觉,迁移学习,人工智能)