论文地址:ECCV 2020
《MobileNeXt: Rethinking Bottleneck Structure for Efficient Mobile Network Design》
论文针对MobileNetV2的核心模块逆残差结构存在的问题进行了深入分析,提出了一种新颖的SandGlass模块,并用于组建了该文的MobileNeXt架构,SandGlass是一种通用的模块,它可以轻易的嵌入到现有网络架构中并提升模型性能,这种轻量级模块有原生残差块和倒置残差块的影子,是一种正向残差设计。
回顾
ResNet 使用标准卷积提取特征,MobileNet 始终使用DW卷积提取特征。
ResNet 先降维、卷积、再升维,而 MobileNet V2 则是 先升维、卷积、再降维。
直观上看,ResNet 的微结构是沙漏形,而 MobileNet V2 则是纺锤形。
因此作者将 的结构称为 Inverted Residual Block。这么做也是因为使用DW卷积而作的适配,希望特征提取能够在高维进行。
如下图所示,左侧是ResNet网络中的残差结构(中间窄两头宽),右侧就是MobileNet v2中的逆残差结构(中间宽两头窄)。
在残差结构中是1x1卷积降维->3x3卷积提取特征->1x1卷积升维,在逆残差结构中正好相反,是1x1卷积升维->3x3DW卷积提取特征->1x1卷积降维。 MobileNet V2 的解释是高维信息通过ReLU激活函数后丢失的信息更少。
下图为ResNet, MobileNetV2和论文提出的MobileNeXt的对比:
ResNet残差块组成:1x1卷积(降维)、3x3卷积(空间信息特征提取)、1x1卷积(升维);
MobileNetV2倒置残差块组成:1x1卷积(升维)、3x3深度可分卷积(空间信息特征提取)、1x1卷积(降维);
MobileNeXt沙漏残差块组成:3x3深度可分卷积(空间信息特征提取)、1x1卷积(降维)、1x1卷积(升维)、3x3深度可分卷积(空间信息特征提取),该结构与正向残差类似,区别在于使用了深度卷积;
ResNet残差块中间的3*3卷积的参数量和计算量都非常大,不适用于轻量级网络;
MobileNetV2的Inverted residual block,专为移动设备设计,为了节省计算量,输入改为低维度特征,先通过pointwise卷积扩大维度,然后通过depthwise卷积提取特征,最后通过pointwise卷积降低维度输出;skip path仅建立在低维度bottleneck间,最后一个pointwise卷积不使用非线性激活;
尽管Inverted residual block性能不错:
但输入需要将特征先降到较低的维度,但是降低维度可能不足以保留足够的有用信息;
近期有研究发现更宽的网络结构(输入输出通道数更多)有助于缓解梯度混淆(特指梯度消失与梯度爆炸,不同batch产生的梯度抵消),能够提升网络性能;
shortcut建立在bottleneck之间,由于bottleneck维度较少,也可能会阻碍梯度的回传。
为解决上述问题,论文提出了设计更优的sandglass block,结构如图3(c),基于此搭建了MobileNeXt,在性能和计算量上都优于MobileNetV2。
考虑到上述逆残差模块存在的问题,论文作者的设计原则:
保持更多的信息从bottom传递给top层,进而有助于梯度回传;
深度卷积是一种轻量型单元,可以执行两次深度卷积以编码更多的空间信息。
作者重新思考移动网络的bottleneck结构,发现inverted residual并不是最优的bottleneck结构。
研究发现,shortcut应该建立在高维度特征上,depthwise卷积应该应用在高维度特征空间上学习更多样特征,linear residual是bottleneck结构的关键。
如下图所示:(a) Inverted Residual Bottleneck (b) SandGlass Bottleneck
SandGlass块本质上是一个经典的残差块,其中主分支中的第一个和最后一个卷积层是保留通道的空间深度卷积层。为了模拟瓶颈结构,它使用两个连续的逐点卷积来减少然后增加通道数,这些PW卷积堆叠在两个深度卷积层之间。由于现在更大的通道张量由深度内核操作,因此与MobileNetV2相比,参数数量大大减少。
sandglass block理论分析 :
表中ReLU6是指具有最大输出限制为6的relu函数,主要是为了在移动端设备float16/int8的低精度时也能有很好的数值分辨率,如果对普通relu函数的激活范围不加限制,输出的范围为0到正无穷,如果激活值非常大,分布在一个很大的范围内,则低精度的loat16/int8就无法良好地精确描述如此大范围地数值,从而带来精度地损失;
线性激活函数linear是指线性映射(y=x),这有助于避免零化现象的出现,进而减少信息损失。
输入为224*224*3,然后是卷积后32维输出,后续是sandglass block的堆叠,最后是全局平均池化,将二维的特征图压缩为一维,最后再由全连接层、softmax函数输出每个类别的分数。
尽管shortcut连接有助于梯度的回传,但论文通过实验发现,没有必要保持完整的特征去跟residual path结合。为了让网络对移动设备更友好,论文提出超参数identity tensor multiplier ,用于控制shortcut传递的特征维度,假设表示残差分支的变换函数;
原来的residual block计算可表示为:
加入超参数后的residual block计算可表示为:
超参数的作用:
通过降低该超参数,每个模块中的add数量可以进一步降低,因为add操作会占用不少耗时,用户可以选择更少的以得到更好的推理速度且性能几乎无影响;
可以降低内存访问时间。影响模型推理的一个重要因素是:内存访问消耗(Memory acces cost, MAC)。降低该超参数有助于减少cache占用,进而加速推理。
即作者考虑到用在移动设备的延时问题,作者不对所有来自短径连接地数据进行add,只选择其中地一部分进行连接,论文实验表明取特征的一半进行加和,可以保持速度和精度的最佳。
下图为不完全的短径连接:
tensor multiplier 选择:
ImageNet分类任务效果如下:
与其他网络结构在ImageNet上进行对比:
作者对逆残差结构进行了改进,又变回了正向残差结构,从高维特征获取到更多的信息,并解决shortcut连接所带来的梯度问题,在1*1PW卷积之间不使用3*3卷积来提取特征,而是先进行降维再进行升维以更新融合特征。
MobileNet作为一个轻量级网络,但是论文作者并没有列出在实际移动设备上的应用。
MobileNeXt | 新一代手机端模型
PyTorch实现
MobileNext:打破常规,依图逆向改造inverted residual block
依图科技MobileNeXt
仅为学习记录,侵删!