(科普快餐)语义分割经典论文--5:MobileNetV2

MobileNetV2: Inverted Residuals and Linear Bottlenecks(CVPR2018)

论文地址:https://arxiv.org/abs/1801.04381


MobileNet v2网络是由google团队在2018年提出的,相比MobileNet V1网络,准确率更高,模型更小。

网络中的亮点

  • Inverted Residuals (倒残差结构 )
  • Linear Bottlenecks(结构的最后一层采用线性层)

到残差结构图如下:

(科普快餐)语义分割经典论文--5:MobileNetV2_第1张图片

(科普快餐)语义分割经典论文--5:MobileNetV2_第2张图片

 一些对比结构图:

(科普快餐)语义分割经典论文--5:MobileNetV2_第3张图片

 这么做的原因是在 ResNet 中,使用的是标准的卷积层,如果不先用 1x1 conv 降低通道数,中间的 3x3 conv 计算量太大。因此,我们一般称这种 Residual Block 为 Bottleneck Block,即两头大中间小。但是在 MobileNet V2 中,中间的 3x3 conv 是深度级可分离卷积,计算量相比于标准卷积小很多,因此,为了提取更多特征,我们先用 1x1 conv 提升通道数,最后再用 1x1 conv 把通道数降下来,形成一种两头小中间大的模块,这与 Residual Block 是相反的。

另外说明一点,使用 1x1 conv 的网络结构将高维空间映射到低维空间的设计称之为 Bottleneck layer。

在之前的ResNet残差结构是先用1x1的卷积降维,再升维的操作。而在MobileNetV2中,是先升维,在降维的操作。

所以对于ResNet残差结构是两头大,中间小。而对于MobileNetV2结构是中间大,两头小的结构。

 其中,在MobileNet结构中,采用了新的激活函数:ReLU6

一个解释是,ReLU激活函数对于低维的信息可能会造成比较大的瞬损失,而对于高维的特征信息造成的损失很小。而且由于倒残差结构是两头小中间大,所以输出的是一个低维的特征信息。所以使用一个线性的激活函数避免特征损失。

你可能感兴趣的:(深度学习,计算机视觉,人工智能)