MobileNetV2 + ShuffleNetV2

Author:Yu Zhang
2019.03.04


  • MobileNetV2
  • ShuffleNetV2

漂移卷积实验跑完了,IoU只有66%,降了7个百分点,下面把漂移去掉换成普通卷积,再对比看一下,如果有一点提升,那么在之后论文中也可以用到。感觉今天没看到啥。。发现的两个弱监督论文都没有期望中的好,有点僵住了。

MobileNetV2

这篇文章看得我云里雾里的,因为作者在Linear BottleNeck这一核心思想部分讨论得非常深,水平所限我就不阐述其中道理了,我们来看一下结构。深度可分离卷积我就不过多赘述了,在channel及空间上分别进行卷积,减少了计算量。下图为MobileNetV2提出的bottleneck结构:

MobileNetV2 + ShuffleNetV2_第1张图片

其整个网络细节如下图,用在分割时可以只用前面的几层作为特征提取,因为它缩小的倍数太多了,没必要。可以看到通道数非常少,这样的网络会很快。

MobileNetV2 + ShuffleNetV2_第2张图片

mobilenetV2 代码:mobilenetv2

ShuffleNetV2

ShuffleNetV2列出了四点轻型网络要遵循的原则,并依据这四个原则,提出了改进思路,改变了原本的shufflenet。其中四点原则为:

1)相同通道宽度可以最小化内存访问成本MAC
2)过多的组卷积会增加内存访问成本MAC
3)网络内部碎片操作会降低并行度
4)元素计算操作不容忽视,元素计算操作也会有很高的的MAC

作者分析了不足,改进了shufflenet至shufflenetv2如下图,具体细节就不多说了,看图都懂:
MobileNetV2 + ShuffleNetV2_第3张图片

整个网络的架构:
MobileNetV2 + ShuffleNetV2_第4张图片

你可能感兴趣的:(deeplearning)