MobileNetV2简单理解

MobileNetV2是对MobileNet的改进,主要引入了一下几个关键点:

(1)使用了深度可分离卷积方法,主要包括两个操作,一个是depthwise卷积,然后后面跟着一个1 × \times × 1的正常卷积,这个操作实际上和V1的操作是一样的,只不过在最后没有添加非线性激活函。
(2)之前的ResNet bottleneck最后的模块会使用非线性函数ReLU,而在MobileNet中则将最后的这个激活函数省去了,激活函数从RELU变换成ReLU6。
(3)inverted residual block,也就是前重后轻,即引入了expand_ratio,整个bottle neck从薄变后再变薄,注意残差链接的情况,只有步长为一同时输入输出通道一致才会存在shortcut。
ps:这篇博文是在你读完MobileNet才能很快消化的

你可能感兴趣的:(网络结构,深度学习,计算机视觉)