MobileNetv1

MobileNetv1:

针对移动端以及嵌入式视觉的应用提出了一类有效的模型叫MobileNets。MobileNets基于一种流线型结构使用深度可分离卷积来构造轻型权重深度神经网络。

MobileNet的核心部分也就是深度可分离卷积。然后描述描述MobileNet的网络结构和两个模型收缩超参数即宽度乘法器分辨率乘法器

深度可分离卷积

MobileNet是一种基于深度可分离卷积的模型,深度可分离卷积是一种将标准卷积分解成深度卷积以及一个1x1的卷积即逐点卷积。对于MobileNet而言,深度卷积针对每个单个输入通道应用单个滤波器进行滤波,然后逐点卷积应用1x1的卷积操作来结合所有深度卷积得到的输出。而标准卷积一步即对所有的输入进行结合得到新的一系列输出。深度可分离卷积将其分成了两步,针对每个单独层进行滤波然后下一步即结合。这种分解能够有效的大量减少计算量以及模型的大小。

MobileNetv1_第1张图片

然后做了计算复杂度上的对比,

标准卷积:

深度可分离卷积:

深度可分离卷积+逐点卷积:

然后与标准卷积相比较:MobileNetv1_第2张图片,在MobileNet使用3X3深度可分离卷积核的情况下,计算量比标准的卷积减少了8~9倍。

网络结构

MobileNetv1_第3张图片MobileNetv1_第4张图片

 

MobileNetv1_第5张图片

宽度乘法器:更薄的模型

 尽管最基本的MobileNet结构已经非常小并且低延迟。而很多时候特定的案例或者应用可能会要求模型变得更小更快。为了构建这些更小并且计算量更小的模型,我们引入了一种非常简单的参数α叫做宽度乘法器。宽度乘法器αα的作用就是对每一层均匀薄化。给定一个层以及宽度乘法器α,输入通道数M变成了αM并且输出通道数变成αN。 
计算:,这样计算量进一步减少

分辨率乘法器:约化表达

 第二个薄化神经网络计算量的超参数是分辨率乘法器ρ。实际上,我们通过设置ρ来隐式的设置输入的分辨率大小。 
计算: 

论文的思想就是如上,设法减少计算量,其余部分是实验验证,验证了在损失很小性能的情况下,参数量大幅减少。

MobileNetv1_第6张图片

MobileNetv1_第7张图片

你可能感兴趣的:(论文阅读)