深度学习: 轻量级网络

综述

2016年提出了三个非常重要的轻量级网络:

  • Xception
  • MobileNet
  • ShuffleNet

均采用了 depth-wise卷积 ,极大地减少了参数和计算量。
为了实现通道间的信息交互,MobileNet 用了 point-wise group,ShuffleNet 用了 channel shuffle。后者省去了卷积步骤,速度更快。

depth-wise计算

参数量 3 × 3 × C i n + 1 × 1 × C i n × C o u t 3 × 3 × C i n × C o u t \frac{3×3×C_{in} + 1×1×C_{in}×C_{out}}{3×3×C_{in}×C_{out}} 3×3×Cin×Cout3×3×Cin+1×1×Cin×Cout
FLOPS [ 3 × 3 × C i n × F × F + C i n × C o u t × F × F ] × 2 [ 3 × 3 × C i n × C o u t × F × F ] × 2 = 1 C o u t + 1 3 × 3 \frac{[3×3×C_{in}×F×F + C_{in}×C_{out}×F×F]×2}{[3×3×C_{in}×C_{out}×F×F]×2} = \frac{1}{C_{out}} + \frac{1}{3×3} [3×3×Cin×Cout×F×F]×2[3×3×Cin×F×F+Cin×Cout×F×F]×2=Cout1+3×31

MobileNet

版本号 特性
v1 depth-wise conv + point-wise group
v2 去掉了通道收缩时的激活;relu换成relu6
v3 用了NAS;用了h-swish激活

ShuffleNet

版本号 特性
v1 depth-wise conv + channel shuffle
v2 用 channel split 分割成两个分支,合并后再做 channel shuffle

你可能感兴趣的:(深度学习,深度学习,人工智能)