ShuffleNet论文学习

ShuffleNet(2017)

论文

Abstract

本文引入了一个用于移动端的高效CNN,这一新的体系结构使用了2种新的操作:①pointwise group convolution & channel shuffle, 能够极大地简化计算并保持准确率。

(效率>MobileNet)

与流行的结构相比,ShuffleNet使用了更多的feature map channels,能够编码更多的信息。

Group Convolution

introduced in AlexNet for distributing the model over two GPUs

Channel Shuflle Operation

Model Acceleration

  1. pruning network connections or channels
  2. quantization and factorization
  3. FFT 加速 卷积
  4. Distilling

Approach

Channel Shuffle For Group Convolutions

先前的网络采用了group convolution,但并未考虑1*1卷积,而这占用了93%的计算资源。

为解决这一问题,一种直观的想法是使用通道稀疏连接,但堆叠群卷积层会削弱表达能力,解决方法是做shuffle

ShuffleNet论文学习_第1张图片

Channel shuffle 用于ResNet:

ShuffleNet论文学习_第2张图片

除此之外,depthwise convolution只在bottleneck feature map上使用,尽管它的理论复杂度很低,在移动设备上的效率却不高

总体结构:

ShuffleNet论文学习_第3张图片

你可能感兴趣的:(ShuffleNet论文学习)