Google Xception Network

本次介绍Google的Xception网络,该网络的目的或者说达到的效果是:模型参数量同GoogLeNet Inception V3相近的情况下取得更好的网络性能。

文章链接: 《Xception: Deep Learning with Depthwise Separable Convolutions》

caffe实现的Xception: https://github.com/yihui-he/Xception-caffe

TensorFlow实现的Xception: https://github.com/kwotsin/TensorFlow-Xception

1. 网络结构

Xception实际上采用了类似于ResNet的网络结构,主体部分采用了模块化设计。如下图所示:

Google Xception Network_第1张图片

其中, SeparableConv是一种depthwise convolution 和 1X1 卷积的结合。 depthwise convolution在caffe的实现中就是将group参数设置为等于numoutput。

我们先看一下传统卷积是怎么实现的:

Google Xception Network_第2张图片

再来看一下depthwise convolution的实现:

Google Xception Network_第3张图片

由上图可知,depthwise convolution卷积中每一个卷积核只对应输入的一个channel,因此这也要求输入通道数与输出通道数相同。 (大家可以注意到,Xception保持了中间重复模块的feature map的channel始终为728)。

完整的一个SeparableConv是下面的一个组合:

Google Xception Network_第4张图片

2. 进化由来

Xception 取名的由来是 “ Extreme Inception”, 其由Inception V3的演进而来:

Google Xception Network_第5张图片

“极端形式”同SeparableConv的区别主要有两点:

  • 3x3卷积和1x1卷积的先后顺序。 原来的Inception结构是先1x1卷积,后3x3卷积。作者认为这里的区别并不重要。
  • 两个卷积层之间是否有激活函数。 原来的Inception中间是有ReLU激活的。 但实验结果证明不加激活效果更好。

3. 总结

从实验结果来看, Xception在参数量上同Inception V3基本等同, 在Imagenet上的表现二者也很接近(另一个更大规模的Google私有数据集上,Xception的优势要稍微明显些)。

我的观点:

  • 大规模使用Group操作,其实不利于矩阵层面的运算。即使可以减少参数,但不一定可以提高速度。
  • Xception在性能上的提升比较有限,而且不能确定是否是ResNet结构带来的提升。

你可能感兴趣的:(神经网络压缩与加速)