XCEPTION

XCEPTION_第1张图片
典型的Inception模块首先着眼于跨通道相关性,通过一个11卷积将输入数据
映射到3或者4个小于原始空间的单独空间。然后通过3
3或者5*5卷积着眼于这些小空间的3D空间相关性

inception模块背后的假设:跨通道相关性和空间相关性已充分解耦,因此最好不要联合映射它们,将他们分开映射可以得到最好的结果
XCEPTION_第2张图片
以第二分支为例,,假设 Input 是 28×28×192 的 Feature Maps,在通道相关性上利用 32 个 1×1×192 的卷积核做线性组合,得到 28×28×32 大小的 Feature Maps,再对这些 Feature Maps 做 256 个 3×3×32 的卷积,即联合映射所有维度的相关性,就得到 28×28×256 的 Feature Maps 结果。

一个简化版的inception模块,即等于下图
XCEPTION_第3张图片
inception模块 可以表示为一个大的11卷积,后面就是在输出通道(不重叠)上33空间卷积.
很容易就想到一个问题,不重叠的输出通道的数的作用和影响是什么,在文中做出一个比inception模更强大的假设:可以完全独立地映射跨通道关联和空间关联。因此就产生下一个图XCEPTION_第4张图片
我们可以看到,这种极端的模块是与深度可分离卷积是差不多的

深度可分离卷积与这种极致模式的inception模块的两点主要区别:
1:通常实现的深度可分卷积(例如在TensorFlow中)首先执行沿信道的空间卷积,然后执行1x1卷积,而Inception首先执行1x1卷积
2:第一次操作后非线性的存在或不存在。在初始阶段,这两种操作之后都是一个ReLU非线性,然而深度可分卷积的实现通常没有非线性

Xception
xception结构是残差结构的深度可分离卷积的线性堆叠
XCEPTION_第5张图片

你可能感兴趣的:(XCEPTION)