Squeeze-and-Excitation Networks 笔记

1. 前言

在这篇论文中,作者调查了模型设计中稍微不同的一方面:通道之间的关系。目标是为了通过显示地对通道之间卷积特征的依赖关系进行建模,来提高网络的表达能力。作者提出了一种机制,允许网络进行特征校准(feature recalibration)。通过它,来更多地关注信息丰富的特征,抑制信息少的特征。

2. 模型

Squeeze-and-Excitation Networks 笔记_第1张图片
block 结构

如上图是一个基本的SE的block。对于任意给定的一个转换:
,都可以按照如下方式进行特征校准:

  1. 特征首先经过一个squeeze操作,该操作通过在空间维度上进行映射,产生特征描述。这个特征描述,包含了每个通道特征相应的分布情况。
  2. 通道描述接着经过一个excitation操作,该操作相当于一个门的机制,它产生每个通道的权重。

作者认为,在网络的不同深度,SE block会扮演不同的角色。在比较浅的层,作者认为SE是作用在对类别信息一无所知的情况下,因此,它能够支持那些底层特征。在比较高的层,SE越来越趋向于class-specific

3. SE Blocks

Squeeze-and-Excitation block。像前面所说,SE block可以应用在任何转换上。论文中,那卷积操作作为例子。表示卷积操作,表示卷积的核,那么的输出可以表示为:

Squeeze-and-Excitation Networks 笔记_第2张图片
卷积

Squeeze:Global Information Embedding:作者将squeeze视为对全局信息的embedding,我们知道在卷积操作中,每一个filter都操作在一个区域中,是无法利用其他区域的信息。因此,作者使用了global average pooling来产生每个通道的统计信息。如下图:

Squeeze-and-Excitation Networks 笔记_第3张图片
squeeze

Excitation:Adaptive Recalibration:为了利用squeeze操作的信息,作者使用Excitation来捕捉通道间的相关性。

Excitation

简单来说,就是首先将squeeze输出通过一个映射到更短的向量,再通过一个激活函数 ReLU,在通过一个映射变回原来的长度。简单来说,就是两层FC。
block最终的输出由下面决定:
excitation

其实就是每个通道乘上一个权重。

Inception

Squeeze-and-Excitation Networks 笔记_第4张图片
inception

ResNet

Squeeze-and-Excitation Networks 笔记_第5张图片
ResNet

效果

Squeeze-and-Excitation Networks 笔记_第6张图片
Result

你可能感兴趣的:(Squeeze-and-Excitation Networks 笔记)