论文阅读1:通道注意力机制-SE模块/Squeeze-and-Excitation Networks

   注意力:一种将可用计算资源的分配偏向信号中信息量最大的分量的手段
   注意力模块一般有两种:一种是空间注意力模块,一种是通道注意力模块,SE模块属于后者。SE-block:通过该机制,网络可以学习使用全局信息来选择性地强调信息特征,并抑制不太有用的特征。

SE-block流程

  1. 特征图U(H’W’C’)首先通过Squeeze操作传递,在空间维度上聚集特征图,产生11C的通道描述符。
  2. 之后是激励操作,该机制将嵌入作为输入,并产生每个通道调制权重的集合。
  3. 这些权重被应用于原本的特征图U,以生成SE-block的输出,该输出可以被直接送到网络的后续层。
    ----普通的深度学习网络可以通过简单地堆叠SE块的集合构建SE网络;此外,SE块还可以作为原始块的代替
    ----在早期的层中,以类不可知的方式激发信息特征,加强共享的低级表示。在后面的层中,SE模块变得越来越专业化,并以高度特定于类的方式响应不同的输入
    SE-block优点:轻量级,即插即用,只略微增加了模型的复杂性和计算负担
    论文阅读1:通道注意力机制-SE模块/Squeeze-and-Excitation Networks_第1张图片
    输出是通过所有通道求和产生的,通道相关性隐含在vc中,与滤波器捕获的局部空间相关性纠缠在一起。通过卷积建模的通道关系本质上是隐式和局部的。SE-Block通过显式建模信道相关性来增强卷积特征的学习,使得网络能够增加其对信息特征的敏感性,该信息特征可以被后续的变换所利用。
    Squeeze模块
    将全局空间信息压缩到一个信道描述符中。此过程是通过使用全局平均池来生成通道统计数据来实现的。从形式上来说,统计量Zc是通过缩小U的空间维度H×W而生成的
    在这里插入图片描述
    Excitation激励:
    SE-block可轻松地插入现有网络中,生成新的SE-Net,且插入的方式多种多样。
    论文阅读1:通道注意力机制-SE模块/Squeeze-and-Excitation Networks_第2张图片
    论文阅读1:通道注意力机制-SE模块/Squeeze-and-Excitation Networks_第3张图片
    以常见的网络为例,作者对比re-implementation与SENet,可以看到,检测水平均有所提高,所需GPU资源有小幅度的上升

你可能感兴趣的:(深度学习)