SEnet 通道注意力机制

SENet 在于通过网络根据loss去学习特征权重,获取到每个feature map的重要程度,然后用这个重要程度去给每一个特征通道赋予一个权重值,从而让神经网络去重点关注某些feature map , 使得有效的feature map权重大,无效或效果小的feature map权重小,使模型达到更好的效果,同时也不可避免的增加了一些参数和计算量。

2.SENet注意力机制 结构

SEnet 通道注意力机制_第1张图片

输入input是一个H x W x C 的特征,共C个通道,然后进行一个空间的全局平均池化,每个通道得到一个标量,输出为 1 x 1 x C , 然后再送入两层的全连接神经网络,同时保持size不变,然后再通过一个Sigmoid函数得到C个0~1之间的权重Mc,格式为1 x 1 x C,作为C个通道各自的权重,然后Mc x input得到输出feature map(对应通道的每个元素与权重分别相乘)。

2.1 squeeze:

在空间维度上进行特征压缩,得到1 x 1 x C 的通道描述,这个feature map具有全局的感受野,也就是说将一个通道上的整个空间信息压缩为一个全局特征,最后得到C个全局特征,采用global average pooling 实现。公式如下:

SEnet 通道注意力机制_第2张图片

2.2 excitation:

squeeze得到1 x 1 x C的feature map 后,再通过FC -> Relu -> FC -> Sigmoid学习通道间的关系,第一个FC将1 x 1 x C 压缩为1 x 1 x C/r(r取16时效果最好) ,然后第二个FC再扩充为1 x 1 x C。

2.3 scale:

scale操作是将前面学习到的各个通道的权重系数Mc通过乘法与对应通道所有元素相乘,以便实现重要的特征增强,不重要的特征减弱 ,从而让提取的特征指向性更强。

3.code:

class SENet(nn.Module):
    def __init__(self , in_planes , ration = 16):
        super(SENet, self).__init__()

        '''
        AdaptiveAvgPool2d():自适应平均池化
                            不需要自己设置kernelsize stride等
                            只需给出输出尺寸即可
        '''

        self.avg_pool = nn.AdaptiveAvgPool2d(1) # 通道数不变,H*W变为1*1
        self.fc1 = nn.Conv2d(in_planes , in_planes // 16 , 1 , bias = False)
        self.relu1 = nn.ReLU()
        self.fc2 = nn.Conv2d(in_planes//16 , in_planes ,1, bias = False)
        self.sigmoid = nn.Sigmoid()
    def forward(self , x):
        avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x))))
        return self.sigmoid(out)

你可能感兴趣的:(机器学习,神经网络,深度学习,自然语言处理)