在网络中添加SE通道注意力模块

第一步:首先在网络构造的py中添加SELayer这个类
class SELayer(nn.Module):
    def __init__(self, channel, reduction=16):
        super(SELayer, self).__init__()
        self.avg_pool = nn.AdaptiveAvgPool2d(1)
        self.fc = nn.Sequential(
            nn.Linear(channel, channel // reduction, bias=False),
            nn.ReLU(inplace=True),
            nn.Linear(channel // reduction, channel, bias=False),
            nn.Sigmoid()
        )

    def forward(self, x):
        b, c, _, _ = x.size()
        y = self.avg_pool(x).view(b, c)
        y = self.fc(y).view(b, c, 1, 1)
        return x * y.expand_as(x)

第二步:

在网络中添加SE通道注意力模块_第1张图片

 在网络的body类中添加SE模块的属性。

注意:这个75是要修改的数字,比如我这里用的yolov3,使用的是voc数据集,所以这里应该是3*(4+1+20)=75.如果是两个类别就要改成3*(4+1+2)=21.

第三步:

在网络中添加SE通道注意力模块_第2张图片

在网络最后的output地方使用SE模块。

效果:

在网络中添加SE通道注意力模块_第3张图片

 在网络中添加SE通道注意力模块_第4张图片

 voc数据集使用一次后map提升了0.86.

在网络中添加SE通道注意力模块_第5张图片

 在网络中添加SE通道注意力模块_第6张图片

 自己一个很简单的数据集map也能够得到提升。

你可能感兴趣的:(网络,attention,python)