Lightweight Feature Fusion Network for Single Image Super-Resolution

这篇文章提出了现有超分网络中间层参数过多阻碍了其在现实世界的应用,依据上述问题提出了一种轻量级特征融合网络,在减少中间层参数的同时,提取并融合了中间层的多尺度特征信息。
网络总体架构分为四部分:浅特征提取层、深度轻量级特征提取层、注意力及softmax融合层
、上采样重建层。
Lightweight Feature Fusion Network for Single Image Super-Resolution_第1张图片
33conv用来进行浅特征提取,在深度特征提取中采用类似于信息蒸馏的方法减少中间层的参数,浅特征层生成的48通道的特征图经过11的卷积变为64通道后通过简单的切片切为4个16通道的特征图分别输入4条支路中,其中一条支路为线性映射(无激活函数),三条支路为非线性映射(有激活函数),且卷积深度逐级加深,使其既能提取到浅层特征又能提取到深层特征,且很好的组合了线性和非线性特征信息,相对于普通的残差块来说减少了参数,如b中参数 为112nn的参数而a深度为2就有128nn的参数。最后经过concat和11conv进行拼接和降维(特征融合)
Lightweight Feature Fusion Network for Single Image Super-Resolution_第2张图片
其次该文章提出了一种新的全局特征融合方式,利用softmax与通道注意力机制进行全局特征融合,深层特征提取层module_1,module_2,module_3提取到的深度特征输入到SFFM中首先经过通道注意力机制,生成三个c
11的张量,后利用密集连接进一步对三个11n的张量进行卷积增强非线性映射能力,最后在纵向对3个c11的张量进行softmax处理,softmax函数的作用是使输出归为0-1间且相加为1,可以迫使网络在学习横向通道注意力机制的同时,关注纵向各个深度提取层应该占的比重为多少,softmax为函数不可能实现这个功能,这个功能是在反向传播中通过网络的中间层实现的,最后将经过softmax后的c1*1张量与输入特征图逐元素相乘得到经过注意力块后的特征图,由于softmax已经很好的赋予了纵向特征图权重因此此处特征图融合采取了逐元素相加。
Lightweight Feature Fusion Network for Single Image Super-Resolution_第3张图片
这篇文章代码难点在于取不同特征图通道注意力机制生成的张量,进行纵向softmax,下面为pytorch复现
Lightweight Feature Fusion Network for Single Image Super-Resolution_第4张图片

你可能感兴趣的:(cv)