图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images

@article{wang2022swinfuse,
title={SwinFuse: A residual swin transformer fusion network for infrared and visible images},
author={Wang, Zhishe and Chen, Yanlin and Shao, Wenyu and Li, Hui and Zhang, Lei},
journal={IEEE Transactions on Instrumentation and Measurement},
volume={71},
pages={1–12},
year={2022},
publisher={IEEE}
}


论文级别:SCI A2/Q1
影响因子:5.6

[论文下载地址]
[代码下载地址]


文章目录

  • 论文解读
    • 关键词
    • 核心思想
    • 网络结构
      • overview
      • RSTB
      • 融合策略
    • 损失函数
    • 数据集
    • 训练设置
    • 实验
      • 评价指标
      • Baseline
      • 实验结果
  • 传送门
    • 图像融合相关论文阅读笔记
    • 图像融合论文baseline总结
    • 其他论文
    • 其他总结
    • ✨精品文章总结


论文解读

卷积运算是图像与卷积核之间内容无关的交互,可能会丢失上下文信息
因此作者提出了SwinFuse(Residual Swin Transformer Fusion Network),该模型包括三个部分:全局特征提取,融合层和特征重构。

  • 使用纯Transformer构建了一个完全注意力编码骨干网络来建模远程依赖
  • 设计了基于序列矩阵L1范数的特征融合策略

关键词

image fusion, Swin Transformer, self-attention mechanism, feature normalization, deep learning
图像融合,Swin Transformer, 自注意力机制,特征归一化,深度学习

核心思想

使用Swin Transformer提取全局特征,并设计了基于行向量和列向量维度的融合策略

参考链接
[什么是图像融合?(一看就通,通俗易懂)]

网络结构

作者提出的网络结构如下所示。SwinFuse主要由三部分组成:全局特征提取、融合层和特征重构。
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第1张图片

overview

给定输入 I l ∈ R H × W × C i n {I^l} \in {R^{H \times W \times {C_{in}}}} IlRH×W×Cin,HWC即高宽通道, l = v i s l = vis l=vis l = i r l = ir l=ir分别代表可见光图像和红外图像。
首先,使用1×1卷积核的卷积层进行位置编码,并将输入通道 C i n C_{in} Cin转换为 C C C。初始特征 Φ l {\Phi ^l} Φl为:
在这里插入图片描述
Φ l = H p o s ( I l ) {\Phi ^l} = {H_{pos}}({I^l}) Φl=Hpos(Il)中, H p o s H_{pos} Hpos代表位置编码,输出通道数C被设置为96.
然后,将初始特征 Φ l {\Phi ^l} Φl转化为序列向量 Φ S V l ∈ R M N × C \Phi _{SV}^l \in {R^{MN{\rm{ \times C}}}} ΦSVlRMN×C,并使用残差Swin Transformer块(residual Swin Transformer blocks,RSTBs)提取全局特征 Φ G F l ∈ R M N × C \Phi _{GF}^l \in {R^{MN{\rm{ \times C}}}} ΦGFlRMN×C
在这里插入图片描述
H R S T B m H_{RSTB_m} HRSTBm代表第m个RSTB。
接下来,使用基于L1范式的融合层,从行、列向量维度获得融合全局特征 Φ F l ∈ R M N × C \Phi _{F}^l \in {R^{MN{\rm{ \times C}}}} ΦFlRMN×C
在这里插入图片描述
H N o r m H_{Norm} HNorm代表融合操作。
最后,将融合全局特征的维度从 R M N × C R^{MN×C} RMN×C转换为 R M × N × C R^{M×N×C} RM×N×C,并使用卷积层重构融合图像 I F I_F IF
在这里插入图片描述
H C o n v H_{Conv} HConv代表特征重构,该层使用了1×1卷积核,padding为0,还有一个tanh激活函数。

RSTB

给定一个输入序列向量 Φ m , 0 l {\Phi ^l_{m,0}} Φm,0l,使用n个Swin Transformer提取中间全局特征 Φ m , n − l {\Phi ^l_{m,n-}} Φm,nl,RSTB最终的输出为:
在这里插入图片描述
H S T L m , n H_{STL_{m,n}} HSTLm,n代表第n个Swin Transformer层。
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第2张图片
在STL中,首先使用N×N的滑动窗口,将输入划分为不重叠的 H W N 2 \frac{HW}{N^2} N2HW局部窗口并计算其局部注意力。
对于局部窗口 Φ z \Phi_z Φz,QKV计算如下:
在这里插入图片描述
W Q 、 W K 、 W V W_Q、W_K、W_V WQWKWV均为可学习参数,d使(Q, K)的维度。序列矩阵自注意力机制计算如下:
在这里插入图片描述
p是位置编码的可学习参数。
随后,Swin Transformer再次计算移动窗口的标准多头注意力(multi-head self-attention, MSA)。STL由W-MSA和SW-MSA构成,LayerNorm在每个MSA和MLP前面,并且使用了残差连接。

融合策略

作者设计了一种基于L1范数的红外-可见光图像序列矩阵融合策略,从行和列向量维度测量活动水平。如下图所示。
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第3张图片
对于两种源图像各自的全局特征 Φ G F i r ( i , j ) \Phi _{GF}^{ir}\left( {i,j} \right) ΦGFir(i,j) Φ G F v i s ( i , j ) \Phi _{GF}^{vis}\left( {i,j} \right) ΦGFvis(i,j),首先使用L1范数测量其行向量权重,然后使用softmax获得活动水平 φ r o w i r ( i ) \varphi _{row}^{ir}\left( i \right) φrowir(i) φ r o w v i s ( i ) \varphi _{row}^{vis}\left( i \right) φrowvis(i)
在这里插入图片描述
在这里插入图片描述
然后直接将活动水平与对应的全局特征相乘,从行向量维度得到融合全局特征 Φ r o w F ( i , j ) \Phi _{row}^{F}\left( i,j \right) ΦrowF(i,j)
在这里插入图片描述
同理,计算列向量:
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第4张图片
在这里插入图片描述
最后,使用逐元素相加得到最终的融合全局特征:
在这里插入图片描述
注意,融合层只在测试时被保留,在训练阶段被移除。

损失函数

在这里插入图片描述
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第5张图片

数据集

  • 训练MS-COCO
  • 测试 TNO Roadscene OTCBVS

图像融合数据集链接
[图像融合常用数据集整理]

训练设置

实验

评价指标

  • SF, SD, MI, MS_SSIM, FMI_W and SCD

参考资料
✨✨✨强烈推荐必看博客 [图像融合定量指标分析]

Baseline

  • MDLatLRR、IFCNN、DenseFuse、RFN-Nest、fusongan、GANMcC、PMGI、SEDRFuse、Res2Fusion

参考资料
[图像融合论文baseline及其网络模型]

实验结果

图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第6张图片
图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第7张图片

图像融合论文阅读:SwinFuse: A Residual Swin Transformer Fusion Network for Infrared and Visible Images_第8张图片

更多实验结果及分析可以查看原文:
[论文下载地址]
[代码下载地址]


传送门

图像融合相关论文阅读笔记

[SwinFusion: Cross-domain Long-range Learning for General Image Fusion via Swin Transformer]
[(MFEIF)Learning a Deep Multi-Scale Feature Ensemble and an Edge-Attention Guidance for Image Fusion]
[DenseFuse: A fusion approach to infrared and visible images]
[DeepFuse: A Deep Unsupervised Approach for Exposure Fusion with Extreme Exposure Image Pair]
[GANMcC: A Generative Adversarial Network With Multiclassification Constraints for IVIF]
[DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion]
[IFCNN: A general image fusion framework based on convolutional neural network]
[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
[FusionGAN: A generative adversarial network for infrared and visible image fusion]
[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
[U2Fusion: A Unified Unsupervised Image Fusion Network]
综述[Visible and Infrared Image Fusion Using Deep Learning]

图像融合论文baseline总结

[图像融合论文baseline及其网络模型]

其他论文

[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]

其他总结

[CVPR2023、ICCV2023论文题目汇总及词频统计]

✨精品文章总结

✨[图像融合论文及代码整理最全大合集]
✨[图像融合常用数据集整理]

如有疑问可联系:[email protected];
码字不易,【关注,收藏,点赞】一键三连是我持续更新的动力,祝各位早发paper,顺利毕业~

你可能感兴趣的:(图像融合,论文阅读,深度学习,图像融合,图像处理,论文笔记,人工智能)