@article{liu2021learning,
title={Learning a deep multi-scale feature ensemble and an edge-attention guidance for image fusion},
author={Liu, Jinyuan and Fan, Xin and Jiang, Ji and Liu, Risheng and Luo, Zhongxuan},
journal={IEEE Transactions on Circuits and Systems for Video Technology},
volume={32},
number={1},
pages={105–119},
year={2021},
publisher={IEEE}
}
论文级别:SCI A2
影响因子:8.4
[论文下载地址]
[代码下载地址]
作者提出了一种用于可见光-红外的图像融合网络结构,采用【从粗到细】的结构进行特征提取,该结构可以输入【未对齐】的图像对;并且设计了一个【边缘引导注意力机制】用来使融合关注共同结构,目的使为了在消除噪声的同时恢复细节;作者还发布了一个新的对齐的可见光红外图像【数据集】RealStreet
Image fusion, deep feature learning, attention mechanism.
图像融合,深度特征学习,注意力机制
【一句话总结】:AE+GAN
编码器使用不同的空洞卷积提取特征后相加,乘上从源图像中通过注意力机制得到的权重,在通过加入跳跃连接的解码器进行重建。
1、设计了一个密集语义扩大模块来增加感受野从而提取深层特征。(使用不同的扩张因子的空洞卷积提取特征然后聚合)
参考链接
[什么是图像融合?(一看就通,通俗易懂)]
先通过一次卷积将源图像变成特征图,然后通过3个不同的卷积路径提取特征并聚合。同时在每个路径上加入了密集连接。
f i n f_{in} fin和 f o u t e f_{out}^e foute分别代表特征提取模块的输入特征图和输出特征图。 *是卷积操作, t p tp tp为路径序号,W和b分别代表卷积层卷积权重和偏置。
作者使用 f i r e f_{ir}^e fire和 f v i s e f_{vis}^e fvise分别代表红外图像和可见光图像的输出特征。
作者提出的边缘引导注意力特征融合如下图所示。
边缘图由2步得到:
输入m×n的灰度图用 u u u表示,定义梯度图为:
在上式中, ∇ i h u = u i − u a ( i ) \nabla ^ h_iu=u_i-u_{a(i)} ∇ihu=ui−ua(i) ∇ i v u = u i − u b ( i ) \nabla ^v_iu=u_i-u_{b(i)} ∇ivu=ui−ub(i)分别为计算水平和垂直一阶差分的线性算子。 u a ( i ) u_{a(i)} ua(i)和 u b ( i ) u_{b(i)} ub(i)分别为位于源像素i右侧和下方最近的像素。
此外作者还设计了边缘增强算子 S S S来凸显梯度信息:
其中, I = 1 , … , m − 1 I ={1,…, m−1} I=1,…,m−1; J = 1 , … , n − 1 J ={1,…, n−1} J=1,…,n−1。i和j分别代表梯度图像的水平和垂直方向。
随后,将红外图像和可见光图像增强后的边缘图输入注意力机制,生成特征权重图 W i r W_{ir} Wir和 W v i s W_{vis} Wvis,并通过梯度引导注意力计算出融合特征 f o u t a f^a_{out} fouta:
最终的融合图像由训练好的解码器从融合特征 f o u t a f^a_{out} fouta来重构。
作者认为单纯使用卷积操作来进行图像恢复会导致信息丢失,所以引入了两个跳跃连接。
损失函数=像素损失+结构相似性损失
作者受GAN的启发,假设上述网络结构是一个生成器,在网络末尾加入了一个判别器,用来引导生成器生成更自然的图像。
训练MSCOCO和FLIR
测试 TNO
图像融合数据集链接
[图像融合常用数据集整理]
参考资料
✨✨✨强烈推荐必看博客 [图像融合定量指标分析]
参考资料
[图像融合论文baseline及其网络模型]
更多实验结果及分析可以查看原文:
[论文下载地址]
[代码下载地址]
[DenseFuse: A fusion approach to infrared and visible images]
[DeepFuse: A Deep Unsupervised Approach for Exposure Fusion with Extreme Exposure Image Pair]
[GANMcC: A Generative Adversarial Network With Multiclassification Constraints for IVIF]
[DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion]
[IFCNN: A general image fusion framework based on convolutional neural network]
[(PMGI) Rethinking the image fusion: A fast unified image fusion network based on proportional maintenance of gradient and intensity]
[SDNet: A Versatile Squeeze-and-Decomposition Network for Real-Time Image Fusion]
[DDcGAN: A Dual-Discriminator Conditional Generative Adversarial Network for Multi-Resolution Image Fusion]
[FusionGAN: A generative adversarial network for infrared and visible image fusion]
[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
[U2Fusion: A Unified Unsupervised Image Fusion Network]
综述[Visible and Infrared Image Fusion Using Deep Learning]
[图像融合论文baseline及其网络模型]
[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]
[CVPR2023、ICCV2023论文题目汇总及词频统计]
✨[图像融合论文及代码整理最全大合集]
✨[图像融合常用数据集整理]
如有疑问可联系:[email protected];
码字不易,【关注,收藏,点赞】一键三连是我持续更新的动力,祝各位早发paper,顺利毕业~