所谓图像融合,可以简单的理解为【把不同传感器采集到的多张图像,融合成为一张图像】的过程。
为什么要这么做呢?
举几个经典的例子大家就明白了。
红外图像能看到热辐射目标,但是对纹理细节表现很差
可见光图像纹理细节丰富,但是受光照影响,黑暗中拍不清
图像融合后,可以得到一张包含【热辐射显著目标】和【丰富纹理细节】的融合图像
欠曝光太暗了,过曝光太亮了
把【太暗的】和【太亮的】融合成为一张【哪里都看得清】的图像
把【只能看清近景】和【只能看清远景】融合成一张【远近都看得清】的照片
[PIAFusion: A progressive infrared and visible image fusion network based on illumination aw]
[Visible and Infrared Image Fusion Using Deep Learning]
[CDDFuse: Correlation-Driven Dual-Branch Feature Decomposition for Multi-Modality Image Fusion]
[U2Fusion: A Unified Unsupervised Image Fusion Network]
[FusionGAN: A generative adversarial network for infrared and visible image fusion]
[图像融合论文baseline及其网络模型]
[3D目标检测综述:Multi-Modal 3D Object Detection in Autonomous Driving:A Survey]
[CVPR2023、ICCV2023论文题目汇总及词频统计]