Learn to See in the Dark(论文阅读笔记)

Learn to See in the Dark(论文阅读笔记)

最近做项目看了一篇论文《Learn to See in the Dark》下面是一些论文笔记

概括:

  这篇论文主要介绍的是在低光照的环境下用两个标准的FCN网络,通过控制变量法来对比不同的去噪,增加信噪比(SNR)的方案,最终找到一个很好的解决方案。下面是详细介绍:

图片噪声影响:

  由于图片拍摄的一些参数的设置不同,图片总是会出现一些噪声,或者的模糊等现象。高ISO可以提亮,但也会放大噪声。直接缩放或者拉伸直方图来降噪,也有一定效果,但并不能弥补光子不足的缺陷,如果增加曝光时间可以补充光子不足,但是一旦出现相机抖动,或者是物体移动就会出现图像模糊等现象。在弱光条件下可以通过开发光圈、延长曝光时间、使用闪光灯等来增加SNR,但是这些方法都存在自身的缺陷。

论文中要解决的问题:

  暗光条件下的快速成像系统一直都是计算摄影界的一大挑战,目前,许多关于图像去噪,去模糊和低光图像增强等技术相继提出,但这些技术通常假设这些在昏暗环境下捕获到的图像带有中等程度的噪音。相反,论文更感兴趣的是在极端低光条件下,如光照严重受限 (例如月光) 和短时间曝光 (理想情况下是视频率) 等条件下的图像成像系统。在这种情况下,传统相机的处理方式显然已不适用,图像必须根据原始的传感器数据来重建。

论文中的数据集:

  文中提到的数据集,是他们在固定位置用三脚架拍的。采用app远程设置光圈、ISO等参数,室外光照在0.2勒克斯和5勒克斯之间,室内的更加黑暗。数据采集的原则是高曝光的只要保持视觉效果好即可,不一味追求移除全部噪声。他们称自己的数据集叫SID。数据集包含了室内和室外图像。室外图像通常是在月光或街道照明条件下拍摄。在室外场景下,相机的亮度一般在0.2 lux 和5 lux 之间。室内图像通常更暗。在室内场景中的相机亮度一般在0.03 lux 和0.3 lux 之间。输入图像的曝光时间设置为1/30和1/10秒。相应的参考图像 (真实图像) 的曝光时间通常会延长100到300倍:即10至30秒。数据集一共有5049张照片

                                                        Learn to See in the Dark(论文阅读笔记)_第1张图片

在每种条件下,随机选择大约20%的图像是组成测试集,另外选定10%的数据用于模型验证。

Learn to See in the Dark(论文阅读笔记)_第2张图片

数据集下载可以参考:项目中download_dataset.py文件

数据集Sony类型有25GB,Fuji类型有52GB

相关数据处理工作: 

  去噪:全变分、小波域变换、稀疏编码、核范数最小化、BM3D(光滑、稀疏、低秩、自适应)。缺点:数据集一般都是合成的。一般认为BM3D在真实图片的表现结果比大部分其他算法好(Benchmarking denoising algorithms with real photographs)。多图效果不错,但本文想单图。

低光照图像增强:直方图均衡化、图像灰度校正(伽马校正)、暗通道反转、小波变换、Retinex model、光强映射估计。这些方法都认为退化图已经包含比较好的潜在信息,而没有考虑噪声和颜色扭曲的影响。

 

方法:

   提出了一种端到端的学习方法,直接使用原始传感器的数据,方法结构图:

Learn to See in the Dark(论文阅读笔记)_第3张图片

  他们将两个标准的FCN结构作为模型的核心架构,分别是多尺度聚集网络(multi-scale context aggregation network (CAN))和U-net(U-net: Convolutional networks for biomedical image segmentation)。

FCN全卷积网络可以参考:《Fully Convolutional Networks for Semantic Segmentation》

  使用了FCN结构说明,对于这个模型可以输入任意像素的图片,

  FCN结构示意图:

    Learn to See in the Dark(论文阅读笔记)_第4张图片

 

CAN上下文聚合网络可以参考:https://arxiv.org/pdf/1511.07122.pdf

U-net可以参考:https://arxiv.org/abs/1505.04597

  U-Net 架构包括一个捕获上下文信息的收缩路径和一个支持精确本地化的对称扩展路径。我们证明了这样一个网络可以使用非常少的图像进行端到端的训练,并且在 ISBI 神经元结构分割挑战赛中取得了比以前最好的方法(一个滑动窗口的卷积网络)更加优异的性能。我们使用相同的网络,在透射光显微镜图像(相位对比度和 DIC)上进行训练,以很大的优势获得了 2015 年 ISBI 细胞追踪挑战赛。此外,网络推断速度很快。一个 512x512 的图像分割在最新的 GPU 上花费了不到一秒。

  U-Nrt架构:

      Learn to See in the Dark(论文阅读笔记)_第5张图片

 

其中U-net是本文默认的网络。

 模型训练:

  使用 L1 损失和 Adam 优化器,从零开始训练我们的网络。在训练期间,网络输入是原始的短曝光图像,在 sRGB 空间中的真实数据是相应的长曝光时间图像(由一个原始图像处理库 libraw 处理过得参考图像)。为每台相机训练一个网络,并将原始图像和参考图像之间曝光时间的倍数差作为的放大因子(例如,x100,x250,或x300)。在每次训练迭代中,随机裁剪一个512×512的补丁用于训练并利用翻转、旋转等操作来随机增强数据。初始学习率设定为0.0001,在2000次迭代后学习率降为0.00001,训练一共进行4000次迭代。

对比分析结果

  与传统方法的对比,提出的方法具有放大的功能。

Learn to See in the Dark(论文阅读笔记)_第6张图片

Learn to See in the Dark(论文阅读笔记)_第7张图片

用CAN替换U-net、用sRGB替换原始信号,SSIM或L2替换L1等等。其中不用原始信号那个掉得最快,其余的差并不太多。

Learn to See in the Dark(论文阅读笔记)_第8张图片

总结:

  1.本文设计了数据驱动的方法,能有效提高成像表现,还贡献了SID数据集。

  2.对于低光照图片的处理方法提供了一种全新的思路,能有效的解决这类问题

  3.不足之处在于对于训练的内存要求太大。数据集也比较大

 

 

原文链接:arxiv.org/abs/1805.01934

 

项目地址:web.engr.illinois.edu/~cchen156/SID.html

 

GitHub地址:github.com/cchen156/Learning-to-See-in-the-Dark

 

 中文翻译:https://blog.csdn.net/linchunmian/article/details/80291921

posted @ 2018-07-24 11:17 田湾第一帅 阅读( ...) 评论( ...) 编辑 收藏

你可能感兴趣的:(Learn to See in the Dark(论文阅读笔记))