超分辨率分析(四)--Deep Image Prior

转自:https://zhuanlan.zhihu.com/p/34504284 略删减,我怎么感觉这篇文章作者都没理解网络学习这个事情的本质。

本文中作者展示生成网络在经过任何学习之前就能够捕获大量的低级图像统计信息,也就是说,这些信息可能并不是通过大量的数据集学习得来。文中具体的实验方法,就是用一个随机初始化的生成网络,仅通过给定的图像就能得到重建后的图像,这种方法在去噪、超分辨、修补等人物上都有优异的表现。它也连接了两个非常流行的图像重建方法派别:基于学习的方法和基于非学习方法(例如self-similarity)。

本文中提出的Deep image prior方法可用于降噪、超分辨率、图像修复等领域,具体的见下面的例子

深度卷积神经网络(ConvNets)在图像去噪、超分辨等重建任务上达到了 state-of-the-art。相似结构的ConvNets更普遍地用在生成图像上,例如GAN、variational autoencoders、direct pixelwise error minimization。

这些 ConvNets 几乎都是基于大量图像数据集的训练,因此有一种假设说他们优异的表现由于它们从数据中学习真实图像先验的能力。然而单单学习还不足以解释深度网络的优异表现。例如,在文章 [Understanding deep learning requires rethinking generalization] 中,即使将标签随机打乱,同样泛化性能好的图像分类网络也可以很好地拟合这些数据。因此,泛化要求网络结构与数据结构“共鸣”。然而它们相互作用的机理,尤其是图像生成的,还尚不清楚。

在本文中,作者展示了一个与期望相反的现象,大量图像统计信息是由卷积生成网络的结构捕获的,而非任何学习能力。这对于解决各种图像恢复问题所需的图像统计信息尤其如此,在这些图像恢复问题中,我们需要图像先验来整理退化过程中丢失的信息。

为了展示这些,作者使用一个未训练的网络,来解决上述的重建问题,做法是让这个网络去拟合该张退化的图像,再无别的数据。在这个框架中,网络的权重就像是恢复的图像的参数化。给定一个退化的图像和对应的观测模型,网络的权重随机初始化,并且被拟合以最大化它们的似然性。

这个简单的构想在图像重建任务重很具竞争性。网络中没有任何一层面是从数据学习来的,而且网络的权重总是随机初始化,因此唯一的先验信息就是网络结构本身。这可能是第一次直接研究由卷积生成网络捕获的先验,而不依赖于从图像学习网络参数。

  • Denoising and generic reconstruction

超分辨率分析(四)--Deep Image Prior_第1张图片

给定一个目标图片  和一个随机向量  ,通过一个生成网络  生成接近于目标图片  的图片。我们可以通过以下损失函数来优化:

如上图所示,我们希望通过损失函数来优化生成目标图片(corrupted),虽然在50K次迭代之后我们得到了非常接近于目标图片的结果,但是在2400次迭代的时候,模型意外的得到了一个更好的结果。这表明对于一张加噪后的图片  ,生成网络在生成  之前,会先生成没有噪声的自然图片  ,然后在自然图片分布之上模拟出加噪后的效果。

  • Super-resolution

超分辨率分析(四)--Deep Image Prior_第2张图片

 

 

其中  为一个降采样操作:  ,损失函数的作用是找到一个超分辨率的图片,然后降采样得到一张和  相同的图片。实现如下:

在迭代的过程中,生成模型会先生成超分辨率图片  (  ),然后对  简单的降采样操作  (downsample).

  • Inpainting

对于图像修复的应用,采用的能量损失函数如下:

同样地, 

超分辨率分析(四)--Deep Image Prior_第3张图片

对于这些应用(降噪、超分辨率、图像修复),可以总结为一句话:生成网络在生成非自然图像之前,会先生成相应的自然图像,然后在自然图像上构造该不自然图像。关于这篇文章的题目Deep Image Prior,我的翻译是“深度图像先验”,传统的针对这些应用的方法,无不是通过大量的数据进行训练,得到的结果自然是基于这些训练数据的先验结果。但是本文中的模型不需要大量的数据进行计算,唯一的先验就是深度模型随机初始化的参数和深度结构本身——深度图像先验。

你可能感兴趣的:(图像处理)