DRCN:基于深度循环网络的超分辨率重建

Abstract

我们提出了一个循环神经网络。我们的循环层达到了16层。增加循环层可以在不增加参数的情况下提高超分性能。然而,训练循环神经网络是十分困难,它很容易梯度消失/爆炸。为此我们提出了循环监督跳跃连接

Introduction

在超分中,感受野扮演者十分重要的角色,大的感受野有利于重建出丢失的高频信息。在深度卷积网络中,提高感受野的方法有很多,怎加网络的深度十其中一个可行的方法:增加一个过滤器大于1的卷积或者一个池化层,然而这两个操作都有缺点:增加卷积,就会增加参数同时丢失一些信息。
对于超分、图像去噪,图像细节是十分重要的,增加网络深度会导致如下问题:

  • 十分容易过拟合,需要更多的数据
  • 模型会大到难以储存、恢复

为解决以上问题,我们提出了深度循环网络(DRCN),它根据设定的次数重复执行同样的卷积层,重复的卷积层不会增加参数,我们网络的感受野是41X41,远远大过了SRCNN 13X13,我们的网络性能优异,然而我们发现由于梯度消失/爆炸常规的梯度下降优化器难以使其收敛。
我们提出了两个方法来解决训练的问题。首先,所有的循环层都要被监督。每个循环层结束后的特征图都要用于重建HR图片,重建的方法对于所有的循环层都一样。我们结合所有循环层输出的不同层次的HR图像最后生成更加高清的图片。第二,使用跳跃连接(skip connection)

Propsed Method

Basic Model

我们的第一个分为三个部分:embedding, inference and reconstruction
networks。embedding从输入图片中提取featrure map的集合,inference net用于实现超分任务, reconstruction用于将featrure重建成HR图片。

Recursive-Supervision

DRCN:基于深度循环网络的超分辨率重建_第1张图片
为了解决梯度消失/爆炸,我们提出了循环监督。我们监督循环网络的每个部分,从而减少梯度消失/爆炸的影响。我们推测,循环网络的每个部分的输出在数据表达上是相同的,(我理解的是,循环的每个部分的输出都是输入到超分表达,因为在inference net只有一个layer,所有它循环的每次输出都是差不多的或者说数据分布是一样的)所以重建层对于所有的循环部分都是相同的。
我们的循环网络与用于分类的循环网路有两点不同,首先我们没有使每个循环部分生成一个输出,如果这样做就跟本文减少参数的初衷相悖了。
DRCN:基于深度循环网络的超分辨率重建_第2张图片
第二,在测试时我们没有舍弃中间的预测结果,我们认为中间结果提高了性能。

Skip-Connection

在超分中,输入数据与输出数据是高度关联的。

你可能感兴趣的:(机器学习,超分辨率重建,深度学习)