EnhanceNet论文阅读笔记

“EnhanceNet: Single Image Super-Resolution Through Automated Texture Synthesis”是与SRGAN同期的研究工作,有相似之处,使用perceptual loss提高生成图像的真实性,并使用GAN进行训练,但EnhanceNet更强调纹理统计特性的局部匹配可以产生更加真实纹理,减少不真实的伪影而没有额外使用正则化技术。

论文发表于2017 IEEE International Conference on Computer Vision (ICCV)
论文地址:https://arxiv.org/abs/1612.07919

简介

现有的图像超分辨率算法,往往使用MSE作为损失函数,这些方法会得到较高的PSNR值,但是产生的图像会过于光滑和缺失高频细节。作者在文中,举例说明了会产生过于光滑图像的原因。
EnhanceNet论文阅读笔记_第1张图片
作者使用perceptual loss作为损失函数获取更真实的图像纹理细节,使用前向全卷积网络,并通过GAN训练。获得了在高放大倍数下更好的图像质量效果。

网络结构

关于upsampling部分,作者没有使用bicubic插值,这样会增加网络的计算量。如果在后面用解卷积,又会引入环状效应,还额外需要正则项。最后作者选择使用引入环状效应更小的最近邻升采样,也没有使用正则项。
EnhanceNet论文阅读笔记_第2张图片

loss functions

使用的损失函数与李飞飞perceptual loss论文里的loss类似

Perceptual loss in feature space
使用预训练好的VGG-19作为特征提取网络
在这里插入图片描述

Texture matching loss
在这里插入图片描述

Adversarial training

EnhanceNet论文阅读笔记_第3张图片

Ablation study

EnhanceNet论文阅读笔记_第4张图片EnhanceNet论文阅读笔记_第5张图片

你可能感兴趣的:(图像超分辨率)