FSRCNN总结

阅读FSRCNN自我小结

创新点

FSRCNN的动机是为了加速SRCNN模型,因此它从以下几个方面进行了改进:

  1. 在网络末端使用了一个反卷积层==>采用后采样框架,相比SRCNN中使用先采样框架,减少了计算负担。
  2. 在网路前端重新改变了输入特征的维数
  3. 在网络非线性映射层中间部分,使用了更小的卷积核并应用了更深的卷积层

针对问题的改进措施

问题:针对SRCNN中有两点限制了速度

  1. 低分辨率图像需要上采样(通过三次插值);
  2. 非线性映射步骤,需要缩减参数加快速度。

改进措施
对于第一个问题采用反卷积层代替三次插值;
第二个问题,添加Shrinking层和Expanding层,并将一个大层(是SRCNN中的非线性映射层,层较宽)用一些小层(用m个深度的小层来代替宽层)(卷积核大小是3*3)来代替。
整个网络结构类似于漏斗的形状,中间细两端粗。
这个网络不仅仅速度快,而且除了最后一个反卷积层会随着采样因子的不同改变参数之外,其他层不需要更改参数。

贡献

  1. 设计漏斗结构的卷积网络,不需要预处理操作 速度提升
  2. 训练速度快
  3. 只要改变最后的反卷积层就可以,不用像SRCNN网络中,随着采样因子的不同,需要训练改变整个网络中的卷积参数

结构

FSRCNN总结_第1张图片
对照原先的SRCNN设计,FSRCNN主要分为5个部分:

  1. 特征提取:SRCNN中第一层感受野是9×9,由于这里不用插值,用5×5的卷积核就可以conv(5,d,1) ,表示卷积核大小为5,输入通道维数为1,输出通道维数为d
  2. Shrinking萎缩:采用小的感受野1×1来节约计算能力,同时输出采用s<方式减少计算量conv(1,s,d)
  3. 映射:感受野大,表现的更好,这里采用3×3.采用m个非线性单元conv(3,s,s)
  4. 拓展:为了得到HR图像,那么就要进行增加扩展层,类似于萎缩层的逆过程,conv(1,d,s)
  5. 反卷积层:可以看成卷积的逆过程。对于卷积,如果步长为k,那么输出大小为1/k。因此解卷积另步长为k = n。那么分辨率提升n倍
    反卷积示意图
    FSRCNN总结_第2张图片
    有趣的是,这个可以倒着看就想HR图像提取特征,因此这里卷积核取9*9.。激活函数:采用PReLU。
    损失函数采用和SRCNN一致的MSE:
    在这里插入图片描述
    总体结构
    在这里插入图片描述
    在这里插入图片描述

你可能感兴趣的:(图像超分辨,深度学习,图像处理,卷积,网络,深度学习)