【论文笔记】[CVPR_2018_SR]Information Distillation Network

启示:

可以将feature map拆开作为dense net的连接,看看会不会有好结果。

一、特点:

参数少,时间短,模型小

【论文笔记】[CVPR_2018_SR]Information Distillation Network_第1张图片

二、结构

【论文笔记】[CVPR_2018_SR]Information Distillation Network_第2张图片
总体结构

核心结构是Enhancement Unit

【论文笔记】[CVPR_2018_SR]Information Distillation Network_第3张图片
Enhancement Unit

将feature map分成(1/s)和(1-1/s)个,然后一部分继续进入conv,一部分与前一个block的输出concat,直接与这一个block的输出相加,输入下一个block。(其中feature map dimension指的是维度,张数)

三、其他trick

-1 训练模型和finetune用的不是同一个loss函数

-2 用grouped convolution layer

-3 显示feature map的平均值

feature map的平均值

-4 显示学到的residual image以及它的数据分布

【论文笔记】[CVPR_2018_SR]Information Distillation Network_第4张图片
residual image

residual image指的是model学出来的image。

residual + bicubic image=最终的image

你可能感兴趣的:(【论文笔记】[CVPR_2018_SR]Information Distillation Network)