读论文:HINet: Half Instance Normalization Network for Image Restoration

        《HINet: Half Instance Normalization Network for Image Restoration》发表于CVPR2021,是旷视科技&复旦大学&北大在图像复原方面的的最新进展,所提方案取得了NTIRE2021图像去模糊Track2赛道冠军。

读论文:HINet: Half Instance Normalization Network for Image Restoration_第1张图片

        下面谈谈该文章的主要技术点。

1. HIN(Half Instance Normalization) Block

        与resblock相比,主要差别在于:HIN对输入3*3conv处理的特征按照通道分成两部分,一部分采用IN进行规范化,另一部分无规范化,处理后的两部分沿着通道维度进行拼接。HIN模块在一半通道上进行IN处理,通过另一半保持上下文信息,这种操作对于浅层特征更为友好。

读论文:HINet: Half Instance Normalization Network for Image Restoration_第2张图片

2. SAM(Supervised Attention Module)

        就是个带监督的自注意力模块。MPRNet 中提到 SAM 的作用有:“首先,它在每个阶段提供了对渐进图像恢复有用的真实监控信号。其次,在局部监督预测的帮助下,生成 attention map 抑制当前阶段信息量较少的特征,只允许有用的特征传播到下一阶段。”

读论文:HINet: Half Instance Normalization Network for Image Restoration_第3张图片


3. CSFF(Cross-stage feature fusion) Block

        跨阶段特征融合,是用来融合不同大小的 attention map 的。在HINet中有两个UNet结构,CSFF可以将不同语义级别的信息融合在一起。MPRNet中提到CSFF的作用有:“第一,由于在编码器-解码器中重复使用上采样和下采样操作结果,使得网络不容易受到信息丢失的影响。第二,一个阶段的多尺度特征有助于丰富下一个阶段的特征。第三,网络优化过程变得更加稳定,因为它简化了信息流动,从而允许我们在整个体系结构中增加几个阶段。”

读论文:HINet: Half Instance Normalization Network for Image Restoration_第4张图片

        小结下,对 low-level 模型部署而言用不到这么大的网络,半实例归一化的操作也没法用,另外SAM和CSFF作用也不大。不过两级网络设计的思想,还是比单纯堆模块或者增加网络尺寸和通道这样的方式有效果。原因方面还是在于 low-level 比较依赖浅层信息,两级网络中的第一级输出控制在较浅的信息,然后再经过一个 U-Net 操作,效果就上来了。

你可能感兴趣的:(深度学习,数字图像,文献阅读,人工智能,深度学习)