论文笔记:NAFNet: Simple Baselines for Image Restoration

向孙老师致敬!

相关工作

图像恢复模型体系结构比较
论文笔记:NAFNet: Simple Baselines for Image Restoration_第1张图片

方法

块内(Intra-block)结构比较:
论文笔记:NAFNet: Simple Baselines for Image Restoration_第2张图片
其中Channel Attention (CA),Simplified Channel Attention(SCA),从左到右依次替换
论文笔记:NAFNet: Simple Baselines for Image Restoration_第3张图片
归一化:将层归一化(Layer Normalization)添加到普通块中,因为它可以稳定训练过程。

激活函数:在plain块中用GELU替换ReLU,因为它在保持图像去噪性能的同时,为图像去模糊带来了非平凡的收益。

注意力:通道注意力
论文笔记:NAFNet: Simple Baselines for Image Restoration_第4张图片

Nonlinear Activation Free Network

论文笔记:NAFNet: Simple Baselines for Image Restoration_第5张图片
Gated Linear Units: Gate ⁡ ( X , f , g , σ ) = f ( X ) ⊙ σ ( g ( X ) ) \operatorname{Gate}(\mathbf{X}, f, g, \sigma)=f(\mathbf{X}) \odot \sigma(g(\mathbf{X})) Gate(X,f,g,σ)=f(X)σ(g(X))

GELU: G E L U ( x ) = x Φ ( x ) G E L U(x)=x \Phi(x) GELU(x)=xΦ(x),其中 Φ Φ Φ表示标准正态分布的累积分布函数。GELU可以通过以下方式进行近似和实现 0.5 x ( 1 + tanh ⁡ [ 2 / π ( x + 0.044715 x 3 ) ] ) 0.5 x\left(1+\tanh \left[\sqrt{2 / \pi}\left(x+0.044715 x^{3}\right)\right]\right) 0.5x(1+tanh[2/π (x+0.044715x3)])

我们提出了一个简单的GLU变体:直接将特征映射划分为通道维度的两部分,并将它们相乘  SimpleGate  ( X , Y ) = X ⊙ Y \text { SimpleGate }(\mathbf{X}, \mathbf{Y})=\mathbf{X} \odot \mathbf{Y}  SimpleGate (X,Y)=XY其中,X和Y是大小相同的特征映射。

Simplified Channel Attention:使用的是SENet C A ( X ) = X ∗ σ ( W 2 max ⁡ ( 0 , W 1 pool ⁡ ( X ) ) ) C A(\mathbf{X})=\mathbf{X} * \sigma\left(W_{2} \max \left(0, W_{1} \operatorname{pool}(\mathbf{X})\right)\right) CA(X)=Xσ(W2max(0,W1pool(X)))

其中X表示特征映射,pool表示将空间信息聚合到通道中的全局平均池化操作。 σ σ σ是一个非线性激活函数Sigmoid, W 1 W_1 W1 W 2 W_2 W2是全连接层,两个全连接层之间采用ReLU,最后的 ∗ ∗ 是一种通道乘积运算(channelwise product operation)。简化的CA: S C A ( X ) = X ∗ W pool ⁡ ( X ) S C A(\mathbf{X})=\mathbf{X} * W \operatorname{pool}(\mathbf{X}) SCA(X)=XWpool(X)

本质上删除了激活函数。

实验

论文笔记:NAFNet: Simple Baselines for Image Restoration_第6张图片

代码

github.com/megvii-research/NAFNet

你可能感兴趣的:(论文笔记,图像去噪,深度学习)