残差神经网络:原理与实践

VGGNet和GoogLeNet等网络都表明有足够的深度是模型表现良好的前提,但是在网络深度增加到一定程度时,更深的网络意味着更高的训练误差。误差升高的原因是网络越深,梯度弥散[还有梯度爆炸的可能性]的现象就越明显,所以在后向传播的时候,无法有效的把梯度更新到前面的网络层,靠前的网络层参数无法更新,导致训练和测试效果变差。所以ResNet面临的问题是怎样在增加网络深度的情况下有可以有效解决梯度消失的问题。ResNet中解决深层网络梯度消失的问题的核心结构是残差网络。

1.ResNet残差学习单元
残差神经网络:原理与实践_第1张图片
ResNet提出了2种mapping:一种是identity mapping[恒等映射],指的是图中的曲线,把当前输出直接传输给下一层网络,相当于走了一个捷径,跳过了本层运算,另一种是residual mapping[残差映射],指的是除了曲线的部分,最终的输出是 y = F ( x ) + x y=F(x)+x y=F(x)+x。identity mapping指的是方程中的 x x x,而residual mapping指的是 F ( x ) = y − x F(x)=y-x F(x)=yx。其中,identity mapping就是shortcut connection。

2.两种ResNet残差学习单元设计
残差神经网络:原理与实践_第2张图片
2种结构分别针对ResNet34[左图]和ResNet50/101/152[右图],通常称整个结构为一个building block,右图又称bottleneck design。bottleneck design主要是为了降低参数数目,第一个 1 × 1 1 \times 1 1×1的卷积把256维channel降到64维,然后在最后通过 1 × 1 1 \times 1 1×1卷积恢复,总共用的参数数目为 1 × 1 × 256 × 64 + 3 × 3 × 64 × 64 + 1 × 1 × 64 × 256 = 69632 1 \times 1 \times 256 \times 64{\rm{ + }}3 \times 3 \times 64 \times 64{\rm{ + }}1 \times 1 \times 64 \times 256{\rm{ = }}69632 1×1×256×64+3×3×64×64+1×1×64×256=69632,而不使用bottleneck时就是两个 3 × 3 × 256 3 \times 3 \times 256 3×3×256的卷积,总共参数数目为 3 × 3 × 256 × 256 × 2 = 1179648 3 \times 3 \times 256 \times 256 \times 2{\rm{ = }}1179648 3×3×256×256×2=1179648,相差16.94倍。左图ResNet模块设计通常用于34层或者更少层数的网络中,右图ResNet模块设计通常用于更深的网络中,比如101层,目的是减少计算和参数量。

3.ResNet不同结构
残差神经网络:原理与实践_第3张图片
上表列出了5种深度的ResNet,分别是18、34、50、101和152。所有的网络都分为5部分,分别是conv1、conv2_x、conv3_x、conv4_x、conv5_x。以ResNet101为例,首先有个输入 7 × 7 × 64 7 \times 7 \times 64 7×7×64的卷积,然后经过 3 + 4 + 23 + 3 = 33 3+4+23+3=33 3+4+23+3=33个building block,每个block为3层,所以有 33 × 3 = 99 33 \times 3 = 99 33×3=99层,最后有个fc层用于分类,所以 1 + 99 + 1 = 101 1+99+1=101 1+99+1=101层。可见ResNet101中的101中的是网络的层数,需要说明的是101层网络仅仅指卷积或者全连接层,而激活层或者pooling层并没有计算在内。

4.两种Shortcut Connection方式
残差神经网络:原理与实践_第4张图片
F ( x ) F(x) F(x) x x x是按照channel维度相加的,实线部分的Shortcut Connection两者的channel维度是相同的,执行的都是 3 × 3 × 64 3 \times 3 \times 64 3×3×64卷积操作,计算方程为 y = F ( x ) + x y = F\left( x \right) + x y=F(x)+x。虚线部分的Shortcut Connection两者的channel维度是不同的,执行的分别是 3 × 3 × 64 3 \times 3 \times 64 3×3×64 3 × 3 × 128 3 \times 3 \times 128 3×3×128卷积操作,计算方程为 y = F ( x ) + W x y = F\left( x \right) + Wx y=F(x)+Wx,其中 W W W是卷积操作,用来调整 x x x的channel维度。

5.残差学习
残差学习解决了深度神经网络退化的问题,但为什么残差学习比原始特征直接学习更容易呢?假设对于一个堆积层结构当输入为 x x x时,其学习到的特征记为 H ( x ) H\left( x \right) H(x),现在希望其可以学习到残差 F ( x ) = H ( x ) − x F\left( x \right) = H\left( x \right) - x F(x)=H(x)x,这样其原始的学习特征为 F ( x ) + x F\left( x \right) + x F(x)+x。当残差为0时,此时堆积层仅仅做了恒等映射,至少网络性能不会下降,实际上残差不会为0,这也会使得堆积层在输入特征基础上学习到新的特征。
接下来从数学的角度来分析这个问题,残差单元可以表示为:
y l = h ( x l ) + F ( x l , W l ) x l + 1 = f ( y l ) y_l = h\left( {{x_l}} \right) + F\left( {{x_l},{W_l}} \right) \\ x_{l + 1} = f\left( {{y_l}} \right) yl=h(xl)+F(xl,Wl)xl+1=f(yl)
其中, x l {x_l} xl x l + 1 {x_{l+1}} xl+1分别表示第 l l l个残差单元的输入和输出, F F F表示学习到的残差,而 h ( x l ) = x l h\left( {{x_l}} \right) = {x_l} h(xl)=xl表示恒等映射, f f f是ReLU激活函数。
基于上述方程,当 h ( x ) h\left( x \right) h(x) f ( y ) f\left( y \right) f(y)都是恒等映射时[即 h ( x l ) = x l h\left( {{x_l}} \right) = {x_l} h(xl)=xl f ( y l ) = y l f\left( {{y_l}} \right) = {y_l} f(yl)=yl],可以求得从浅层 l l l到深层 L L L的学习特征:
x L = x l + ∑ i = l L − 1 F ( x i , W i ) {x_L} = {x_l} + \sum\limits_{i = l}^{L - 1} {F\left( {{x_i},{W_i}} \right)} xL=xl+i=lL1F(xi,Wi)
利用链式规则,可以求得反向过程的梯度:
∂ l o s s ∂ x l = ∂ l o s s ∂ x L ⋅ ∂ x L ∂ x l = ∂ l o s s ∂ x L ⋅ ( 1 + ∂ ∂ x L ∑ i = l L − 1 F ( x i , W i ) ) \frac{{\partial loss}}{{\partial {x_l}}} = \frac{{\partial loss}}{{\partial {x_L}}} \cdot \frac{{\partial {x_L}}}{{\partial {x_l}}} = \frac{{\partial loss}}{{\partial {x_L}}} \cdot \left( {1 + \frac{\partial }{{\partial {x_L}}}\sum\limits_{i = l}^{L - 1} {F\left( {{x_i},{W_i}} \right)} } \right) xlloss=xLlossxlxL=xLloss(1+xLi=lL1F(xi,Wi))
其中,第一个因子 ∂ l o s s ∂ x L \frac{{\partial loss}}{{\partial {x_L}}} xLloss表示损失函数到达 L L L的梯度,小括号中的1表示Shortcut Connection可以无损的传播梯度,而另一项残差梯度则需要经过带有权重的层,梯度不是直接传递过来的。残差梯度不会那么巧全为-1,而且就算其比较小,有1的存在也不会导致梯度消失。所以残差学习比原始特征直接学习会更容易。

6.ResNet的TensorFlow和Keras实现
[1]TensorFlow实现:https://download.csdn.net/download/shengshengwang/10933002
[2]Keras实现:https://download.csdn.net/download/shengshengwang/10933009

参考文献:
[1]ResNet网络结构:https://blog.csdn.net/dcrmg/article/details/79263415
[2]论文笔记Deep Residual Learning:https://www.cnblogs.com/jermmyhsu/p/8228007.html
[3]解析卷积神经网络:深度学习实践手册
[4]你必须要知道CNN模型ResNet:https://zhuanlan.zhihu.com/p/31852747
[5]resnet-in-tensorflow:https://github.com/wenxinxu/resnet-in-tensorflow

你可能感兴趣的:(计算机视觉)