CNN(七):ResNeXt-50算法的思考

  •   本文为365天深度学习训练营中的学习记录博客
  • 原作者:K同学啊|接辅导、项目定制

         在进行ResNeXt-50实战练习时,我也跟其他学员一样有这个疑惑,如下图所示:

CNN(七):ResNeXt-50算法的思考_第1张图片

         反复查看代码,仍然有些疑惑,甚至怀疑是不是代码错了。实践是检验真理的唯一标准,先把代码跑起来再说。发现运行完全没有问题,再通过对比查看网络结构和代码后,搞清楚了原因,根本原因就在stack的设计,即一个conv_shortcut=True的block+n个conv_shortcut=False的堆叠残差单元,如下图所示:

CNN(七):ResNeXt-50算法的思考_第2张图片

         下面以filters=128,blocks=2的入参来说明原因。

(1)1个block(conv_shortcut=True):conv_shortcut=True,结合代码可知,在进行Add操作时,是将进行了Conv+BN操作的特征图(filters=2*128),与后续[(Conv+BN+ReLU)+ 分组卷积 + (Conv+BN) ]的一系列操作后得出的特征图(filters=2*128)进行Add操作,此时Add的两部分的通道数均是2*128,即256,之后再进行ReLU操作;

(2)2个block(conv_shortcut=False):conv_shortcut=False,结合代码可知,在进行Add操作时,是直接对输入的x与后续的[(Conv+BN+ReLU)+ 分组卷积 + (Conv+BN) ]的一系列操作后得出的特征图(filters=2*128)进行Add操作。这里为什么add的其中一部分是输入x,是因为此时的输入x,是已经通过上面的1个block操作了,此时x的通道数原本就是2*128,即256。因此在进行Add操作时,与后续得出的特征图(filters=2*128)在通道数上完美匹配。

        其他filters=256、512、1024则是类似的操作。

你可能感兴趣的:(CNN,cnn,人工智能,神经网络)