CV 经典主干网络 (Backbone) 系列: ResNet变种

CV 经典主干网络 (Backbone) 系列: ResNet变种

该篇是 CV 经典主干网络 (Backbone) 系列 下的一篇文章。

ResNet 出来后,大家又基于 ResNet 提出了很多改进版本,这里主要对一些效果比较好的变种进行简单介绍。

1. ResNeXt

作者:Saining Xie 等
发表时间:2016
Paper 原文: Aggregated Residual Transformations for Deep Neural Networks

ResNeXt 一作虽然不是何凯明,但是他依然有参与。ResNet 是结合了 Inception net 和 ResNet 的思想,提出的一种网络结构。

1.1 网络结构

ResNet 中通过重复的堆叠 block,从而使得其结构非常的简单,这样仅仅通过控制网络的深度就可以完成超参数的选择,比如你可以选择 18 或者 50 或者其他的层数,而不用关心其内部的具体结构。

Inception net 中通过精心设计的 Inception Module,在某些数据集中可以达到好的效果,可是如果要应用到其他场景下,修改起来就比较麻烦了。

因此作者提出了 ResNeXt,和 ResNet 一样,依然采用堆叠 block 的方式来搭建网络,但是 block 的结构和 Inception block(如下图2)的结构有些类似。和 Inception block 不同的地方在于,ResNeXt 的 block 中的每一个 path 是相同的。另外作者采用分组卷积来提升计算效率。

在这里插入图片描述

下图为 inception model。

在这里插入图片描述

1.2 效果

在 ImageNet 上,ResNeXt 取得了比 ResNet 更好的成绩,相比 GoogLeNet v4,ResNext 结构更简单,效果也更好,但是由于 ResNext 直接废除了Inception 的囊括不同感受野的特性仿佛不是很合理,在更多的环境中我们发现Inception V4的效果是优于ResNeXt的

2. ResNeSt

作者:Hang Zhang 等
发表时间:2020
Paper 原文: ResNeSt: Split-Attention Networks

ResNeSt 应该说是集合多种网络(GoogleNet, ResNeXt, SE-Net, SK-Net)的优点和一众工程上的 trick 于一身的网络,效果上也达到了 SOTA 的水准。

2.1 网络结构

参考:

【论文笔记】张航和李沐等提出:ResNeSt: Split-Attention Networks(ResNet改进版本)

2.2 效果

ResNest 论文曾引发一系列质疑和讨论,那是学术圈的事情,但是不妨碍模型在分类、检测和分割任务上均有很好的表现。

在这里插入图片描述

3. Res2Net

作者:Shang-Hua Gao等
发表时间:2019
Paper 原文: Res2Net: A New Multi-scale Backbone Architecture

Res2Net 中提出一种多尺度结构,可以方便的应用到其他网络模型中,比如替换 ResNet 中的 bottleneck block,就可以得到明显的提升。Res2Net 在检查和分割任务中提升明显。

具体可以参考:

  • Res2Net:新的深度学习多尺度结构,提升物体检测立竿见影

4. DenseNet

作者:Gao Huang等
发表时间:2017
Paper 原文: Densely Connected Convolutional Networks

这篇文章获得了 CVPR 2017, Best Paper Award。DenseNet 脱离了加深网络层数(ResNet)和加宽网络结构(Inception)来提升网络性能的定式思维,从特征的角度考虑,通过特征重用和旁路(Bypass)设置,既大幅度减少了网络的参数量,又在一定程度上缓解了gradient vanishing问题的产生。

具体可以参考:

  • DenseNet算法详解

  • DenseNet详解

5. 其他

除此之外还有 swsl_resnet, ssl_resnet, wide_resnet 等模型值得关注。

你可能感兴趣的:(Backbone,resnext,resnest,densenet,结构,总结)