EfficientNetV2简述(图像分类篇)

文章是对博主视频讲解的一些总结。
博主链接:
https://blog.csdn.net/qq_37541097?spm=1001.2014.3001.5509

1.预言

EfficientNet(V2)来自2021年,出自Google之手。
EfficientNetV2简述(图像分类篇)_第1张图片

2.亮点

  • 引入Fused-MBConv模块
  • 引入渐进式学习策略(训练更快)

2.1 Fused-MBConv模块

EfficientNetV2简述(图像分类篇)_第2张图片
EfficientNetV2简述(图像分类篇)_第3张图片

2.2 渐进式学习

前面提到过,训练图像的尺寸对训练模型的效率有很大的影响。所以在之前的一些工作中很多人尝试使用动态的图像尺寸(比如一开始用很小的图像尺寸,后面再增大)来加速网络的训练,但通常会导致Accuracy降低。为什么会出现这种情况呢?作者提出了一个猜想:Accuracy的降低是不平衡的正则化unbalanced regularization导致的。在训练不同尺寸的图像时,应该使用动态的正则方法(之前都是使用固定的正则方法)。
为了验证这个猜想,作者接着做了一些实验。在前面提到的搜索空间中采样并训练模型,训练过程中尝试使用不同的图像尺寸以及不同强度的数据增强data augmentations。当训练的图片尺寸较小时,使用较弱的数据增强augmentation能够达到更好的结果;当训练的图像尺寸较大时,使用更强的数据增强能够达到更好的接果。如下表所示,当Size=128,RandAug magnitude=5时效果最好;当Size=300,RandAug magnitude=15时效果最好:
EfficientNetV2简述(图像分类篇)_第4张图片
基于以上实验,作者就提出了渐进式训练策略Progressive Learning。如下图所示,在训练早期使用较小的训练尺寸以及较弱的正则方法weak regularization,这样网络能够快速的学习到一些简单的表达能力。接着逐渐提升图像尺寸,同时增强正则方法adding stronger regularization。这里所说的regularization包括dropout rate,RandAugment magnitude以及mixup ratio。

3. 网络结构

EfficientNetV2简述(图像分类篇)_第5张图片

Efficientv2-S

EfficientNetV2简述(图像分类篇)_第6张图片

Efficientv2-M
EfficientNetV2简述(图像分类篇)_第7张图片
Efficientv2-L
EfficientNetV2简述(图像分类篇)_第8张图片

你可能感兴趣的:(分类,计算机视觉,深度学习)