计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型

计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型

  • 1. 摘要
  • 2. 引言
  • 3.ViT的延迟分析
  • 4. EfficientFormer的设计
    • 4.1 维度一致的设计
    • 4.2 延迟驱动Slimming
      • 1.SuperNet的设计
      • 2. 搜索空间
      • 3. 捜索算法
    • 4.3 模型架构
  • 5. 实验
    • 5.1 分类实验
    • 5.2 目标检测与语义分割

计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第1张图片

相关资源来自集智书童

1. 摘要

  Vision Transformers (ViT) 在计算机视觉任务中取得了快速进展,在各种基准测试中取得了可喜的成果。然而,由于大量的参数和模型设计,例如注意力机制,基于 ViT 的模型通常比轻量级卷积网络慢几倍。因此,应用部署 ViT 具有很大的挑战性,尤其是在移动设备等资源受限的硬件上。

  最近的很多工作都试图通过网络架构搜索或与 MobileNet Block 的混合设计来降低 ViT 的计算复杂度,但推理速度仍然不能令人满意。这就引出了一个重要的问题:Transformer 能否在获得高性能的同时运行得像 MobileNet 一样快?

  为了回答这个问题,首先重新审视基于 ViT 的模型中使用的网络架构和 ViT 算子,并确定其低效的设计。然后引入了一个维度一致的纯 Transformer (没有 MobileNet Block)作为设计范式。最后,执行延迟驱动的瘦身以获得一系列最终模型,称为 EfficientFormer。

  大量实验表明 EfficientFormer 在移动设备上的性能和速度方面具有优势。EfficientFormer-L1 在 ImageNet-1K 上实现了 79.2% 的 Top-1 准确率,在 iPhone 12(使用 CoreML 编译)上只有 1.6 ms 的推理延迟,这甚至比 MobileNetV2(1.7 ms,71.8% Top-1),EfficientFormer-L7 获得了 83.3% 的准确率,延迟仅为 7.0 ms。EfficientFormer证明,正确设计的 Transformer 可以在移动设备上达到极低的延迟,同时保持高性能。

2. 引言

  最初为自然语言处理 (NLP) 任务设计的 Transformer 架构引入了多头自注意力 (MHSA) 机制,该机制允许网络对长期依赖关系进行建模并且易于并行化。在这种情况下,Dosovitskiy 等人将注意力机制应用于 2D 图像并提出了 Vision Transformer (ViT):将输入图像划分为不重叠的块,通过 MHSA 学习块间表示,缺失了归纳偏差。

  与计算机视觉任务上的卷积神经网络 (CNN) 相比,ViT 展示了可喜的结果。在此成功之后,通过改进训练策略、引入架构更改、重新设计注意力机制以及提升各种视觉任务(如分类、分割和检测)的性能来探索 ViT 的潜力。

  不利的一面是,Transformer 模型通常比 CNN 慢几倍。有许多因素限制了 ViT 的推理速度,包括大量参数、关于Token长度的二次增加的计算复杂度、不可融合的归一化层以及缺乏编译器级别的优化(例如,CNN 的 Winograd)。高延迟使得 Transformer 对于资源受限硬件上的实际应用程序不切实际,例如移动设备和可穿戴设备上的增强或虚拟现实应用程序。因此,轻量级 CNN 仍然是实时推理的默认选择。

  为了缓解 Transformer 的延迟瓶颈,已经提出了许多方法。例如,一些努力考虑通过改变线性层与卷积层(Conv)来设计新的架构或算子,将自注意力与 MobileNet Block 相结合,或引入稀疏注意力以降低计算成本,而其他努力则利用网络搜索算法或修剪以提高效率。尽管现有工作已经改善了计算性能权衡,但与 Transformer 模型的适用性相关的基本问题仍未得到解答:强大的 Vision Transformers 能否以 MobileNet 速度运行并成为边缘应用程序的默认选项?这项工作通过以下贡献对答案进行了研究:

  1. 首先,通过延迟分析重新审视 ViT 及其变体的设计原则。在现有工作之后,使用 iPhone12 作为测试平台,并使用 CoreML 作为编译器;
  2. 其次,根据分析,确定了 ViT 中低效的设计和操作符,并为Vision Transformers提出了一种新的尺寸一致设计范式;
  3. 最后,从具有新设计范式的supernet开始,提出了一种简单而有效的latency-driven slimming方法,以获得一个新的模型族,即 EfficientFormers。直接优化推理速度,而不是 MAC 或参数数量。
    计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第2张图片
      EfficientFormer-L1 在 ImageNet-1K 分类任务上实现了 79.2% 的 top-1 准确率,推理时间仅为 1.6 ms,与 MobileNetV2 相比,延迟降低了 6%,top-1 准确率提高了 7.4%。有希望的结果表明,延迟不再是广泛采用Vision Transformers的障碍。

  EfficientFormer-L7 实现了 83.3% 的准确率,延迟仅为 7.0 ms,大大优于 ViT×MobileNet 混合设计(MobileViT-XS,74.8%,7.2ms)。

  此外,通过使用 EfficientFormer 作为图像检测和分割基准的Backbone,观察到了卓越的性能。对上述问题提供了初步答案,ViTs 可以实现超快的推理速度和强大的性能。

3.ViT的延迟分析

  大多数现有方法通过从服务器 GPU 获得的计算复杂度 (MAC) 或吞吐量(图像/秒)来优化Transformer的推理速度。虽然这些指标并不能反映真实的设备延迟。为了清楚地了解哪些操作和设计选择会减慢边缘设备上的 ViT 推理,作者对许多模型和操作进行了全面的延迟分析,如图 2 所示,由此得出以下观察结果。
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第3张图片

观察1:具有大 kernel 和 stride 的Patch embedding是移动设备的速度瓶颈。
  Patch embedding通常使用具有较大kernel-size和stride的非重叠卷积层来实现。一个普遍的看法是,transformer 网络中Patch embedding的计算成本不显着或可以忽略不计。然而,在图 2 中比较了具有大kernel和stride的Patch embedding模型,即 DeiT-S 和 PoolFormer-s24,以及没有它的模型,即 LeViT-256 和 EfficientFormer,表明Patch embedding反而是移动设备上的速度瓶颈。

  大多数编译器都不能很好地支持大内核卷积,并且无法通过 Winograd 等现有算法进行加速。或者,非重叠Patch embedding可以由具有快速下采样的卷积stem代替,该卷积干由几个硬件高效的 3×3 卷积组成。
观察2:一致的特征维度对于 token mixer 的选择很重要。MHSA 不一定是速度瓶颈.

  最近的工作将基于 ViT 的模型扩展到由 MLP 块和未指定的 token mixer 组成的 MetaFormer 架构。在构建基于 ViT 的模型时,选择 token mixer 是必不可少的设计选择。选项很多——具有全局感受野的传统 MHSA、更复杂的移位窗口注意力或非参数运算符(如池化)。

  这里将比较范围缩小到池化和 MHSA 这两个 token mixer ,选择前者是因为它的简单性和效率,而后者是为了更好的性能。大多数公共移动编译器目前不支持更复杂的 token mixer ,如移位窗口,因此将它们排除。此外,不使用深度卷积来代替池化,因为模型更专注于在没有轻量级卷积帮助的情况下构建架构。

  为了了解这2个 token mixer 的延迟,进行了以下两个比较:

  • 首先,通过比较 PoolFormer-s24 和 LeViT-256,观察到 Reshape 操作是 LeViT-256的瓶颈。LeViT-256 的大部分是在 4D 张量上使用 Conv 实现的,在将特征转发到 MHSA 时需要频繁的 Reshape操作,因为必须在修补后的 3D 张量上执行注意力(丢弃注意力头的额外维度)。 Reshape 的广泛使用限制了 LeViT在移动设备上的速度(图 2)。另一方面,当网络主要由基于 Conv 的实现组成时,池化自然适合 4D 张量,例如,作为 MLP 实现的Conv 1×1 和用于下采样的 Conv stem。因此,PoolFormer 表现出更快的推理速度。
  • 其次,通过比较 DeiT-S 和 LeViT-256 发现如果特征尺寸一致且不需要 Reshape,MHSA不会给手机带来显著的计算开销。尽管计算量更大,但具有一致 3D 特征的 DeiT-S 可以实现与新的 ViT 变体(即LeViT-256)相当的速度。

  因此在本文的工作中,提出了一个具有 4D 特征实现和 3D MHSA 的维度一致网络,但消除了低效的频繁 Reshape 操作。

观察3:CONV-BN 比 LN-Linear 更利于延迟,并且精度降低通常是可以接受的。

  选择 MLP 实现是另一个重要的设计选择。通常,选择以下2个选项之一:使用 3D 线性投影的 层归一化(LN)和使用 批量归一化 (BN) 的 Conv1×1。Conv-BN 对延迟更有利,因为 BN 可以融合到前面的卷积中以加快推理速度,而 LN 仍然在推理阶段收集运行统计信息,从而导致延迟。根据实验结果和之前的工作,LN 引入的延迟占整个网络延迟的 10%-20% 左右。

  根据消融研究,与 LN 相比,Conv-BN 仅略微降低了性能。在这项工作中,尽可能多地应用 Conv-BN以获得可忽略不计的性能下降的延迟增益,同时将 LN 用于 3D 特征,这与 ViT 中的原始 MHSA 设计一致并且产生更好准确性。

观察4:非线性的延迟取决于硬件和编译器

  最后,研究非线性,包括 GeLU、ReLU 和 HardSwish。以前的工作表明 GeLU 在硬件上效率不高,并且会减慢推理速度。但是,作者观察到 GeLU 得到 iPhone 12 的良好支持,并且几乎不比其对应的 ReLU 慢。相反,在实验中,HardSwish 的速度出奇地慢,编译器可能无法很好地支持(LeViT-256 的 HardSwish 延迟为 44.5 毫秒,而 GeLU 为 11.9 毫秒)。得出的结论是,非线性应该根据特定硬件和编译器的具体情况逐个确定。在这项工作中,使用了 GeLU 激活。

4. EfficientFormer的设计

  基于延迟分析,提出了 EfficientFormer 的设计,如图 3 所示。该网络由 patch embedding (PatchEmbed) 和meta transformer blocks,堆栈组成,表示为 MB:
Y = ∏ i m M B i (  PatchEmbed  ( X 0 B , 3 , H , W ) ) \mathcal{Y}=\prod_{i}^{m} \mathrm{MB}_{i}\left(\text { PatchEmbed }\left(\mathcal{X}_{0}^{B, 3, H, W}\right)\right) Y=imMBi( PatchEmbed (X0B,3,H,W))
  其中 χ 0 \chi_{0} χ0 是输入图像, 批大小为 B \mathrm{B} B, 空间大小为 [ H , W ] , Y [\mathrm{H}, \mathrm{W}], \mathrm{Y} [H,W],Y 是所需的输出, m \mathrm{m} m 是 Block 的总数 (深度)。MB 由末指定的 TokenMixer 和一个 MLP Block 组成, 可以表示如下:
X i + 1 = M B i ( X i ) = MLP ⁡ (  TokenMixer  ( X i ) ) \mathcal{X}_{i+1}=\mathrm{MB}_{i}\left(\mathcal{X}_{i}\right)=\operatorname{MLP}\left(\text { TokenMixer }\left(\mathcal{X}_{i}\right)\right) Xi+1=MBi(Xi)=MLP( TokenMixer (Xi))
  其中 χ i ∣ i > 0 \chi_{i \mid i>0} χii>0 是转发到第 i \mathrm{i} i 个 MB 的中间特征。进一步将 Stage 定义为处理具有相同空间大小的 特征的几个 MetaBlock 的堆栈, 例如图 3 中的 N 1 × N_{1 \times} N1× 表示 S 1 \mathrm{S} 1 S1 具有 N 1 N_{1} N1 个 MetaBlock。
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第4张图片
  该网络包括 4 个阶段。在每个阶段中,都有一个嵌入操作来投影嵌入维度和下采样Token长度,在图 3 中表示为嵌入。在上述架构下,EfficientFormer 是一个完全基于Transformer的模型,没有集成 MobileNet 结构。

4.1 维度一致的设计

  本文提出了一种维度一致的设计,将网络分成一个 4D 分区,其中算子以 ConvNet 样式 (MB4D) 实现,以及一个 3D 分区,其中线性投影和注意力在 3D 张量上执行,以利用 MHSA 的全局建模能力,而无需牺牲效率(MB3D),如图3所示。具体来说,网络从4D分区开始,而3D分区在最后阶段应用。请注意,图 3 只是一个实例,4D 和 3D 分区的实际长度是稍后通过架构搜索指定的。

  首先,使用由具有2个 kernel-size为3×3, Stride为 2的卷积组成的 Conv stem处理后的图像作为 patch embedding,
X 1 B , C j ∣ j = 1 , H 4 , W 4 = PatchEmbed ⁡ ( X 0 B , 3 , H , W ) \mathcal{X}_{1}^{B, C_{j \mid j=1}, \frac{H}{4}, \frac{W}{4}}=\operatorname{PatchEmbed}\left(\mathcal{X}_{0}^{B, 3, H, W}\right) X1B,Cjj=1,4H,4W=PatchEmbed(X0B,3,H,W)
  其中 C j C_{j} Cj 是第 j \mathrm{j} j 个阶段的通道数(宽度)。然后网络从 MB4D 开始, 使用简单的 Pool mixer 来 提取 low level 特征,
I i = Pool ⁡ ( X i B , C j , H 2 j + 1 , W 2 j + 1 ) + X i B , C j , H 2 j + 1 , W 2 j + 1 \mathcal{I}_{i}=\operatorname{Pool}\left(\mathcal{X}_{i}^{B, C_{j}, \frac{H}{2^{j+1}}, \frac{W}{2^{j+1}}}\right)+\mathcal{X}_{i}^{B, C_{j}, \frac{H}{2^{j+1}}, \frac{W}{2^{j+1}}} Ii=Pool(XiB,Cj,2j+1H,2j+1W)+XiB,Cj,2j+1H,2j+1W
X i + 1 B , C j , H 2 j + 1 , W 2 j + 1 = Conv ⁡ B ( Conv ⁡ B , G ( I i ) ) + I i \mathcal{X}_{i+1}^{B, C_{j}, \frac{H}{2^{j+1}}, \frac{W}{2^{j+1}}}=\operatorname{Conv}_{B}\left(\operatorname{Conv}_{B, G}\left(\mathcal{I}_{i}\right)\right)+\mathcal{I}_{i} Xi+1B,Cj,2j+1H,2j+1W=ConvB(ConvB,G(Ii))+Ii
  其中 Conv ⁡ B , G \operatorname{Conv}_{B, G} ConvB,G 是指卷积后是否分别跟 BN 和 GeLU。注意这里没有在 Pool mixer 之前使用 Gro up Normalization 或 Layer Normalization ( LN ), 因为 4D 分区是基于 CONV-BN 的设计, 因此每个 Pool mixer 前面都有一个 BN。
在处理完所有 MB4D 块后, 执行一次 Reshape 以变换特征大小并进入 3D 分区。 MB3D 遵循 传统的 ViT 结构, 如图 3 所示。形式上,
I i =  Linear  (  MHSA  (  Linear  ( LN ⁡ ( X i B , H W 4 j + 1 , C j ) ) ) ) + X i B , H W 4 j j + 1 , C j , X i + 1 B , H W 4 j + 1 , C j = Linear ⁡ (  Linear  G ( LN ⁡ ( I i ) ) ) + I i \begin{gathered} \mathcal{I}_{i}=\text { Linear }\left(\text { MHSA }\left(\text { Linear }\left(\operatorname{LN}\left(\mathcal{X}_{i}^{B, \frac{H W}{4 j+1}, C_{j}}\right)\right)\right)\right)+\mathcal{X}_{i}^{B, \frac{H W}{4 j^{j+1}}, C_{j}}, \\ \mathcal{X}_{i+1}^{B, \frac{H W}{4 j+1}, C_{j}}=\operatorname{Linear}\left(\text { Linear }{ }_{G}\left(\operatorname{LN}\left(\mathcal{I}_{i}\right)\right)\right)+\mathcal{I}_{i} \end{gathered} Ii= Linear ( MHSA ( Linear (LN(XiB,4j+1HW,Cj))))+XiB,4jj+1HW,Cj,Xi+1B,4j+1HW,Cj=Linear( Linear G(LN(Ii)))+Ii
  其中 Linear G _{G} G 表示线性后跟 GeLU , 并且
MHSA ⁡ ( Q , K , V ) = Softmax ⁡ ( Q ⋅ K T C j + b ) ⋅ V \operatorname{MHSA}(Q, K, V)=\operatorname{Softmax}\left(\frac{Q \cdot K^{T}}{\sqrt{C_{j}}}+b\right) \cdot V MHSA(Q,K,V)=Softmax(Cj QKT+b)V
  其中 Q 、 K 、 V Q 、 K 、 V QKV 表示通过线性投影学习的 query 、 key 和 value , b 是作为位置编码的参数化 注意力偏差。

4.2 延迟驱动Slimming

1.SuperNet的设计

  基于维度一致的设计, 构建了一个 supernet, 用于搜索图 3 所示网络架构的高效模型(图 3 显示了搜索到的最终网络的示例)。为了表示这样一个 Supernet, 定义了 MetaPath(M P ), 它是可能块的集合:
MP ⁡ i , j = 1 , 2 ∈ { M B i 4 D , I i } MP ⁡ i , j = 3 , 4 ∈ { M B i 4 D , M B i 3 D , I i } \begin{aligned} &\operatorname{MP}_{i, j=1,2} \in\left\{\mathrm{MB}_{i}^{4 D}, I_{i}\right\} \\ &\operatorname{MP}_{i, j=3,4} \in\left\{\mathrm{MB}_{i}^{4 D}, \mathrm{MB}_{i}^{3 D}, I_{i}\right\} \end{aligned} MPi,j=1,2{MBi4D,Ii}MPi,j=3,4{MBi4D,MBi3D,Ii}
  其中 I 表示 identity path, j j j 表示第 j j j 个阶段, i i i 表示第 i i i 个块。 Supernet 可以通过用 MP 代 替图 3 中的 MB。

  在 Supernet 的第1阶段和第2阶段中, 每个 Block 可以选择 MB4D 或I, 而在第3阶段和第4阶 段中, Block 可以是 MB3D、MB4D 或 I \mathrm{I} I

  本文只在最后两个阶段启用 MB3D, 原因有 2 个: 首先, 由于 MHSA 的计算相对于 Token 长度 呈二次增长, 因此在早期集成它会大大增加计算成本。其次, 将全局 MHSA应用于最后阶段符 合直觉, 即网络的早期阶段捕获低级特征, 而后期层则学习长期依赖关系。

2. 搜索空间

  搜索空间包括 C j C_{j} Cj (每个 Stage 的宽度) 、 N j N_{j} Nj (每个 Stage 中的块数, 即深度) 和最后 N \mathrm{N} N 个要 应用 MB3D 的块。

3. 捜索算法

  以前的硬件感知网络搜索方法通常依赖于每个候选者在搜索空间中的硬件部署来获得延迟, 这 是非常耗时的。在这项工作中, 提出了一种简单、快速但有效的基于梯度的搜索算法, 以获得 只需要训练一次 Supernet 的候选网络。
计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第5张图片

4.3 模型架构

计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第6张图片

5. 实验

5.1 分类实验

计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第7张图片

5.2 目标检测与语义分割

计算机视觉论文速递(九)EfficientFormer: Vision Transformers at MobileNet Speed 轻量化实时推理的Transformer模型_第8张图片
EfficientFormer论文: Vision Transformers at MobileNet Speed
代码已开源:EfficientFormer:Vision Transformers at MobileNet Speed

你可能感兴趣的:(计算机视觉论文速递,计算机视觉,transformer,人工智能,pytorch,深度学习)