GhostNet: More Features from Cheap Operations

GhostNet:廉价运营带来更多功能

  • 摘要
  • 引言
  • 更多特征的幽灵模块

文章和代码

摘要

由于内存和计算资源有限,在嵌入式设备上部署卷积神经网络非常困难。特征图中的冗余是那些成功的中枢神经系统的一个重要特征,但在神经结构设计中很少被研究。本文提出了一种新的Ghost模块,通过廉价的操作生成更多的特征图。基于一组内在特征图,我们以低廉的成本应用一系列线性变换来生成许多幽灵特征图,这些幽灵特征图可以充分揭示内在特征背后的信息。所提出的Ghost模块可以作为即插即用组件来升级现有的卷积神经网络。Ghost瓶颈旨在堆叠Ghost模块,然后可以轻松建立轻量级GhostNet。在基准上进行的实验表明,所提出的Ghost模块是基线模型中卷积层的令人印象深刻的替代方案,并且我们的GhostNet可以在ImageNet ILSVRC2012分类数据集上以相似的计算成本实现比MobileNetV3更高的识别性能(例如,75.7%的top-1精度)。

引言

图1展示了由ResNet-50生成的输入图像的一些特征图,并且存在许多相似的特征图对,就像彼此的幽灵一样。特征图中的冗余可能是成功的深度神经网络的重要特征。我们倾向于采用它们,而不是避免冗余的要素地图,但这是一种经济高效的方式
GhostNet: More Features from Cheap Operations_第1张图片
在这篇文章中,我们引入了一个新的Ghost模块,用更少的参数生成更多的特征。具体来说,深度神经网络中的普通卷积层将被分成两部分。第一部分涉及普通卷积,但它们的总数将受到严格控制。给定第一部分的固有特征图,然后应用一系列简单的线性操作来生成更多的特征图。与普通卷积神经网络相比,在不改变输出特征图大小的情况下,该Ghost模块所需的参数总数和计算复杂度都有所降低。基于Ghost模块,我们建立了一个高效的神经架构,即GhostNet。我们首先在基准神经体系结构中替换原始卷积层来演示Ghost模块的有效性,然后在几个基准视觉数据集上验证我们的GhostNets的优越性。实验结果表明,所提出的Ghost模块能够在保持相似识别性能的同时降低通用卷积层的计算成本,并且GhostNets能够在移动设备上以快速推理在各种任务上超越最先进的高效深度模型,如mobilenev3[20]。

更多特征的幽灵模块

我们建议对Y’中的每个固有特征应用一系列廉价的线性运算,以根据以下函数生成s的重影特征:
GhostNet: More Features from Cheap Operations_第2张图片

GhostNet: More Features from Cheap Operations_第3张图片
Ghost模块采用普通卷积首先生成少量的内在特征图,然后利用廉价的线性运算来扩充特征和增加通道。iii)处理每个特征映射的操作限于先前有效架构[21,61,53,28]中的深度卷积或移位操作,而Ghost模块中的线性操作可以具有很大的多样性。iv)此外,在Ghost模块中,身份映射与线性变换并行,以保留固有的特征映射。

GhostNet: More Features from Cheap Operations_第4张图片

你可能感兴趣的:(卷积神经网络,卷积,神经网络)