《EfficientDet:Scalable and Efficient Object Detection》论文学习

论文地址:https://arxiv.org/pdf/1911.09070.pdf

github地址:https://github.com/google/automl/tree/master/efficientdet

研究目的:在计算机视觉中,提出高效的模型优化措施,用于目标检测的神经网络体系结构的选择。

研究重点

1.提出了加权双向特征金字塔(BiFPN),该网络可以轻松快速的进行多尺度特征融合。

2.提出了复合压缩的方法,该方法可以同时对所有的主干,特征网络和框/类预测网络的分辨率,深度和宽度,并进行统一缩放。

3.将EfficientNets作为主要网络,与文中提出的BiFPN和复合缩放相结合,开发了EfficientDet。

一、BiFPN

        在该部分首先阐述多尺度特征融合问题,然后介绍文中所提出的BiFPN的主要思想。

        多尺度特征融合旨在聚集不同分辨率的特征。形式上给定一个多尺度特征融合列表,有效聚合不同特征并输出新特征列表。传统的自上而下的FPN受到单向信息流的限制,如图(a)。在FPN的基础上,PANet添加了一个额外的自下而上的聚合网络,如图(b)。后来又提出了NAS-FPN,如图(c),使用神经体系结构来搜索更好的跨尺度特征网络拓补,但在此过程中GPU需要运行数千小时。并且网络是不规则且难以解释或者难以修改。针对上述三种多尺度特征融合网络,本文提出了几种优化方法:首先删除只有一个输入边的节点。其次,如果原始输入与输出节点处于同一级别,则在它们之间添加一条额外的边。一边融合更多的功能。最后我们将每一个双向(自下而上和自上而下)路径是为一个特征网络层,重复同一层次以实现更多高级特征融合。通过这些优化,我们将新特征网络命名为双向特征金字塔网络(BiFPN),如(d)。

《EfficientDet:Scalable and Efficient Object Detection》论文学习_第1张图片

二、EfficientDet架构 

       下图显示了EfficientDet的总体架构,采用EfficientNets作为主干网络。BiFPN作为特征网络,它从主干网络中获取3-7层特征,并反复应用自上而下和自下而上的双向特征融合,这些融合的特征被馈送到类和框网络,以生成对象类和边界框预测,类和框网络权重在所有级别的功能之间共享。

《EfficientDet:Scalable and Efficient Object Detection》论文学习_第2张图片

三、复合缩放

        先前的工作大多通过采用更大的骨干网络(例如ResNeXt [38]或AmoebaNet [29]),使用更大的输入图像或堆叠更多的FPN层来扩展基线检测器。这些方法通常无效,因为它们仅关注单个或有限的缩放维度。论文中出了一种新的用于对象检测的复合缩放方法,该方法使用简单的复合系数φ来联合骨干网络、BiFPN网络,类/框网络和分辨率的所有维度。具体方法如下:

1、主干网络,我们重复使用EfficientNet-B0至B6的相同宽度/深度缩放系数[36],以便我们可以轻松地重复使用其ImageNet预训练的检查点。

2、BiFPN网络,我们将BiFPN深度线性增加,对其宽度指数增长。

3、框/类预测网络–我们将其宽度固定为始终与BiFPN相同,但使用等式线性增加深度。

4、输入图像分辨率–由于BiFPN使用3-7层要素,因此输入分辨率必须可除以 128。

四、实验

在COCO 2017检测数据集上评估了EfficientDet 。下表将EfficientDet与其他对象检测器(在没有测试时间增加的单模型单标度设置下)进行了比较。我们的EfficientDet在广泛的精度或资源限制范围内,比以前的检测器具有更高的精度和效率。

《EfficientDet:Scalable and Efficient Object Detection》论文学习_第3张图片

总结:在本文系统地研究了用于有效目标检测的网络体系结构设计选择,并提出了加权双向特征网络和自定义复合缩放方法,以提高准确性和效率。基于这些优化,我们开发了一个名为EfficientDet的新检测器系列,该检测器在广泛的资源限制范围内始终比现有技术具有更高的准确性和效率。尤其是,与以前的对象检测和语义分割模型相比,我们扩展后的EfficientDet具有最新的准确性,并且参数和FLOP少得多。
 

参考:https://blog.csdn.net/weixin_42666085/article/details/105337539

你可能感兴趣的:(目标检测,人工智能,计算机视觉,python)