深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展

论文研读——Deep Learning Sensor Fusion for Autonomous Vehicle Perception and Localization: A Review

  • 深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展
    • 摘要
    • 1、介绍
    • 2、传感器技术和传感器融合概述
        • 2.1 介绍了传统传感器融合方法
        • 2.2 介绍了深度学习传感器融合方法
    • 3、环境感知:局部动态感知图
    • 4、自我定位与映射
    • 5、结论和未来的研究建议

深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展

此篇文章为该论文的学习笔记,只供学习使用,不作商业用途,侵权删除。并且本人学术功底有限,如有思路不正确的地方欢迎批评指正!

摘要

为了实现自主决策和驾驶控制,无人驾驶汽车(AV)配备了传感器,利用5G等通信技术的进一步进步,既可以感知周围环境,也可以感知远处的环境。与此同时,同人类一样,当地的知觉将继续是近距离控制车辆的有效手段。另一方面,扩展感知允许对遥远事件的预期,并产生更智能的行为,在尊重一套标准(安全、能源管理、交通优化、舒适度)的同时,引导车辆到达目的地。尽管传感器技术在近年来的有效性和适用性方面取得了显著的进步,但传感器仍然可能由于噪声、环境条件或制造缺陷等因素而失效;因此,在任何自动驾驶任务中都不建议依赖单个传感器。实际的解决方案是将多个具有竞争力和互补性的传感器结合起来,协同工作,以克服各自的缺点。在文章中提供了一个全面的回顾的最先进的方法,以提高在短程或本地车辆的环境中AV系统的性能。具体来说,它重点关注最近使用深度学习传感器融合算法进行感知、定位和绘图的研究。文章的结论是强调当前的一些趋势和未来可能的研究方向。

1、介绍

在介绍中提到了自动驾驶汽车(AVs)分为6个不同的级别,从驾驶员完全控制车辆的第0级到完全控制所有驾驶方面的第5级。,具体的如图1所示:
深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展_第1张图片
自主导航问题通常分为四个主要元素:感知、定位和绘图、路径规划控制。在感知方面,车辆利用一组车载传感器来检测、理解和解释周围环境,包括静态和动态障碍物,如其他移动的车辆、行人、道路标志、交通信号和路缘。定位和绘图任务试图根据世界坐标对车辆进行全局定位。此外,他们还负责构建车辆周围环境的地图,并根据地图不断跟踪车辆的位置。随后,路径规划利用前两个任务的输出,在考虑道路上所有其他可能障碍的情况下,为AV选择最优、最安全的可行路径到达目的地。
最后,控制元件根据所选路径输出车辆跟随所选路径所需的加速度、扭矩和转向角值。此外,有多项研究考虑加入车辆互联技术,如车对车(V2V)和车对基础设施(V2I)技术,共享必要信息,创建一个增强的协同驾驶环境,如图2所示。这种扩展和改进的合作感知允许车辆预测关键环境成分的行为(障碍、道路、自我车辆、环境,驾驶行为),并预期任何可能的危险事件。
深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展_第2张图片
在车辆处于一个高度复杂、快速和动态的环境中,应用算法应该以一种特殊的方式来设计,以平衡准确性和快速实时处理。随着图形处理单元(gpu)等新的强大计算技术的出现和大数据的可用性,人工智能(AI)和机器学习的一个子集,即深度学习,在与目标检测相关的几个应用程序中获得了很高的关注。物体识别,道路状况识别,以及更普遍的机器人问题。深度学习算法已被应用于AV系统的不同方面,如感知、映射和决策。这些算法已经证明它们有能力解决许多这些困难,包括传统算法面临的计算负载
同时保持良好的准确性和快速的处理速度。
文章重点讨论了AV系统的两个组成部分:感知定位绘图。主要目的是提供一个全面的回顾,在传感器融合领域的AV系统最有用的深度学习算法。论文组织如下。第2节概述了最近传感器组合的优点及其在AVs中的应用,以及该领域中使用的不同传感器融合算法。第3节描述了环境感知的任务,并提供了最新的深度学习检测算法的概述,以及它们的性能分析。第4节讨论了定位和映射的方法,并比较了用于该任务的不同传感器。评估了深度学习算法的各种应用,并与传统算法进行了比较。第5节提供了未来的研究建议,可能会弥合与AV系统相关的研究主题的差距。

2、传感器技术和传感器融合概述

在自动驾驶汽车中,不同的主动和被动传感器组合被用来执行感知的两个主要任务。(1)环境感知:采用RGB相机、热像仪、激光雷达、雷达进行道路车辆检测跟踪、行人检测跟踪、路面检测、道路车道检测、道路标志检测。(2)定位:利用全球卫星导航系统(GNSS)、惯性测量单元(IMU)、惯性导航系统(INS)、里程表、摄像机、激光雷达等获取车辆的相对位置和绝对位置。
一般来说,很难从单一的独立来源生成数据并将其用于复杂的应用,如AVs原因可能是传感器不足,也可能是被感知环境的性质,或者两者都有。传感器存在一些不足和限制,这可能会降低它们的性能。
除了传感器自身的缺陷外,所感知的环境条件对传感器的输出也有很大的影响。例如,传感器噪声通过阳光强度和光照干扰相机图像。同样地,夜间光线不足也会降低彩色摄像机的输出效果。此外,GPS传感器在某些地区,如隧道和森林,也会受到停电的影响。
研究人员使用不同的传感器组合,并在不同的层次融合他们的读数,以弥补单个传感器的局限性。视觉摄像机是产生av环境详细环境视图的必要传感器。与主动测距传感器相比,在给定的性能水平(如分辨率、精度)上,它们是廉价的传感器,可以以相对较低的成本为周围场景提供密集的像素信息。然而,正常的基于视觉的系统无法提供三维环境建模所需的深度信息。另一种选择是使用立体视觉系统,它由多个不同位置的摄像机组成。然而,这些系统对外部环境条件也非常敏感,如光强(弱光和阳光直射);以及雾、雪和雨等恶劣天气情况。例如,将基于视觉的系统与激光雷达(LiDAR)融合,可以产生互补的输出,提供深度信息,同时对外部天气条件具有强大的抗冲击能力。
主要是对各类的传感器进行了参数以及优缺点的介绍,以及当前主流的传感器融合方法的多种分类方案(数据融合、特征融合、决策融合)进行了介绍,和应用的方向。最后是介绍了融合的架构。
本文中将传感器融合技术和算法分为经典算法和基于深度学习的算法。然而研究的范围是回顾深度学习传感器融合方法在A V应用中的实现。

2.1 介绍了传统传感器融合方法

2.2 介绍了深度学习传感器融合方法

3、环境感知:局部动态感知图

环境感知是AVs倾向于感知、理解和建立对环境及其周围物体的全面意识的过程。这个感知地图是由来自环境的五个主要组成部分(障碍、道路、自我车辆、环境驾驶员)的信息构建的。汽车通常配备多个传感器,以评估前两个关键部件,并检测环境中的各种物体,如车辆、行人、标志、道路和车道。一般来说,雷达、激光雷达和基于视觉的系统是环境感知中最常用的传感器。因此,文献中讨论使用卷积神经网络(CNN)的检测算法是很常见的,因为它们对视觉数据非常强大。
接下来介绍了多层感知机(MLP)、卷积神经网络(CNN)、基于区域的CNN (R-CNN)、空间金字塔池网络((SPP-Net))、快速的R-CNN(Fast R-CNN)、更快的R-CNN(Faster R-CNN)、“你只看一次”探测器(YOLO)、单激发多盒探测器(SSD)、反卷积单炮探测器(DSSD)

4、自我定位与映射

一个有效的自动驾驶系统需要车辆准确地确定自己的位置和方向。电动汽车需要精确、可靠和健壮的定位算法,以协助其执行机动任务,避开周围的障碍物,并执行正确的驾驶动作。此外,定位系统还需要健壮性,以应对各种复杂环境和恶劣天气条件。一般来说,定位通常使用各种传感器,如GNSS;航迹推算设备,如IMU、视觉传感器和激光雷达(用于视觉里程计、原始探测和测绘,例如SLAM算法)。为了提高整体定位性能,两个或多个传感器的融合也是一种常见的做法。
第4节旨在分析作为中介感知方法的一部分的定位技术,同时重点关注通过深度学习算法融合不同传感器。表1对常见的自我定位和映射技术进行了总结。
深度学习传感器融合技术在自动驾驶汽车感知与定位中的应用研究进展_第3张图片
后面介绍了相关的技术,包括基于GNSS/IMU的定位、基于视觉的定位、同步定位和绘图(SLAM)、视觉里程计(VO)、基于地图匹配的定位

5、结论和未来的研究建议

自动驾驶汽车和自动驾驶汽车的领域非常广阔,涉及从电子、传感器、硬件到控制和决策算法,以及所有社会和经济方面的方方面面。因此,这一领域的研究机会是无穷无尽的,并具有不断增长的未来扩展潜力。未来的自动驾驶汽车技术研究将涉及更先进的传感器技术、算法增强、数据采集与存储、通信安全以及整体性能提升等方面。此外,研究领域可以扩展到非技术主题,如社会对自动驾驶的接受程度,环境影响,城市设计的变化,和经济效益。
在本研究中,我们对自动驾驶汽车的感知、定位和绘图任务进行了调查和评价,特别是那些由深度学习算法授权的任务,这些算法可以利用数据驱动的知识发现,而不是基于物理的模型。与研究范围相关,本节旨在总结可能改善和丰富自动驾驶汽车领域的潜在研究领域。这些建议将集中在环境感知、定位和绘图,以及如何进一步利用深度学习算法来提高传感器融合网络的性能。
未来将要面临的挑战:恶劣的天气、地标地图匹配、深度学习定位算法。
需要解决的问题:网络安全、可靠性和可重复性。

你可能感兴趣的:(多智能体深度强化学习,自动驾驶,人工智能,机器学习)