综述(三)无人驾驶中感知系统的工作流程及原理

综述(三)无人驾驶中感知系统的工作流程及原理_第1张图片

人在路上行走时,需要有眼睛、耳朵、鼻子、触觉等器官才能感知周围的状况,从而为自己的大脑做决策提供依据。无人驾驶汽车在路上行驶,更加需要感知周围的环境。而且,由于汽车的车载计算机,在智能程度上还远不及人脑,尤其在面对一些程序设定范围外的处理逻辑时。因此,无人驾驶汽车对于传感器性能的需求要更加严格。

目前无人驾驶的感知系统主要依赖的外部传感器包括激光雷达、摄像头、毫米波、惯性导航单元以及GPS等等。这些传感器由于采集到的数据各不相同,例如摄像头主要在成像平面坐标系下分析图像,激光雷达主要利用采集到的3D点云数据获取道路和周围环境的三维轮廓。这些传感器需要搭配使用,以应对不同的应用需求,因此需要先进性标定,从而使得摄像头和雷达的信息能放到同一个维度进行融合。

在获得不同传感器的数据源后,无人驾驶汽车需要进行目标检测和分类,例如可以将行驶地面进行分割,对行人和车辆利用欧式聚类等算法进行分类。通过图像信息,可以识别交通信号灯,路牌,施工区域,以及特殊类别,比如校车,警车。这些检测的目标用于帮助感知系统理解运行场景。

对于上面识别到的行人和车辆等物体,还需要进行多帧的目标跟踪,从而判断这些物体的移动轨迹。对于与行驶方向安全限界范围相冲突的,要提前进行安全防护,控制车辆进行减速、避让等操作。

人类驾驶员在驾驶过程中,存在很多驾驶盲区,因此需要在驾驶过程中特别谨慎。无人驾驶车辆,在感知周围环境时,也存在一些盲区。实际上,这些区域仅相对于特定时刻而言,随着车辆的行进在下一时刻即会产生新的盲区。无人驾驶过程中,通过组合使用多类传感器和运用时序关联的感知技术,可以缩小感知盲区的范围,一般不会影响正常驾驶。

 

你可能感兴趣的:(自动驾驶,人工智能,机器学习)