基于图像语义分割的低速无人驾驶车

关键字:语义分割;神经网络;多传感器融合;无人驾驶

一、目的:

对于低速无人驾驶车辆,可通行区域检测大多使用雷达,这种方案成本高、处理数据量大,而传统图像识别算法识别准确性较低。

基于神经网络的语义分割可以对RGB相机获取的彩色图像进行处理,获得可通行区域,在保证系统识别效果的同时,大幅降低系统成本。同时,使用多传感器融合进行路径导航,实现系统的运行。

二、方法:

低速无人驾驶车使用RGB相机获取环境信息,使用空洞卷积神经网络(DCN)对图像进行处理,检测地面,识别出可通行区域。将识别出的图像信息与多传感器数据融合处理,规划出实际路径。

基于图像语义分割的低速无人驾驶车_第1张图片
图 1 系统工作流程

使用DCN进行图像语义分割,使用Cityscapes街景数据库对神经网络进行训练,识别出地面区域。考虑到无人车的高度和相机的视场角,只对图片下半部分进行处理,之后通过颜色提取,获得地面区域,通过形态学处理,去掉噪声,对地面区域遍历求解横轴中心坐标点,所得点的连线为通行方向。

基于图像语义分割的低速无人驾驶车_第2张图片
图 2 对图像求解前进方向

GPS导航使用当前GPS坐标与目的地GPS坐标,结合地图进行路径规划,获得行驶路线。由于道路的限制,车辆只能沿着道路行走,需要电子罗盘判断朝向。之后使用图像语义分割进行可通行区域检测,确定行驶路径,避免在行驶过程中碰到障碍物。

基于图像语义分割的低速无人驾驶车_第3张图片
图 3 系统流程框图

三、结果:

本文将语义分割与多传感器融合结合在一起,具有较好的可行性,在图像识别过程中,使用空洞卷积神经网络替代全卷积神经网络,提高系统识别的准确率。在多传感器融合过程中,使用GPS进行定位,使用陀螺仪对电子罗盘获得磁场数据进行补偿,获得精确方向,最终实现系统运行。

基于图像语义分割的低速无人驾驶车_第4张图片
图 4 图像处理结果

四、结论:

本文研究了基于空洞卷积神经网络的图像语义分割,获得可通行区域,通过GPS、电子罗盘、陀螺仪等多传感器融合,实现了低速无人驾驶车的导航和路径规划,在保障系统安全性与可靠性的同时,降低了系统的成本。值得注意的是,虽然可以通过RBG相机获得通路信息,但整个系统还缺乏对整个环境变量的感知,存在较大的改进空间。

你可能感兴趣的:(基于图像语义分割的低速无人驾驶车)