无人驾驶汽车

无人驾驶汽车_第1张图片

目前无人驾驶要具备环境感知,高精度地图和驾驶决策三个部分,缺一不可,其中

传感技术(Sensing):传感器得到环境数据,将其传达到计算设备,再由其中的环境模型决定车辆行为,这是目前定义最明晰和成熟的一个领域。

地图绘制(Mapping):无人驾驶汽车需要建立非常精确的地图,方便应对路况。这个领域的定义就没有传感技术那么明晰了。

驾驶策略/路线规划(Driving policy):机器不是路上唯一的个体。就像人类需要去驾校一样,机器也需要学习如何遵守交通规则、何时该走,何时该停,等等,均需要训练和规定。而我们需要将这些翻译成技术信息,让机器能够理解。


而该无人驾驶学习车辆系统,是以车辆设计为载体,主要利用机器学习中图像识别的方式来采集道路图像信息并进行分类标注与命令匹配,虽然该车辆系统并不具备目前大多主流无人驾驶系统中环境感知和地图绘制以及路线规划能力,但作为机器学习中一种很热门的技术--图像识别,即如何让机器认出其所看到的环境的基本特征属性,并能够做出相应的动作。当然目前机器人已经能够执行这样的功能了,只是我们还不知道罢了,不知道其是如何实现的,那么该无人驾驶学习车辆系统就是以掌握图像识别方式来控制车辆自主实现驾驶功能,甚至在此基础上扩展至仿生机器人,因为两者之间不外乎机器人形态的区别以及形态差异导致的执行机构的不同罢了,同时如果有了这样的改变之后,图形图像识别就能很方便的扩展到智能语音对话。那么一个智能机器人就是这样诞生了,唯一的担心是不要把自己的机器人给教坏了。

该无人驾驶学习车辆系统具体如下:

车体参数:该无人驾驶汽车按照1:10比例进行车体模型设计。

操作系统及开发平台:使用linux作为开发操作系统,树莓派作为硬件开发平台,利用其摄像头视觉功能进行路况信息采集。

实现原理:采集到10-20k张图片之后,考虑到树莓派处理数据能力不足,把这些图像传输至性能强大的GPU电脑里面,利用开源的机器学习框架tensorflow,因为在进行图像采集的过程中已经进行了图像信息标注,再结合Keras神经网络进行图像数据处理与模型训练。

道路实测:把训练好的模型再传输回搭载linux系统的无人驾驶实体汽车的中央主控里面,接下来开始在已经学习过的特定的道路模型里面进行自主无人驾驶,在自动驾驶过程中摄像头视觉功能启动实时拍摄传输图像,并把该图像与自身模型库里面的控制命令匹配,以实现良好的控制制动效果。


无人驾驶汽车_第2张图片

所以donkeycar的无人驾驶,虽然也是无人驾驶,但应该比首先听到无人驾驶所产生的期望值要来的低一些。只是拿来学着用罢了。

参考:

https://www.leiphone.com/news/201606/TGfD5qmbrNH4nFxU.html

https://www.zhihu.com/question/20210846/answer/215490332

你可能感兴趣的:(无人驾驶汽车)