智能自动驾驶之感知

最近研究无人驾驶,这次就介绍一下环境感知

关于环境感知,应该从人对事物的感知分析。首先是视觉、听觉、触觉。
视觉首先就是摄像头,分为单目、双目、多目、夜市、红外等。主要是看前、看后、看周围、看近、看远、看盲区。
现在的FCWLDWLKA等大多基于摄像头来做,基本的原理就是通过图像分析和神经网络深度学习。具体的图形分析和神经网络算法我这里就不介绍了,否则几天都讲不完。。。
通俗化介绍一下单目摄像头车道检测的技术好了,其他的技术基本雷同,无非是用了不用的算法来解决而已。
我并非有意冒犯有些大神的技术和算法,我只是了解哪些是什么东西。双目的算法也就是多了层算法,就是图形融合了一下而已。
具体双目的原理参考人眼看物就好了。当然各种细节在算法的运用中确实还是影响识别速度和精度的,但绝对可以解决。无非会者不难,难者不会。

好了废话少说,单目的识别车道线算法大致分为如下几个步骤。
step1
获取源图像,通过摄像头获取源图像信息,然后数字化,就是一个AD的过程,摄像头还有很多东西可以介绍以后开个课题专门介绍。
step2
灰度变换,彩色的图像比较难处理,就弄成现在的黑白色,灰度也有色阶。
step3
高斯滤波,这个就是把一些外接的自然噪声给去掉。
step4
边缘检测,这个是一个关键的算法,就是通过什么算法能够初步获取到我们感兴趣的事物,比如人脸、车、车道线等有对应的边缘,这样就能够去把我们想要的物体初步给筛选一下,去掉了图片中大部分无用的数据。
step5
感性区域滤波,根据我们感兴趣的区域进行针对性筛选,选出相对可能的直线,那就可能是车道线。如果是人的话可以采取相对比例矩形,如果是车的话可以采取另外一种比例的矩形。这里只是抛砖以玉,具体的解决办法有很多种,但需要根据系统的资源来实践出来最好的解决办法。实践出真知,(时间)实践是检测可行性的唯一标准。
step6
霍夫变换,将图像中的直线分离出来。当然也可以是人脸、车辆等。
step7
车道推测,根据分离出来的直线进行推测,这一个也是很重要的一步,决定了这个是不是车道线。具体的推测算法还真心需要好好设计。
step8
图像叠加。将推测出来的车道线和原图进行叠加,这样就完成了,视觉的扩展了。


超声波达相当于听觉,激光雷达相当于触觉。
因为超声波的传输距离比较近,而且技术相对比较成熟,不进行深度介绍了,小白自查。

超声波的原理比较简单根据蝙蝠的原理解释。小白自查。
激光雷达我介绍一下。有固态和非固态之分,不管怎样都是通过发射接收激光的时间算出来物体到雷达的距离。就是TOFTime of flight。由于激光的速度一定,所以就能计算出来时间。
唉,还是简单说一下怎么得到距离的吧。那个距离=∑v1δt1,原则上应该是变动的速度和变动的时间的一个积分,但是由于时间非常短,默认为速度不变,Distance= Vtof * ΔTOF
激光转一周,周围的各种点点距离就有了吧,呈现道图像层面就是好多个凹凸的点,被砖家叫兽叫做点云
激光顾名思义就是通过激光来进行全周扫描得到对应的深度,这就是通常说的点云。激光的原理我就不介绍,小白自查。
二维点云+图形处理就可以得到对应的物体。具体的算法根据车道线算法原理自行理解。未见过点云,小白自查。


如有不对,请各位高手指出,改正我的想法。非常感谢!

好了今天就介绍道这里吧,以后争取每周写一篇感受。
也许要有很多人有不同的步骤和算法,这里就是基础的介绍一下。
希望高手能够share一下新的方法和知识,让我们小白都开开眼,看看高人的思路。
在此谢过!

你可能感兴趣的:(智能驾驶)