自动驾驶零基础1-车道检测_图片到视频

死马当成特斯拉

开个新坑,一起学习下自动驾驶会用到的计算机视觉处理。一点一点的知识点太零碎也不系统,太多了我自己也记不住。咱们还是project-oriented,遇到大的问题就开个副本刷一下。


工具

我们之前用到的Jupyter notebook, Anaconda, numpy当然还是要用的,除此之外需要个文本编译器,我们需要整理一下我们的code和文件。Atom,sublime什么都行,随意。
pyhton自带的图片处理工具不够强大,现在用的比较多的像是OpenCV,安装先

conda install -c conda-forge opencv

为什么用OpenCV?

  1. 开源
  2. 丰富的库
  3. 强大的图像视频处理能力
  4. 支持各种系统
  5. 友好的python接口

怎么学习OpenCV?
除了搜一下各种教学,最终要最准确最常用的当然是官方文档
https://opencv.org/


脏手

1. 加载图片
新建一个文件夹,在里面放一张路的照片和一个空的.py文件,load/show:

# load image
import cv2
image = cv2.imread('test_image.jpg')

# display image
cv2.imshow('result', gray_lane_image)
cv2.waitKey(0)

然后在terminal里面运行py文件,cv的UI就会显示图片了

2. 灰化(Grayscale Conversion)
为什么要灰化?自然不是因为要挥发。是因为彩色的图片是三通道,其实是三张图片的重合,而灰色只有一个channel,计算方便。根据它的梯度(gradient)是否剧烈辩化判断是不是边界。转换成黑白图后,就是每个像素的值为0-255之间。

# grayscale conversion
lane_image = np.copy(image)
gray_lane_image = cv2.cvtColor(lane_image, cv2.COLOR_RGB2GRAY)

3. 降噪
我们之前也介绍过,简单的用个高斯模糊(Gaussian Blur)

 kernel = 5
 blur_image = cv2.GaussianBlur(gray,(kernel, kernel),0)

4. 边界检测(Edge Detection)
做边界检测的目的很简单,我们要判断一个东西是什么,首先得把他从背景中剥离出来,这就需要我们先检测出一个物体的边界在哪里。比如女神:

图像之神.png

假如说我们在一个图片里发现某一点在垂直方向上没什么变化,但是在水平方向上变化巨大,那我们就可以断定这个点在水平方向上处于一个边界出,那我们就把这两个巨大差异的点之间的区域变白,两边的都变黑,那最后我们的图片就只有边界是白色,其他都是黑色了。

opencv里有一个专门做edge detection的方法canny,他会让你规定一个最低值和最高值,用来作为区分“巨大变化”的阈值。我们设定50-150,当然可以根据实际要求调整

canny = cv2.Canny(gray, 50, 150)
我的测试

5. 目标区域剥离
使用matpotlib来显示坐标,然后选定目标区域

import matplotlib.pyplot as plt
...
plt.imshow(canny)
plt.show()
image.png

以当前行驶路线为例, 选中目标三角区域, 其他地方的边界我们就可以直接忽略。

mask = np.zeros_like(canny)
triangle = np.array([[
    (200, height),
    (550, 250),
    (1100, height),]], np.int32)
cv2.fillPoly(mask, triangle, 255)

然后我们使用bitwise_and将mask与原图整合

masked_image = cv2.bitwise_and(canny, mask)

image.png

6. 霍夫变换(Hough Transform)
下一步我们需要找到这些边界里面的直线在哪,以此确认他就是车道。这里我们用到霍夫变换,它被用来检测图像中的直线或曲线。简单来说,我们有两个点, 他们分别处在两条直线上

# (x1, y1)和(x2, y2)
y1 = k1 * x1 + b1
y2 = k2 * x2 + b2

我们现在需要求参数k,b,使得他们两个点实际在一条线上,所以我们把参数当作变量,就变成了霍夫坐标系,两条直线的交点处的k,b就是使得两点处于同一直线的参数。
当然更底层一些,我们也可以筛选出看似一条线的所有点做回归。霍夫变换有这很好的封装,我们可以直接调用cv2.HoughLinesP

image.png

整合到原图上的效果:
image.png

6. 优化
我们根据slope做一个平均化的优化:
image.png

7. 视频中的车道检测
这里我们要用到opencv的VideoCapture函数,实际上就是把视频分成一帧一帧的图片,对每张图片进行处理后再整合成视频

cap = cv2.VideoCapture("test.mp4")
while(cap.isOpened()):
    _, frame = cap.read()
    #对每一张图片进行处理
   ...
cap.release()
cv2.destroyAllWindows()

基本上第一步就是这样了,我会找时间把完整的代码整理出来,给每一篇文章准备一份方便大家测试和改进。

你可能感兴趣的:(自动驾驶零基础1-车道检测_图片到视频)