死马当成特斯拉
开个新坑,一起学习下自动驾驶会用到的计算机视觉处理。一点一点的知识点太零碎也不系统,太多了我自己也记不住。咱们还是project-oriented,遇到大的问题就开个副本刷一下。
工具
我们之前用到的Jupyter notebook, Anaconda, numpy当然还是要用的,除此之外需要个文本编译器,我们需要整理一下我们的code和文件。Atom,sublime什么都行,随意。
pyhton自带的图片处理工具不够强大,现在用的比较多的像是OpenCV,安装先
conda install -c conda-forge opencv
为什么用OpenCV?
- 开源
- 丰富的库
- 强大的图像视频处理能力
- 支持各种系统
- 友好的python接口
怎么学习OpenCV?
除了搜一下各种教学,最终要最准确最常用的当然是官方文档
https://opencv.org/
脏手
1. 加载图片
新建一个文件夹,在里面放一张路的照片和一个空的.py文件,load/show:
# load image
import cv2
image = cv2.imread('test_image.jpg')
# display image
cv2.imshow('result', gray_lane_image)
cv2.waitKey(0)
然后在terminal里面运行py文件,cv的UI就会显示图片了
2. 灰化(Grayscale Conversion)
为什么要灰化?自然不是因为要挥发。是因为彩色的图片是三通道,其实是三张图片的重合,而灰色只有一个channel,计算方便。根据它的梯度(gradient)是否剧烈辩化判断是不是边界。转换成黑白图后,就是每个像素的值为0-255之间。
# grayscale conversion
lane_image = np.copy(image)
gray_lane_image = cv2.cvtColor(lane_image, cv2.COLOR_RGB2GRAY)
3. 降噪
我们之前也介绍过,简单的用个高斯模糊(Gaussian Blur)
kernel = 5
blur_image = cv2.GaussianBlur(gray,(kernel, kernel),0)
4. 边界检测(Edge Detection)
做边界检测的目的很简单,我们要判断一个东西是什么,首先得把他从背景中剥离出来,这就需要我们先检测出一个物体的边界在哪里。比如女神:
假如说我们在一个图片里发现某一点在垂直方向上没什么变化,但是在水平方向上变化巨大,那我们就可以断定这个点在水平方向上处于一个边界出,那我们就把这两个巨大差异的点之间的区域变白,两边的都变黑,那最后我们的图片就只有边界是白色,其他都是黑色了。
opencv里有一个专门做edge detection的方法canny,他会让你规定一个最低值和最高值,用来作为区分“巨大变化”的阈值。我们设定50-150,当然可以根据实际要求调整
canny = cv2.Canny(gray, 50, 150)
5. 目标区域剥离
使用matpotlib来显示坐标,然后选定目标区域
import matplotlib.pyplot as plt
...
plt.imshow(canny)
plt.show()
以当前行驶路线为例, 选中目标三角区域, 其他地方的边界我们就可以直接忽略。
mask = np.zeros_like(canny)
triangle = np.array([[
(200, height),
(550, 250),
(1100, height),]], np.int32)
cv2.fillPoly(mask, triangle, 255)
然后我们使用bitwise_and将mask与原图整合
masked_image = cv2.bitwise_and(canny, mask)
6. 霍夫变换(Hough Transform)
下一步我们需要找到这些边界里面的直线在哪,以此确认他就是车道。这里我们用到霍夫变换,它被用来检测图像中的直线或曲线。简单来说,我们有两个点, 他们分别处在两条直线上
# (x1, y1)和(x2, y2)
y1 = k1 * x1 + b1
y2 = k2 * x2 + b2
我们现在需要求参数k,b,使得他们两个点实际在一条线上,所以我们把参数当作变量,就变成了霍夫坐标系,两条直线的交点处的k,b就是使得两点处于同一直线的参数。
当然更底层一些,我们也可以筛选出看似一条线的所有点做回归。霍夫变换有这很好的封装,我们可以直接调用cv2.HoughLinesP
整合到原图上的效果:
6. 优化
我们根据slope做一个平均化的优化:
7. 视频中的车道检测
这里我们要用到opencv的VideoCapture函数,实际上就是把视频分成一帧一帧的图片,对每张图片进行处理后再整合成视频
cap = cv2.VideoCapture("test.mp4")
while(cap.isOpened()):
_, frame = cap.read()
#对每一张图片进行处理
...
cap.release()
cv2.destroyAllWindows()
基本上第一步就是这样了,我会找时间把完整的代码整理出来,给每一篇文章准备一份方便大家测试和改进。