能够识别所捕获视频内车辆的位置并且计算通过车辆的数量,实现功能与内容包括:窗口的展示,图像/视频的加载;基本图形的绘制;车辆的识别。车辆的识别包括基本图像运算和处理,形态学基础,轮廓的查找,文字显示等其次考虑需要的功能:加载车辆视频;通过形态学识别车辆;对车辆进行统计;显示车辆统计信息。
import cv2
import numpy as np
#捕获视频,可以通过设备或者文件,此处通过读取文件
cap = cv2.VideoCapture('F:\\tupian\\video.mp4')
#将视频分解为一帧一帧的图像进行操作
while True:
#读取cap视频,返回读取是否成功ret,视频帧frame
ret, frame = cap.read()
if(ret == True):
cv2.imshow('video', frame)
key = cv2.waitKey(30)
if(key == 27):#此处的27表示键盘的Esc键
break
#是否视频和窗口资源
cap.release()
cv2.destroyAllWindows()
去除背景有对应的API,这里是其中一种
原理:对于视频来说在时间轴上某一像素不发生变化被认定为背景;
一般使用此函数时,参数都不用设置,直接用默认值,其中history调整比较多,表示缓存,是比较动静的范围;
这里由于学习的视频教的API是dgsgem模块里的,但是我用的是opencv4.7,查询发OpenCV 4.7版本中已经删除了cv2.bgsegm模块。因此,cv2.bgsegm.createBackgroundSubtractorMOG函数在OpenCV 4.7中不可用。然而,在OpenCV 4.7中,您仍然可以使用其他背景子提取器,例如cv2.createBackgroundSubtractorMOG2和cv2.createBackgroundSubtractorKNN。这些函数基于不同的算法,并且可能会产生与cv2.bgsegm.createBackgroundSubtractorMOG不同的结果,因此您需要根据自己的需求选择合适的函数。
在OpenCV中,cv2.createBackgroundSubtractorMOG2是MOG2(高斯混合模型)背景减除算法的实现,而cv2.bgsegm.createBackgroundSubtractorMOG是基于自适应混合估计的背景减除算法。这两种算法都可以用来从视频序列中提取前景。然而cv2.createBackgroundSubtractorMOG2通常比cv2.bgsegm.createBackgroundSubtractorMOG更常用和更受欢迎,因为它具有以下优势:
总之,如果你需要从视频中提取前景并进行后续处理,那么cv2.createBackgroundSubtractorMOG2可能是更好的选择。但是,如果你处理的是特定类型的视频并且自适应性很重要,那么cv2.bgsegm.createBackgroundSubtractorMOG也可能是一个不错的选择。
经过对比发现cv2.createBackgroundSubtractorKNN比cv2.createBackgroundSubtractorMOG2效果更好。
import cv2
import numpy as np
#捕获视频,可以通过设备或者文件,此处通过读取文件
cap = cv2.VideoCapture('F:\\tupian\\video.mp4')
#背景去除
bgsubmog = cv2.createBackgroundSubtractorKNN()
#将视频分解为一帧一帧的图像进行操作
while True:
#读取cap视频,返回读取是否成功ret,视频帧frame
ret, frame = cap.read()
if(ret == True):
#去噪之前将原始图像frame进行灰度化
r= cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
#在去背景前,给frame高斯去噪
blur = cv2.GaussianBlur(r, (3,3), 5)
#对每个帧进行背景去除的操作应用
mask = bgsubmog.apply(blur)
cv2.imshow('video', mask)
key = cv2.waitKey(1)
if(key == 27):#此处的27表示键盘的Esc键
break
#是否视频和窗口资源
cap.release()
cv2.destroyAllWindows()
对轮廓进行获取,并且储存进carno中。
形态学处理后仍然存在一些小形态的物体被识别,我们可以通过限制宽高的逻辑来过滤这些物体;
进行参数的调整,查看车辆数量是否有出入,根据实际情况调整,然后显示具体数据。
import cv2
import numpy as np
min_w = 90
min_h = 90
#检测线的高度
line_high = 560
#线的偏移量
offset = 8
#统计车的数量
carno = 0
#存放有效车辆矩阵的数据
cars= []
def center(x,y,w,h):
x1 = int(w/2)
y1 = int(h/2)
cx = x + x1
cy = y + y1
return cx,cy
#捕获视频,可以通过设备或者文件,此处通过读取文件
cap = cv2.VideoCapture('F:\\tupian\\video.mp4')
#背景去除
bgsubmog = cv2.createBackgroundSubtractorKNN()
#形态学kernel
kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (5,5))
#将视频分解为一帧一帧的图像进行操作
while True:
#读取cap视频,返回读取是否成功ret,视频帧frame
ret, frame = cap.read()
if(ret == True):
#去噪之前将原始图像frame进行灰度化
r= cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
#在去背景前,给frame高斯去噪
blur = cv2.GaussianBlur(r, (3,3), 5)
#去除背景
mask = bgsubmog.apply(blur)
#腐蚀,去除小的斑块
erode = cv2.erode(mask, kernel)
#膨胀
dilate = cv2.dilate(erode, kernel, iterations=3)
#闭运算2次,去除物体内部小块
close1 = cv2.morphologyEx(dilate, cv2.MORPH_CLOSE, kernel)
close = cv2.morphologyEx(close1, cv2.MORPH_CLOSE, kernel)
#收集轮廓
cnts, h =cv2.findContours(close, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)
cv2.line(frame, (10,line_high), (1200,line_high), (255,0,0),3)
#enumerate是枚举函数,i是第几次循环,
#c是第几个cnts,总共循环len(cnts)次
for (i, c) in enumerate(cnts):
(x,y,w,h) = cv2.boundingRect(c)
#对车辆的宽高进行判断
#以验证是否有效车辆
isValid = (w >= min_w) and ( h >= min_h)
if( not isValid):
continue
#到这里都是有效的车
#画矩形
cv2.rectangle(frame, (x,y),(x+w,y+h), (0,0,255), 2)
cpoint = center(x,y,w,h)
cv2.circle(frame, (cpoint[0],cpoint[1]),1, (0,0,255), 2)
cars.append(cpoint)
for (x ,y) in cars:
#要有一条线;范围为offset;计数完毕后从数组中减去
if( (y > line_high - offset) and (y < line_high + offset) ):
carno += 1
cars.remove((x, y))
print(carno)
cv2.putText(frame, "Cars count:" + str(carno),(500,60),cv2.FONT_HERSHEY_SIMPLEX, 2, (255,0,255), 5 )
cv2.imshow('video', frame)
# cv2.imshow('test', close)
key = cv2.waitKey(27)
if(key == 27):#此处的27表示键盘的Esc键
break
#是否视频和窗口资源
cap.release()
cv2.destroyAllWindows()