1.1 cv2.
VideoCapture
() 在OpenCV中,可以使用VideoCapture来读取视频文件,或是摄像头数据。
函数定义:Reading and Writing Images and Video — OpenCV 2.4.13.7 documentation
Python:
cv2.
VideoCapture
() →
Python:
cv2.
VideoCapture
(filename) →
Python:
cv2.
VideoCapture
(device) →
1.2 cv2.VideoCapture
.isOpened()判断文件打开是否成功,可以使用cv2.VideoCapture
.isOpened()这个函数。
函数定义:Reading and Writing Images and Video — OpenCV 2.4.13.7 documentation
Python:
cv2.VideoCapture.
isOpened
() → retval¶
返回值是True/False。如果视频文件打开成功,返回值为True。
在python中,我一般比较习惯用这样的方式进行操作:
先Open一个文件,然后通过cv2.VideoCapture
.read()的方式,读取每一帧数据。
cv2.VideoCapture
.read()提供了一个最简单的视频帧处理方式,集合了抓起Grab(),解码retrieve()两个功能,返回解码之后的数据。需要特别注意的是,如果获取到空帧,抓取失败或是文件结束,返回值会是一个空指针。
函数定义:Reading and Writing Images and Video — OpenCV 2.4.13.7 documentation
import cv2
video = cv2.VideoCapture("./1.mp4")
if video.isOpened():
# video.read() 一帧一帧地读取
# open 得到的是一个布尔值,就是 True 或者 False
# frame 得到当前这一帧的图像
open, frame = video.read()
else:
open = False
while open:
ret, frame = video.read()
# 如果读到的帧数不为空,那么就继续读取,如果为空,就退出
if frame is None:
break
if ret == True:
cv2.imshow("video",frame)
# 这里使用 waitKey 可以控制视频的播放速度,数值越小,播放速度越快
# 这里等于 27 也即是说按下 ESC 键即可退出该窗口
if cv2.waitKey(10) & 0xFF == 27:
break
video.release()
cv2.destroyAllWindows()
VideoCapture也是支持读取摄像头的。我这边是一个摄像头,可以提供rtsp码流,码流地址是:rtsp://192.168.0.200:554/av0_0
实现的示例代码如下:
import cv2
video = cv2.VideoCapture("rtsp://192.168.0.200:554/av0_0")
if video.isOpened():
# video.read() 一帧一帧地读取
# open 得到的是一个布尔值,就是 True 或者 False
# frame 得到当前这一帧的图像
open, frame = video.read()
else:
open = False
while open:
ret, frame = video.read()
# 如果读到的帧数不为空,那么就继续读取,如果为空,就退出
if frame is None:
break
if ret == True:
# 转换为灰度图
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
cv2.imshow("video",gray)
# 这里使用 waitKey 可以控制视频的播放速度,数值越小,播放速度越快
# 这里等于 27 也即是说按下 ESC 键即可退出该窗口
if cv2.waitKey(1) & 0xFF == 27:
break
video.release()
cv2.destroyAllWindows()
上面代码处理摄像头数据,现在转换为gray,然后显示。
在实际项目中,可能会发现现实出来的摄像头数据会有延时,主要有如下几种可能:
1)摄像头本身做了buffer,可以通过配置摄像头的缓存帧,降低延时;
2)视频播放软件有buffer,比如vlc,也是可以调整的;
3)网络带宽,实践中,多路摄像头(比如说16路)在100M网络环境和1000M网络环境表现明显不同。这里面的网络环境是指全链路:包括网线、集线器、路由器、显示终端(电脑)等;
4)AI处理时间过长。如果在实际项目中,是直接采用串行设计,来一帧分析一帧,而这帧数据每一办法在固定的时间内分析完成(比如40ms),这样就会造成摄像头数据延时。一般有两种解决办法:
a、做丢帧处理,这需要依据场景来决定;
b、做异步架构调整。一个线程用来读取数据,一个线程用了做AI分析;
5)显示终端处理不过来。比如我们有关项目的架构是采用WebSocket的方式,把数据传给QT(大屏展示)和WebUI(浏览器),结果浏览器的渲染速度没有办法跟上,导致显示数据堆积。
6)其他情况
以上一些情况,供大家参考处理。
【参考文献】
[1] 每周一课 | OpenCV :图像基本操作