1.使用opencv打开摄像头
import cv2 as cv
def video_demo():
#0是代表摄像头编号,只有一个的话默认为0
capture=cv.VideoCapture(0)
if not cap.isOpened():
print("Cannot open camera")
exit()
while(True):
ref,frame=capture.read()
cv.imshow("1",frame)
#等待30ms显示图像,若过程中按“Esc”退出
c= cv.waitKey(30) & 0xff
if c==27:
capture.release()
break
video_demo()
cv.destroyAllWindows()
cv.VideoCapture(0):读取视频,当输入为0时默认打开的是电脑摄像头,也可以如输入视频文件的路径。
capture.read(): 返回两个值ref和frame,前者为True或False表示有没有读取到图片,后者参数表示截取到的每一张图片。
cv.inshow('name', frame):显示图片,没有返回值,第一个参数为窗口的名称,第二个参数为要显示的图片。
cv.waitKey(30) & 0xff: cv.waitKey(delay)函数如果delay为0就没有返回值,如果delay大于0,如果有按键就返回按键值,如果没有按键就在delay秒后返回-1,0xff的ASCII码为1111 1111,任何数与它&操作都等于它本身。Esc按键的ASCII码为27,所以当c==27时,摄像头释放。更多关于函数的解释可以参考博客。(我有点没明白的是,如果没有按键返回-1与0xff进行&运算会是什么结果,我试了一下在30s前后按Esc都没有区别,30s后摄像头也不会自动释放,所以不太明白这个delay30s的用意是在哪里。)
cv.destroyAllWindows(): 清除所有方框界面
2.基于opencv搭建yolov3模型进行目标检测
opencv的cv2.dnn模块已经搭建好了yolov3模型,我们只需调用其模型就可以,这里参考了一篇博客的代码,我在这里只做了简单的注释,yolov3的模型与参数也可以去原博客下载。在这里不做赘述。
import numpy as np
import cv2
import os
import time
def video_demo():
# 加载已经训练好的模型路径,可以是绝对路径或者相对路径
weightsPath = "YOLOv3/yolov3.weights"
configPath = "YOLOv3/yolov3.cfg"
labelsPath = "YOLOv3/coco.names"
# 初始化一些参数
LABELS = open(labelsPath).read().strip().split("\n") # 物体类别
COLORS = np.random.randint(0, 255, size=(len(LABELS), 3), dtype="uint8") # 颜色
boxes = []
confidences = []
classIDs = []
net = cv2.dnn.readNetFromDarknet(configPath, weightsPath)
# 读入待检测的图像
# 0是代表摄像头编号,只有一个的话默认为0
capture = cv2.VideoCapture(0)
while (True):
ref, image = capture.read()
(H, W) = image.shape[:2] # 读取图像的长和宽
# 得到 YOLO需要的输出层
ln = net.getLayerNames()
ln = [ln[i[0] - 1] for i in net.getUnconnectedOutLayers()]
# 从输入图像构造一个blob,然后通过加载的模型,给我们提供边界框和相关概率
blob = cv2.dnn.blobFromImage(image, 1 / 255.0, (416, 416), swapRB=True, crop=False)
net.setInput(blob)
layerOutputs = net.forward(ln)
# 在每层输出上循环
for output in layerOutputs:
# 对每个检测进行循环
for detection in output:
scores = detection[5:]
classID = np.argmax(scores)
confidence = scores[classID]
# 过滤掉那些置信度较小的检测结果
if confidence > 0.5:
# 框后接框的宽度和高度
box = detection[0:4] * np.array([W, H, W, H])
(centerX, centerY, width, height) = box.astype("int")
# 边框的左上角
x = int(centerX - (width / 2))
y = int(centerY - (height / 2))
# 更新检测出来的框
boxes.append([x, y, int(width), int(height)])
confidences.append(float(confidence))
classIDs.append(classID)
# 极大值抑制
idxs = cv2.dnn.NMSBoxes(boxes, confidences, 0.2, 0.3)
if len(idxs) > 0:
for i in idxs.flatten():
(x, y) = (boxes[i][0], boxes[i][1])
(w, h) = (boxes[i][2], boxes[i][3])
# 在原图上绘制边框和类别
color = [int(c) for c in COLORS[classIDs[i]]]
cv2.rectangle(image, (x, y), (x + w, y + h), color, 2)
text = "{}: {:.4f}".format(LABELS[classIDs[i]], confidences[i])
cv2.putText(image, text, (x, y - 5), cv2.FONT_HERSHEY_SIMPLEX, 0.5, color, 2)
cv2.imshow("Image", image)
#等待30ms显示图像,若过程中按“ESC”退出
c = cv2.waitKey(30) & 0xff
if c == 27:
capture.release()
break
video_demo()