当我们要对某一个目标进行操作时,那怎么去提取出我们感兴趣的目标对象呢?
这篇文章就会带你去实现这个功能jetson-inference
库中使用DetectNet
完成目标对象的定位的,是通过提取其边界框来查找各种对象在帧中的位置,在这里与图像分类不同,对象检测网络能够每帧检测出许多不同的对象。detectNet
对象接受图像作为输入,并输入检测到的边界框的坐标列表及其类别和置信度值。detectNet
可从python
和C++
中使用。我们可以下载各种预训练的模型进行实验,在这里我使用的是在MS COCO
数据集上训练的91级SSD-Mobilenet-v2
模型,该模型能在使用TensorRT
的jetson
上实现实时推理性能。 for detect in detections:
ID = detect.ClassID
top = int(detect.Top)
bottom = int(detect.Bottom)
left = int(detect.Left)
right = int(detect.Right)
name = net.GetClassDesc(ID)
cell phone
用rectangle
函数把他填充为绿色,并用putText
函数把我们识别出来的名字给标注在图像的左上角。下面给出完整代码。import jetson.inference #引入推理库
import jetson.utils #引入工具库
import cv2 #引入openCV
import numpy as np #引入数值运算库
from time import sleep
width = 1280
height = 720
net = jetson.inference.detectNet("ssd-mobilenet-v2", threshold = 0.5) #选择检测网络为‘ssd-mobilenet-v2’模型,阈值为0.5
camera = jetson.utils.gstCamera(width,height,'0') #选择0号摄像头工具
object_pixel_last = 1
while 1:
img, width, height = camera.CaptureRGBA(zeroCopy = 1)
detections = net.Detect(img, width, height)
image = jetson.utils.cudaToNumpy(img,width, height, 4)
image1 = cv2.cvtColor (image, cv2.COLOR_RGBA2BGR).astype (np.uint8)
for detect in detections:
ID = detect.ClassID
top = int(detect.Top)
bottom=int(detect.Bottom)
left=int(detect.Left)
right=int(detect.Right)
name = net.GetClassDesc(ID)
if name== 'cell phone':
cv2.rectangle(image1,(left,top),(right,bottom),(0,255,0),-1)
cv2.putText(image1,name, (left, top+20) , cv2.FONT_HERSHEY_SIMPLEX , 0.75 , (0, 0 , 255) , 1)
cv2.imshow ("目标检测",image1) #显示摄像头读取到的内容
kk = cv2.waitKey(1) #从键盘读取
if kk == ord('q'): # 按下 q键,退出
break #退出循环
❤️点赞 收藏 ⭐留言 都是博主坚持写作、更新高质量博文的最大动力哦!❤️