本文对YOLOv5模型的detect.py文件内容进行了详细阐述,笔者以后会定期讲解关于模型的其他的模块与相关技术,笔者也建立了一个关于目标检测的交流群:781334731,大家也可扫描底部图片加入,欢迎大家踊跃加入,一起学习鸭!
源码地址:https://github.com/ultralytics/yolov5
打开网址后,点击master可选取不同版本的分支,本文对Yolov5最新版本v6.1解析
在配置Conda环境后就可以进入项目了,可以通过作者提供的requirements.txt文件进行快速安装
即在终端中键入如下指令:pip install -r requirements.txt
如上是官方给出的代码运行方式,我们可利用Yolov5模型预测图像、视频、摄像头、网站视频、RTSP流文件等,模型会自动下载权重文件(yolov5s.pt、yolov5m.pt、yolov5l.pt等),预测后的结果会自动保存到runs/detect/exp目录下,下次运行结果会保存在runs/detect/exp1目录下,依次类推;下图给出yolov5模型的权重和尺寸,更具体信息请参考:https://github.com/ultralytics/yolov5/releases
首先我们可以利用PyTorch Hub工具加载Yolov5模型(如果没下载,会自动下载模型权重到根目录下),之后加载需要检测的图片,最后利用封装好的模型推理检测结果,下图给出具体的实现步骤。
我们可以直接运行detect.py文件试试效果,运行后系统会把检测结果保存在runs\detect\exp3路径下(之前自己跑过试试)
下图就是检测结果:
之前博客已完成对detect.py文件的参数详细介绍,本篇博客对detect.py的关键代码逻辑阐述。
运行detect.py首先会解析参数,其次利用得到的参数运行main函数(检测环境并将解析得到的参数传入run函数中),接下来让我们康康run函数(其实就是输入之前解析的参数),接下来我们来具体康康下面的代码逻辑
首先第一部分是初始化模型配置信息,依据传入的解析参数确定图片路径、是否保存图像、保存目录等信息,具体细节请看下面贴出的代码碎片
第二部分是载入模型和参数,具体包括当前设备、导入的模型、步长、图像尺寸等信息
第三部分是从流数据或者图像数据加载推理图像,后续会具体分析LoadStreams和LoadImages类
(1)第五部分首先是先处理每张图像和视频
(2)其次是对每张图片/视频进行前向推理
(3)接着使用NMS去除冗余的检测框框
(4)最后保存和打印预测模型预测信息(这部分不是重点)
detect.py文件大体包括如下的几部分:
本文对YOLOv5模型的detect.py文件的参数进行了详细阐述,笔者以后会定期讲解关于模型的其他的模块与相关技术,笔者也建立了一个关于目标检测的交流群:781334731,大家也可扫描下面这张图片加入,欢迎大家踊跃加入,一起学习鸭!