本文主要带领大家使用yolov7对口罩目标检测数据集进行实践,主要就是希望通过本教程可以让各位使用yolov7对自己的数据集进行训练,测试,预测。代码数据集训练模型链接在最后!
对于源码各位看官可以直接下载本链接的代码,本链接代码包含了一些便捷工具,比如voc格式转yolo,分割数据集等等,本链接的代码会随着官网的更新而更新,所以不用害怕代码版本旧的问题啦!
这里我准备了一个口罩目标检测数据集,如果各位目前没有数据集的可以下载一下这个数据集作为本博客的实践数据集案例。
环境配置可以参考本博主的另外一篇文章基于pytorch的花朵分类,安装过程出现有什么问题,可以私信博主或者留言,博主看到会尽力帮助大家解决问题。
总所周知,yolo系列的大部分源码都是需要使用yolo格式的标注文件,那么网上大部分数据集都是voc格式,那么这里就需要做一个格式的转换,我们下面分两种情况:
如果你的数据集格式是VOC格式的话,一般就会有图片和xml后缀的文件,这个xml后缀的文件就是你的数据集的标签文件,在代码中,我们的dataset文件夹就是数据集的存储的位置,其中图片存放在dataset/VOCdevkit/JPEGImages文件夹中,标签文件需要存放在dataset/VOCdevkit/Annotations文件夹中,dataset/VOCdevkit/txt文件夹是存储转换后的yolo格式标签文件.。(这个文件创不创建都可以,转换的时候会自动检测,不存在的话会自动创建)
当然自己也可以修改imgpath(存放图像的路径),xmlpath(存在voc标注格式的路径),txtpath(存放转换的yolo格式的路径),不过博主建议一般就不要修改,因为有些看主的动手能力相对差一点,修改后有报错可能不会处理,建议还是按照博主路径和示例来是最稳妥的。
对应的数据放置好后,我们需要运行xml2txt.py,其中这个文件有一个postfix参数,其为你图像的后缀格式,默认为jpg,如果你的图像是bmp或者png可以修改这个参数,当然其不支持混合的后缀格式,其会导致输出文件找不到的错误信息,这个请大家注意!这个文件会把Annotations文件夹中的xml文件读取到内存,然后进行转换成yolo格式并保存到dataset/VOCdevkit/txt文件夹中,其中运行截图如下图所示:
每个文件的转换都会单独有一行的输出,如果某个文件转换有问题或者你的标注文件里面有其他格式的文件存在都会提示对应的信息,比如如果某个文件转换失败的话,会提示报错信息,但是不会终止程序,只是这个文件就不转换了,最后会有一个this file convert failure下方有一个列表,如果这个列表为空,就是证明全部转换成功,如果不为空,列表里面的文件路径就是转换出错的标注文件,这种你可以看一下报错信息,如果奇奇怪怪的基本就不用理了,但是需要注意的一点是如果全部都转换出错了,那很有可能就是你存放的位置不对等等,这些需要根据报错信息检查。第二个列表是你这个数据集中的类别信息,这个类别信息是有用的,我们需要手动复制到data/data.yaml文件的names里面,如下图所示:
其中蓝色框是固定的路径(如果你按照本教程操作),黄色框是根据你数据集的类别进行修改,比如当前数据集是三个类别,我们就设置为3,红色款就是我们这个xml2txt.py输出的信息,那么类别的名字是可以改的,假设我们第三个类别代表的意思是不正确佩戴口罩,那么我们修改为mask_incorrect都是可以的,不过建议不要包含中文。
如果你自己的数据集是YOLO格式的话,那么你就直接把全部图片放到dataset/VOCdevkit/VOC2007/JPEGImages文件夹中,标签文件txt放到dataset/VOCdevkit/VOC2007/txt中,然后需要自行修改一下data/data.yaml中的类别数和类别名字,对于YOLO格式的数据集,一般会单独有一个classes.txt来记录类别信息。
无论对于VOC格式数据集还是YOLO格式数据集,按照上述步骤处理好后运行split_data.py,这个文件也有一个postfix参数,默认为jpg,如果自己的数据集不是jpg后缀的话,请自行修改,当然不支持混合后缀格式,请大家注意!split_data.py中还有val_size,test_size参数,其为比例系数,默认为0.1,0.2,如有需要请自行修改。运行成功后,其会自动创建下图这些文件夹,然后把对应的图片和标签文件复制到对应的文件夹中。
当你完成这一步的时候,数据集就处理完成。
对于训练,我们分为两个来说,因为yolov7是有两个训练的文件,一个是train.py,一个是train_aux.py。其中如果你是下载本文章的代码,那么预训练权重是已经下载好到项目中的weights文件夹,那么下面开始训练的教程:
我们先解释一下重点的参数的意思:
对于大部分项目,我们只需要关注weights,cfg,epochs,batch-size,img-size这几个参数即可,其中weights与cfg需要相匹配,就是你选择yolov7-tiny的配置文件,你就要选择yolov7-tiny的权重,如下图所示:
那么我们就可以开始训练,其中我们这里就使用yolov7-tiny进行演示,如果需要训练其他模型,请自行更改–weights和–cfg参数的路径即可,有一个点注意的就是目前的这个train.py只支持训练yolov7-tiny,yolov7,yolov7x这三个模型:
其他的模型是要在另外一个训练脚本train_aux.py中训练,我们下边会进行演示,我们的参数设置如下:
然后运行train.py文件即可,接下来就是漫长的训练时间,当训练结束后,我们可以在控制台看到以下信息:
其中最后会输出训练时间,精度指标,保存的模型路径和大小。
首先这个脚本文件所训练的模型都是比较大的,一般没有服务器的话可能就训练不起来,这个操作上跟train.py一模一样,只是cfg和weights只支持下面的这些模型:
因为这个train_aux.py只支持训练带有p6检测层的模型,然后我们的训练参数设置如下:
主要就是修改了weights和cfg参数,因为带有p6检测层的模型都比较大,因此这里epochs只设置为50做个演示,然后我们就可以运行train_aux.py,等待训练完成即可。
hyp参数是超参数的配置文件路径,对于新手来说,一般默认即可,就是不需要修改你基本都可以得到一个比较好的结果,对于想调参的看官,可以自行打开对应的文件进行修改,配置文件中每个参数官方都给出比较详细的解释。
第三步我们主要分别介绍了train.py和train_aux.py两个训练脚本的一些重要参数和如何使用,第四步我们主要介绍如何使用训练好的模型对我们的测试集进行计算指标。我们计算指标的脚本是test.py,下面对一些重点的参数进行讲解:
第五步就是预测脚本detect.py的教程,其大部分参数跟test.py类似,我们先解释一下重点的参数:
我们的参数设置如下:
那么我们跟使用test.py一致,也是用best.pt进行检测,source我们设置为测试集的图片路径。运行完成后,你可以在runs/detect文件夹中找到对应保存的图像数据。
后续还会更新实用性比较高的基于yolov7的口罩检测项目(带pyqt界面,训练数据集更加大,检测效果更加好),可以用作课程项目或者毕业设计等等,请各位多多关注。
代码数据集模型链接