使用yolov3训练佩戴口罩数据集

使用yolov3训练佩戴口罩数据集

将标签文件放在VOCdevkit文件夹下的VOC2007文件夹下的Annotation中。
将图片文件放在VOCdevkit文件夹下的VOC2007文件夹下的JPEGImages中

之后利用voc2yolo3.py文件生成对应的txt。

VOCdevkit
	-VOC2007
		├─ImageSets    # 存放数据集列表文件,由voc2yolo3.py文件生成
		├─Annotations  # 存放图片标签,xml 格式
		├─JPEGImages   # 存放数据集中图片文件
		└─voc2yolo3.py # 用来生成数据集列表文件

运行voc2yolo3.py之后会在ImageSets/Main生成如下txt文件

import os
import random 
 
xmlfilepath=r"./Annotations"
saveBasePath=r"./ImageSets/Main/"
 
trainval_percent=1
train_percent=0.9
total_xml = os.listdir(xmlfilepath)


num=len(total_xml)  
list=range(num)  
tv=int(num*trainval_percent)  
tr=int(tv*train_percent)




trainval= random.sample(list,tv)  
train=random.sample(trainval,tr)  
 
print("train and val size",tv)
print("traub suze",tr)
ftrainval = open(os.path.join(saveBasePath,'trainval.txt'), 'w')  
ftest = open(os.path.join(saveBasePath,'test.txt'), 'w')  
ftrain = open(os.path.join(saveBasePath,'train.txt'), 'w')  
fval = open(os.path.join(saveBasePath,'val.txt'), 'w')  
 
for i  in list:  
    name=total_xml[i][:-4]+'\n'  
    if i in trainval:  
        ftrainval.write(name)  
        if i in train:  
            ftrain.write(name)  
        else:  
            fval.write(name)  
    else:  
        ftest.write(name)  
  
ftrainval.close()  
ftrain.close()  
fval.close()  
ftest .close()

txt里面存放了图片的名称
使用yolov3训练佩戴口罩数据集_第1张图片
但是YoLov3处理的并不是这样的文件,所以我们还需要生成YOLOV3所需数据

再运行根目录voc_annotation.py,运行前需要将voc_annotation文件中classes改成你自己的classes。
使用yolov3训练佩戴口罩数据集_第2张图片

我们就会生成这样的一个文件,2007_train.txt,这里面 每一行对应其图片位置及其真实框的位置,
使用yolov3训练佩戴口罩数据集_第3张图片

接下来,我准备采取yolov3_tiny架构,当然你也可以用yolov3架构。主要是yolov3-tiny收敛快, 在训练前我们可根据自身需要修改model_data里面的yolo_anchors.txt和tiny_yolo_anchors.txt,中的先验框的值,这里我们利用kmeans.py来生成。
使用yolov3训练佩戴口罩数据集_第4张图片

k=9,生成yolo_anchors;k=6,生成tiny_yolo_anchors。
接着我们来到model_data里面的voc_classes.txt文件中需要将classes改成你自己的classes。

使用yolov3训练佩戴口罩数据集_第5张图片

然后来到train.py中,通过修改anchor_path,从而选择使用yolov3训练还是yolov3-tiny训练

使用yolov3训练佩戴口罩数据集_第6张图片
训练开始啦
使用yolov3训练佩戴口罩数据集_第7张图片

你可能感兴趣的:(口罩识别,python,目标检测,深度学习)