YOLOv4的标注与训练(小白100%上手)附代码

YOLOv4的标注与训练(小白100%上手)附代码

    • by --Cookie
  • 第一步:创建标注数据
  • 第二步:生成放置数据集的文件夹
    • (标注文件为xml格式时,需要先将xml格式转换为TXT格式)
  • 第二步:生成放置数据集的文件夹
    • (标注文件就为TXT格式时)
  • 第三步:在VOCdevkit的同级目录创造voc.data与voc.names
  • 第四步:修改cfg文件
  • 第五步:训练数据
    • 继续训练
    • 停止训练
    • 提高目标检测准确率
  • 第六步:测试模型
  • 结语

by --Cookie

配置环境及验证是否成功详情见:链接
YOLOv4项目代码,yolov4.weights,yolov4.conv.137,yolov4.cfg打包下载地址(发现放超链接会被人篡改成csdn付费资源来获取积分)https://pan.baidu.com/s/1gksPuEfNYKIJMq0cUqFY_A)
提取码:56zp

第一步:创建标注数据

详情见详细介绍如何使用标注软件labelImg(新人100%上手)

第二步:生成放置数据集的文件夹

(标注文件为xml格式时,需要先将xml格式转换为TXT格式)

  • 首先手动创建文件夹VOC/VOCdevkit
  • 然后在文件夹添加代码取名mkfolder.py
    需要修改的地方为倒数第二行的path,改为自己的地址
import os
import time

def mkFolder(path):
    year = str(time.localtime()[0])
    floderName = 'VOC' + year#生成主文件夹的名称,比如今年是2021,则主文件夹的名称为VOC2021
    # path = os.path.normpath(path)
    floderPath = os.path.join(path, floderName)
    if not os.path.exists(floderPath):
        os.makedirs(floderPath)
    print(floderPath)
    subfloderName = ['Annotations', 'ImageSets', 'JPEGImages', 'labels', 'TESTImages']#生成的子文件夹名称
    for name in subfloderName:
        subfloderPath = os.path.join(path, floderName, name)
        print(subfloderPath)
        if not os.path.exists(subfloderPath):
            os.makedirs(subfloderPath)
        if name == 'ImageSets':
            secSubFolderName = 'Main'
            secSubFolderPath = os.path.join(path, floderName, name, secSubFolderName)
            print(secSubFolderPath)
            if not os.path.exists(secSubFolderPath):
                os.makedirs(secSubFolderPath)


if __name__ == '__main__':
    path = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\VOCdevkit'  #更换为自己的文件夹路径
    mkFolder(path)
  • 生成文件夹的结构
VOC
-VOCdevkit 
——VOC2021        
————---Annotations  #放入所有的xml文件
————---ImageSets    
——————-----Main       #放入train.txt,val.txt空文件
			--train.txt
			--val.txt
————---JPEGImages   #放入所有的训练图片文件
————---labels   #此时为空
————---TESTImages   #放入所有的测试图片文件

#Main中的文件分别表示test.txt是测试集,train.txt是训练集,val.txt是验证集

注意需要在Main文件夹中手动创建两个文件train.txt,val.txt

  • 在VOCdevkit 添加代码文件train&val.py。运行后自动划分图片为训练集和测试集写入之前手动创建的空train.txt,val.txt文件
    修改6到8行为自己的地址
import os
from os import listdir, getcwd
from os.path import join

if __name__ == '__main__':
    source_folder = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\JPEGImages'#图片源目录
    dest = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\ImageSets\Main\train.txt'  # train.txt文件路径
    dest2 = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\ImageSets\Main\val.txt'  # val.txt文件路径
    file_list = os.listdir(source_folder)
    train_file = open(dest, 'a')
    val_file = open(dest2, 'a')
    file_num = 0
    for file_obj in file_list:
        file_path = os.path.join(source_folder, file_obj)
        file_name, file_extend = os.path.splitext(file_obj)
        file_num = file_num + 1


        if (file_num % 4 == 0):  # 每隔4张选取一张验证集
        						#可自由选择训练集与测试集比例如果想设为9:1则把4改成9
            val_file.write(file_name + '\n')
        else:
            train_file.write(file_name + '\n')


        # val_file.write(file_name + '\n')
        #
        # train_file.write(file_name + '\n')
train_file.close()
val_file.close()



  • 创建voc_label.py与VOCdevkit同级
  • 修改Line 7和10行
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join

sets=[('2020', 'train'), ('2020', 'val')] ##这里要与Main中的txt文件一致

#classes = ["bubble", "adhension","outer","inner"]
classes = ["bubble"]  #  #你所标注的类别名

def convert(size, box):
    dw = 1./(size[0])
    dh = 1./(size[1])
    x = (box[0] + box[1])/2.0 - 1
    y = (box[2] + box[3])/2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x*dw
    w = w*dw
    y = y*dh
    h = h*dh
    return (x,y,w,h)

def convert_annotation(year, image_id):
    in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id), encoding="utf8")

    out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w', encoding="utf8")

    tree=ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult)==1:
            continue
        cls_id = classes.index(cls)
        xmlbox = obj.find('bndbox')
        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
        bb = convert((w,h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

wd = getcwd()

for year, image_set in sets:
    if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):
        os.makedirs('VOCdevkit/VOC%s/labels/'%(year))
    image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip('\n').split('\n')
    list_file = open('%s_%s.txt'%(year, image_set), 'w')
    for image_id in image_ids:
        list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))
        convert_annotation(year, image_id)
    list_file.close()

#os.system("cat  2020_train.txt 2020_val.txt  > train.txt")




这个代码将在VOCdevkit同级目录里创建2021_train.txt与2021_val.txt并存放训练集与测试集的图片地址。同时将xml标注文件转换为txt形式存放在VOC\VOCdevkit\VOC2021\labels中

第二步:生成放置数据集的文件夹

(标注文件就为TXT格式时)

同样创建好相应文件夹后,把txt标注文件放入VOC\VOCdevkit\VOC2021\labels中,然后直接用下列代码划分为装训练集与测试集图片名称的TXT文件即可
修改6~8行

import os
from os import listdir, getcwd
from os.path import join

if __name__ == '__main__':
    source_folder = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\VOCdevkit\VOC2021\JPEGImages'
    dest = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\train(txt).txt'  # train.txt文件路径
    dest2 = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\val(txt).txt'  # val.txt文件路径
    file_list = os.listdir(source_folder)
    train_file = open(dest, 'a')
    val_file = open(dest2, 'a')
    file_num = 0
    for file_obj in file_list:
        file_path = os.path.join(source_folder, file_obj)
        file_name, file_extend = os.path.splitext(file_obj)
        file_num = file_num + 1


        if (file_num % 4 == 0):  # 每隔4张选取一张验证集
            val_file.write(file_name +".jpg"+ '\n')
        else:
            train_file.write(file_name+".jpg"+ '\n')


        # val_file.write(file_name + '\n')
        #
        # train_file.write(file_name + '\n')
train_file.close()
val_file.close()



第三步:在VOCdevkit的同级目录创造voc.data与voc.names

全部按照自己文件夹的位置修改

#voc.data
classes= 35#识别的种类个数
train = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/VOCdevkit/VOC2019/ImageSets/Main/train.txt#放存放训练集的图片名称的txt文件路径
valid = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/VOCdevkit/VOC2019/ImageSets/Main/test.txt#放存放测试集的图片名称的txt文件路径
names = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/voc.names#放voc.names的地址
backup = /home/cookie/Desktop/item/darknet-master0/darknet-master/backup#存放生成权重的地址

voc.names存放识别的种类的名称

plate
0
1
2
3
4
5
6
7
8
9
A
B
C
D
E
F
G
H
J
K
L
M
N
P
Q
R
S
T
U
V
W
X
Y
Z

第四步:修改cfg文件

把相关cfg文件放入VOCdevkit的同级目录


把第三行batch改为batch=64

把subdivisions那一行改为 subdivisions=16

将max_batch更改为(数据集标签种类数(classes)*2000 但不小于训练的图片数量以及不小于6000)

将第20的steps改为max_batch的0.8倍和0.9倍

把位于8-9行设为width=416 height=416 或者其他32的倍数:

将classes=80 改为你的类别数 (有三个地方,969行,1056行,1143行)

改正[filters=255] 为 filters=(classes + 5)x3 (位置为查找yolo,每个yolo前的[convolutional]里,注意只修改最接近yolo的那个filters需要修改,一共应该有三处)

如果使用 [Gaussian_yolo],修改 filters=(classes + 9)x3 (位置为CRRL+F查找Gaussian_yolo,每个Gaussian_yolo前的[convolutional]里,注意只修改最接近Gaussian_yolo的那个filters需要修改,一共应该有三处)


第五步:训练数据

下载预训练权重yolov4.conv.137放入VOCdevkit的同级目录,没有预训练权重的话会随机初始化权重
在目录终端输入

darknet.exe detector train data/VOC.data yolov-obj.cfg yolov4.conv.137 -map
#其中.data文件与.cfg文件上述代码中的位置代码要视情况进行改变

mAP(均值平均精度) = 所有类别的平均精度求和除以所有类别

每4个Epochs计算一次map

训练生成的权重文件在目录下:

last_weights 每迭代100次保存一次
xxxx_weights 每迭代1000次保存一席

继续训练

详情参考yolov3用训练过的weights文件继续训练数据
每迭代100步可以手动停止,下次训练加载此次的权重文件便可以接着训练。
eg:从2000步停止训练后,可以使用如下命令继续训练

darknet.exe detector train data/obj.data yolo-obj.cfg backup\yolo-obj_2000.weights

停止训练

训练过程中如果 avg出现nan,训练可能出错,需要停止

如果nan出现在其他行,训练正常

如果迭代很多次后avg补再下降,需要停止

avg越低越好—,也要防止过拟合

对小的模型、简单的数据集,avg一般为0.05

对大的模型、复杂的数据集,avg一般为3

提高目标检测准确率

  1. 为了在一张图像上检测大量的目标:修改cfg文件,在最后一个[yolo]层增加max=200或者更大的值
  2. 为了检测更小的目标(自己的图像缩放到416X416目标尺寸小于16X16):
895行 layers = 23. 
892行 stride=4
989行 stride=4

  1. 如果你的数据左右对象作为不同的类,比如:左右手、向左转、向右转路标

  2. 在数据增强部分 17行增加flip=0

  3. 如果小目标和巨大的目标一起训练,需要修改模型

  4. 为了使定位框更准确,在每个[yolo]层增加ignore_thresh = .9 iou_normalizer=0.5 iou_loss=giou——这会提高[email protected], 但是会降低[email protected].

  5. 如果你很精通,可以重新计算自己数据集的anchor

第六步:测试模型

在终端输入

./darknet detector test data/voc.data data/yolov4.cfg backup/yolov4_last.weights data/kh/BAG2971.jpg

如果出现couldnt find XXX时把地址改成全地址即可

结语

最后说明一下,再详细的教程应用到每个电脑上会碰到的问题都是不同的,这个时候就需要通过自己的实际情况解决问题,不能全部生搬硬套哦!

你可能感兴趣的:(算法,深度学习,python,计算机视觉,神经网络,机器学习)