yolov5训练自己数据集(ultralytics版本)

0 准备工作

  • 环境配置,参考这里
  • 下载一个官方yolov5s.pt模型,放置在yolov5根目录下,下载链接这里或者这里
  • 准备数据集,格式如下所示,每个图片有其对应的xml格式标注文件。
yolov5
├── models
├── runs
├── utils
├── data
│   ├── project01
│   │   ├── images
│   │   │   ├── 1.jpg
│   │   │   ├── 2.jpg
│   │   │   ├── ...
│   │   ├── xml
│   │   │   ├── 1.xml
│   │   │   ├── 2.xml
│   │   │   ├── ...

1 划分数据集

修改代码中的 --xml_path 和data/project01/labels ,这里是’data/project01/xml’,如果是和我一样在yolov5的data目录下新建的文件夹,那么直接把project01替换为你的文件夹名称。随后运行代码即可

train_percent 为训练集比例,一般训练集:验证集 ,9:1或者8:2,这里使用的是9:1
注:这个split.py放置在yolov5根目录,和data文件夹同级。

# split.py
import os
import random
import argparse

parser = argparse.ArgumentParser()
parser.add_argument('--xml_path', default='data/project01/xml', type=str, help='input xml label path')
parser.add_argument('--txt_path', default='data/project01/labels', type=str, help='output txt label path')
opt = parser.parse_args()

trainval_percent = 1.0
train_percent = 0.9
xmlfilepath = opt.xml_path
txtsavepath = opt.txt_path
total_xml = os.listdir(xmlfilepath)
if not os.path.exists(txtsavepath):
    os.makedirs(txtsavepath)

num = len(total_xml)
list_index = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list_index, tv)
train = random.sample(trainval, tr)

file_trainval = open(txtsavepath + '/trainval.txt', 'w')
file_test = open(txtsavepath + '/test.txt', 'w')
file_train = open(txtsavepath + '/train.txt', 'w')
file_val = open(txtsavepath + '/val.txt', 'w')

for i in list_index:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        file_trainval.write(name)
        if i in train:
            file_train.write(name)
        else:
            file_val.write(name)
    else:
        file_test.write(name)

file_trainval.close()
file_train.close()
file_val.close()
file_test.close()

2 转换标签

  • 这里修改的有4个地方

classes = [‘plane’, ‘ship’] ,这里引号中为你的类别名称

def convert_annotation函数中 in_file 和 out_file 的路径,如果是和我一样在yolov5的data目录下新建的文件夹,那么直接把project01替换为你的文件夹名称。

文件末尾有5个路径,,如果是和我一样在yolov5的data目录下新建的文件夹,那么直接把project01替换为你的文件夹名称。

重要 :末尾第五个路径末端为 .jpg\n,如果你的图片格式是bmp,那么修改为 .bmp\n ,其他格式类似。

随后直接运行代码即可

# txt2yolo_label.py
# -*- coding: utf-8 -*-

import xml.etree.ElementTree as ET
from tqdm import tqdm
import os
from os import getcwd

sets = ['train', 'val', 'test']
classes = ['plane', 'ship']


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = (box[0] + box[1]) / 2.0 - 1
    y = (box[2] + box[3]) / 2.0 - 1
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id):
    # try:
        in_file = open('data/project01/xml/%s.xml' % (image_id), encoding='utf-8')
        out_file = open('data/project01/labels/%s.txt' % (image_id), 'w', encoding='utf-8')
        tree = ET.parse(in_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)
        for obj in root.iter('object'):
            # difficult = obj.find('difficult').text
            cls = obj.find('name').text
            # if cls not in classes or int(difficult) == 1:
            if cls not in classes :
                continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            b1, b2, b3, b4 = b
            # 标注越界修正
            if b2 > w:
                b2 = w
            if b4 > h:
                b4 = h
            b = (b1, b2, b3, b4)
            bb = convert((w, h), b)
            out_file.write(str(cls_id) + " " +
                           " ".join([str(a) for a in bb]) + '\n')



wd = getcwd()
for image_set in sets:
    if not os.path.exists('data/project01/labels/'):
        os.makedirs('data/project01/labels/')
    image_ids = open('data/project01/labels/%s.txt' %
                     (image_set)).read().strip().split()
    list_file = open('data/project01/%s.txt' % (image_set), 'w')
    for image_id in tqdm(image_ids):
        list_file.write('data/project01/images/%s.jpg\n' % (image_id))
        convert_annotation(image_id)
    list_file.close()

3 创建yaml文件

在data目录下新建project01.yaml文件

train: data/dat/train.txt  
val: data/dat/val.txt  
test: data/dat/test.txt 
# Classes
nc: 2  # number of classes
names: ['plane', 'ship'] #注,这里的顺序和txt2yolo_label.py文件中的classes保持一致

4 开始训练

方式1:

  1. 打开yolov5根目录下train.py文件,找到如下图所示位置
  2. 第一个红色框是模型位置,如果已经下载yolov5s.pt并且放置在根目录,则此处无需修改,否则修改为你模型所在位置。
  3. 第二个红色框是模型对应.yaml位置,一般在model文件夹中,需和模型对应,因此处用的yolov5s.pt,故这里应为
    default=ROOT / 'models/yolov5s.yaml'.
  4. 第三个红色框是咱们数据集对应的yaml位置,也就是咱们第三步时候创建的yaml文件位置,这里应为
    default=ROOT / 'data/project01.yaml'

然后就可以直接运行train.py文件进行训练了

这里解释一下几个参数
–epoch #模型训练总轮数,默认300
–batch-size:批次大小
–imgsz --img-size:输入图片分辨率大小
–resume:恢复训练,接着上次被打断的结果继续训练
更多的参数解释,可以参考这篇博客,很详细

yolov5训练自己数据集(ultralytics版本)_第1张图片

方式2:

在终端执行 python train.py --weights yolov5s.pt --cfg models/yolov5s.yaml --data data/project01.yaml

所有训练结果都保存在runs/train/递增的运行目录中,例如runs/train/exp2,runs/train/exp3等等。

训练结束后会告诉你保存的具体位置
yolov5训练自己数据集(ultralytics版本)_第2张图片

5 使用训练好的模型进行检测

打开detect.py文件,
修改 --weights default = ‘runs/train/exp/weights/best.pt’ (这里有的可能是exp xx,根据自己保存位置修改)
修改 --source, default = ‘mypath’ # mypath为你测试图片存放的路径,可以相对路径或绝对路径
然后运行detece.py即可,检测完毕后去runs\detect\exp目录即可看到检测结果。
在这里插入图片描述

你可能感兴趣的:(yolov5系列,深度学习,目标检测,计算机视觉)