COCO数据集训练TPH-YoloV5

1.环境准备

设备:rtx 3060

环境要求:torch >= 1.8.1

其他环境按照源代码的readme安装即可

github地址:http://git clone https://github.com/cv516Buaa/tph-yolov5

2.数据集准备

本文用COCO数据集来进行训练,TPH-YOLO作者给出了coco.yaml文件来进行coco数据集的训练,但为了与其他版本的Yolo进行兼容,我在这里使用了脚本,将coco格式的数据集转成了yolo的txt格式,即COCO转YOLO格式。

import os
import json
from tqdm import tqdm
import argparse

parser = argparse.ArgumentParser()
# 这里根据自己的json文件位置,换成自己的就行
parser.add_argument('--json_path',
                    default='xxx.json', type=str,
                    help="input: coco format(json)")
# 这里设置.txt文件保存位置
parser.add_argument('--save_path', default='xxxx', type=str,
                    help="specify where to save the output dir of labels")
arg = parser.parse_args()


def convert(size, box):
    dw = 1. / (size[0])
    dh = 1. / (size[1])
    x = box[0] + box[2] / 2.0
    y = box[1] + box[3] / 2.0
    w = box[2]
    h = box[3]
    # round函数确定(xmin, ymin, xmax, ymax)的小数位数
    x = round(x * dw, 6)
    w = round(w * dw, 6)
    y = round(y * dh, 6)
    h = round(h * dh, 6)
    return (x, y, w, h)


if __name__ == '__main__':
    json_file = arg.json_path  # COCO Object Instance 类型的标注
    ana_txt_save_path = arg.save_path  # 保存的路径

    data = json.load(open(json_file, 'r'))
    if not os.path.exists(ana_txt_save_path):
        os.makedirs(ana_txt_save_path)

    id_map = {}  # coco数据集的id不连续!重新映射一下再输出!
    with open(os.path.join(ana_txt_save_path, 'classes.txt'), 'w') as f:
        # 写入classes.txt
        for i, category in enumerate(data['categories']):
            f.write(f"{category['name']}\n")
            id_map[category['id']] = i
    # print(id_map)
    # 这里需要根据自己的需要,更改写入图像相对路径的文件位置。
    list_file = open(os.path.join(ana_txt_save_path, 'val.txt'), 'w')
    for img in tqdm(data['images']):
        filename = img["file_name"]
        img_width = img["width"]
        img_height = img["height"]
        img_id = img["id"]
        head, tail = os.path.splitext(filename)
        ana_txt_name = head + ".txt"  # 对应的txt名字,与jpg一致
        f_txt = open(os.path.join(ana_txt_save_path, ana_txt_name), 'w')
        for ann in data['annotations']:
            if ann['image_id'] == img_id:
                box = convert((img_width, img_height), ann["bbox"])
                f_txt.write("%s %s %s %s %s\n" % (id_map[ann["category_id"]], box[0], box[1], box[2], box[3]))
        f_txt.close()
        # 将图片的相对路径写入train2017或val2017的路径
        list_file.write('xxxxxxxx/%s.jpg\n' % (head))
    list_file.close()

注:这个脚本参考CSDN其他博主的代码,是直接可用的,感谢他人的分享,链接我找不到了,如有不妥,请联系我删除。

3.文件配置

第一步,找到data文件夹下的coco.yaml,将nc、names改成你自己的分类数和类别标签(默认就是coco数据集的80,我用的自己的数据集),然后再把path,train,val,test改成自己的文件路径和txt路径。如果你使用自己的数据集或者已经下载了coco数据集,就把names下边的download内容全部注释。

第二步,找到model文件夹下的yolov5l-xs-tph.yaml文件,将第一个参数nc改成你的类别数(默认就是coco的80)

好了,修改到这,就可以按照readme中的运行命令进行运行了

第三步,修改train.py文件,为了python train.py运行指定程序

parser.add_argument('--weights', type=str, default=ROOT / 'yolov5l.pt', help='initial weights path')
    parser.add_argument('--cfg', type=str, default='/yolov5l-xs-tph.yaml', help='model.yaml path')
    parser.add_argument('--data', type=str, default=ROOT / 'coco.yaml', help='dataset.yaml path')
    parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch.yaml', help='hyperparameters path')
    parser.add_argument('--epochs', type=int, default=100)
    parser.add_argument('--batch-size', type=int, default=16, help='total batch size for all GPUs, -1 for autobatch')
    parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=640, help='train, val image size (pixels)')

这里主要修改weight、cfg、data文件,我选择固定的方式运行,也可以按照readme命令运行。

--hyp参数是超参数设置,可以不修改,也可以找到对应的文件进行调参。

参考:1.TPH-YOLO作者建议使用1536的图片尺寸进行训练,我在rtx 3060 上,bs设置为1,仍然爆显存,大家根据硬件调整吧;

2.自己数据集有5000张图片,用3060,img_size设置为768(1536的一半)bs设置为2,一个epochs需要25分钟。大家可以做一个时间参考。

4.测试

和yolo系列一样,在runs文件夹下有train文件夹来保存训练数据,测试时使用保存的最好的权重文件,使用detect.py文件测试即可,测试完毕在runs文件夹中会有detect的文件,保存测试结果。

5.swin-yolo正在跑,跑完就更新

欢迎交流!

你可能感兴趣的:(深度学习,transformer,pytorch)