ultra fast lane detection数据集制作

1.准备一个文件夹 名字随便吧

内部结构:
文件夹内部结构

然后在img文件夹中存放你的原始图片

2.labelme制作

打开labelme
labelme选择create Linestrip类别选1,2,3,4(从左到右)
blog.csdnimg.cn/img_convert/2055f4b7081478d3058aee4b0a469d21.png)
3.保存json文件
将弄好的json文件转移到json文件夹中 ,然后创建文件夹images 并在文件夹下创建文件夹annotations
使用下面代码生成图片名称同名的文件夹
每个文件夹中含五个文件(这时的文件夹储存在json文件夹中将它转移到image/annotation文件夹下)

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import os
import argparse
import base64
import json
import os
import os.path as osp

if __name__ == '__main__':
    json_dir = "D:\Desktop\img_highspeed\jsons" #存放labelme标注后的json文件
    for name in os.listdir(json_dir):
        #print(name)
        json_path = os.path.join(json_dir,name)
        os.system(str("labelme_json_to_dataset " + json_path))

        print("success json to dataset: ",json_path)       

每个文件夹应该包含的五个文件
其实并不是这五个文件都需要 我们要的只是img 和label.png 其中label.png就是我们最终要的分割文件了
label.png的样子
然后我们要将需要的文件提取出来

3.使用下面程序生成train_data中的内容

train_data中的文件
首先创建如上两个文件夹 用来存放原图和分割图片
然后运行下面的代码 我是按照tusimple格式生成的数据 如果想要别的大小 或者不想改变原图的大小的 可以将代码中 cv2.resize语句修改或者注释掉
还是建议使用tusimple或者culane的大小 因为算法有一个人为设置的、根据经验分析得到的 默认标线可能出现的行 所以使用官方数据的尺寸 会更好一些
train_gt.txt由代码生成

import cv2
from skimage import measure, color
from skimage.measure import regionprops
import numpy as np
import os
import copy
from PIL import Image



def skimageFilter(gray):
    binary_warped = copy.copy(gray)
    binary_warped[binary_warped > 0.1] = 255

    gray = (np.dstack((gray, gray, gray)) * 255).astype('uint8')
    labels = measure.label(gray[:, :, 0], connectivity=1)
    dst = color.label2rgb(labels, bg_label=0, bg_color=(0, 0, 0))
    gray = cv2.cvtColor(np.uint8(dst * 255), cv2.COLOR_RGB2GRAY)
    return binary_warped, gray


def moveImageTodir(path, targetPath, name):
    if os.path.isdir(path):
        image_name = "gt_image/" + str(name) + ".png"
        binary_name = "gt_binary_image/" + str(name) + ".png"
        instance_name = "gt_instance_image/" + str(name) + ".png"

        # train_rows = image_name + " " + binary_name + " " + instance_name + "\n"
        train_rows = image_name  + " " + instance_name + "\n"

        origin_img = cv2.imread(path + "/img.png")
        origin_img = cv2.resize(origin_img, (1280, 720))
        cv2.imwrite(targetPath + "/" + image_name, origin_img)
        print(targetPath + "/" + image_name)

        # img = cv2.imread(path + '/label.png')
        # img = cv2.resize(img, (1280, 720))
        # gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) #将bgr格式的图片转换成灰度图片
        # binary_warped, instance = skimageFilter(gray)
        # cv2.imwrite(targetPath + "/" + binary_name, binary_warped)
        # print(targetPath + "/" + binary_name)
        # cv2.imwrite(targetPath + "/" + instance_name, instance)

        ins = Image.open(path + '/label.png')
        ins = ins.resize((1280,720))
        ins.save(targetPath + "/" + instance_name)

        print("success create data name is : ", train_rows)
        return train_rows
    return None


if __name__ == "__main__":

    count = 1
    with open(r"D:\Desktop\img_highspeed/train_gt.txt", 'w+') as file:
        for images_dir in os.listdir(r"D:\Desktop\img_highspeed\images"):  # images为待labelme标记的文件以及标记后转换的图片位置
            dir_name = r"D:\Desktop\img_highspeed\images\annotations"
            for annotations_dir in os.listdir(dir_name):
                json_dir = os.path.join(dir_name, annotations_dir)
                # print(json_dir)
                target_path = r"D:\Desktop\img_highspeed\train_data"
                if os.path.isdir(json_dir):
                    train_rows = moveImageTodir(json_dir,target_path, str(count).zfill(4))
                    file.write(train_rows)
                    count += 1

很多人比较困惑label中的像素 这很重要 如果不对 代码就会报错
背景是0 然后像素值等于标签值 比如我的标签1,2,3,4
不要用cv2读入然后检查图片像素值 因为那样会发现label.png中的值不对
但是如果你去看labelme自带的json_to_dataset.py就会发现label.png的生成就是像素值对应标签值生成的 所以label.png绝对是可以直接用于分割检测的
可以用以下代码查看像素值

from PIL import Image
import numpy as np
 
img = Image.open("F:/电警大图/Desktop/dh_34_80_202_51_0724-062844_674_json/label.png")
img = np.array(img)
 
print("img.shape", img.shape)
print()
height,width = img.shape
for i in range(height):
    for j in range(width):
        print(img[i][j],end="")
    print("") 

这个代码是参考别人的 会直接输出像素值 然后在输出中Ctrl+F搜索1,2,3,4就能找到像素值

代码运行后就得到我们训练的数据了
gt_image中的内容
gt_instance_iamge中的内容
train_gt中的内容
然后修改config/tusimple.py中的dataroot 为你的train_data
所以归根结底真正用到训练里的只有train_data里面的内容

最后 在终端运行:

python train.py configs/tusimple.py --batch_size 8

其中写batch_size 8是因为我的电脑扛不住大的会有 电脑能抗住可以不写

最后废话依一句 别的不说 这个方法训练起来是真快 不愧是SOTA

你可能感兴趣的:(python,opencv,深度学习)