内部结构:
文件夹内部结构
然后在img文件夹中存放你的原始图片
打开labelme
labelme选择create Linestrip类别选1,2,3,4(从左到右)
blog.csdnimg.cn/img_convert/2055f4b7081478d3058aee4b0a469d21.png)
3.保存json文件
将弄好的json文件转移到json文件夹中 ,然后创建文件夹images 并在文件夹下创建文件夹annotations
使用下面代码生成图片名称同名的文件夹
每个文件夹中含五个文件(这时的文件夹储存在json文件夹中将它转移到image/annotation文件夹下)
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import os
import argparse
import base64
import json
import os
import os.path as osp
if __name__ == '__main__':
json_dir = "D:\Desktop\img_highspeed\jsons" #存放labelme标注后的json文件
for name in os.listdir(json_dir):
#print(name)
json_path = os.path.join(json_dir,name)
os.system(str("labelme_json_to_dataset " + json_path))
print("success json to dataset: ",json_path)
每个文件夹应该包含的五个文件
其实并不是这五个文件都需要 我们要的只是img 和label.png 其中label.png就是我们最终要的分割文件了
label.png的样子
然后我们要将需要的文件提取出来
train_data中的文件
首先创建如上两个文件夹 用来存放原图和分割图片
然后运行下面的代码 我是按照tusimple格式生成的数据 如果想要别的大小 或者不想改变原图的大小的 可以将代码中 cv2.resize语句修改或者注释掉
还是建议使用tusimple或者culane的大小 因为算法有一个人为设置的、根据经验分析得到的 默认标线可能出现的行 所以使用官方数据的尺寸 会更好一些
train_gt.txt由代码生成
import cv2
from skimage import measure, color
from skimage.measure import regionprops
import numpy as np
import os
import copy
from PIL import Image
def skimageFilter(gray):
binary_warped = copy.copy(gray)
binary_warped[binary_warped > 0.1] = 255
gray = (np.dstack((gray, gray, gray)) * 255).astype('uint8')
labels = measure.label(gray[:, :, 0], connectivity=1)
dst = color.label2rgb(labels, bg_label=0, bg_color=(0, 0, 0))
gray = cv2.cvtColor(np.uint8(dst * 255), cv2.COLOR_RGB2GRAY)
return binary_warped, gray
def moveImageTodir(path, targetPath, name):
if os.path.isdir(path):
image_name = "gt_image/" + str(name) + ".png"
binary_name = "gt_binary_image/" + str(name) + ".png"
instance_name = "gt_instance_image/" + str(name) + ".png"
# train_rows = image_name + " " + binary_name + " " + instance_name + "\n"
train_rows = image_name + " " + instance_name + "\n"
origin_img = cv2.imread(path + "/img.png")
origin_img = cv2.resize(origin_img, (1280, 720))
cv2.imwrite(targetPath + "/" + image_name, origin_img)
print(targetPath + "/" + image_name)
# img = cv2.imread(path + '/label.png')
# img = cv2.resize(img, (1280, 720))
# gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) #将bgr格式的图片转换成灰度图片
# binary_warped, instance = skimageFilter(gray)
# cv2.imwrite(targetPath + "/" + binary_name, binary_warped)
# print(targetPath + "/" + binary_name)
# cv2.imwrite(targetPath + "/" + instance_name, instance)
ins = Image.open(path + '/label.png')
ins = ins.resize((1280,720))
ins.save(targetPath + "/" + instance_name)
print("success create data name is : ", train_rows)
return train_rows
return None
if __name__ == "__main__":
count = 1
with open(r"D:\Desktop\img_highspeed/train_gt.txt", 'w+') as file:
for images_dir in os.listdir(r"D:\Desktop\img_highspeed\images"): # images为待labelme标记的文件以及标记后转换的图片位置
dir_name = r"D:\Desktop\img_highspeed\images\annotations"
for annotations_dir in os.listdir(dir_name):
json_dir = os.path.join(dir_name, annotations_dir)
# print(json_dir)
target_path = r"D:\Desktop\img_highspeed\train_data"
if os.path.isdir(json_dir):
train_rows = moveImageTodir(json_dir,target_path, str(count).zfill(4))
file.write(train_rows)
count += 1
很多人比较困惑label中的像素 这很重要 如果不对 代码就会报错
背景是0 然后像素值等于标签值 比如我的标签1,2,3,4
不要用cv2读入然后检查图片像素值 因为那样会发现label.png中的值不对
但是如果你去看labelme自带的json_to_dataset.py就会发现label.png的生成就是像素值对应标签值生成的 所以label.png绝对是可以直接用于分割检测的
可以用以下代码查看像素值
from PIL import Image
import numpy as np
img = Image.open("F:/电警大图/Desktop/dh_34_80_202_51_0724-062844_674_json/label.png")
img = np.array(img)
print("img.shape", img.shape)
print()
height,width = img.shape
for i in range(height):
for j in range(width):
print(img[i][j],end="")
print("")
这个代码是参考别人的 会直接输出像素值 然后在输出中Ctrl+F搜索1,2,3,4就能找到像素值
代码运行后就得到我们训练的数据了
gt_image中的内容
gt_instance_iamge中的内容
train_gt中的内容
然后修改config/tusimple.py中的dataroot 为你的train_data
所以归根结底真正用到训练里的只有train_data里面的内容
最后 在终端运行:
python train.py configs/tusimple.py --batch_size 8
其中写batch_size 8是因为我的电脑扛不住大的会有 电脑能抗住可以不写
最后废话依一句 别的不说 这个方法训练起来是真快 不愧是SOTA