近来冠状病毒肆虐,还是好好响应国家号召待在家里。闲来无事就搞一下用于faster-rcnn训练用的数据集。这篇博客详细地注释了将kitti数据集转换成pascal voc格式的代码,结合网上各个前辈的博客,记录了自己动手实验的过程。转换完成后的标签以及图片,将用于训练faster-rcnn关于车辆检测识别的模型。
1. 下载kitti数据集
参考博主micro wen的博客,可以通过kitti数据集的介绍进行详细了解数据集的形式。通过进入原网址下载或者Kitti数据集下载百度云下载data_object_image_2.zip和data_object_label_2.zip。
下载后得到两个文件:
Car 0.00 0 -1.75 685.77 178.12 767.02 235.21 1.50 1.62 3.89 3.27 1.67 21.18 -1.60
每一行就是一个object,第一个即为类别信息,后面是bounding box信息,具体可以查看相关博客。
2. pascal voc2007介绍
这里只简单介绍一下,详细可移步这里。VOC2007包含3个文件夹:
JPEGImages ==》》 用来存放所有的原始图片,格式为JPG。
ImageSets ==》》(包含多个子文件夹,目标检测中只用到Main文件夹)
Main —>存放一些txt文件,用来标明训练时候的train数据集、val数据集和test数据集
Layout
Segmentation
-<annotation>
<folder>VOC2007folder>
<filename>000001.jpgfilename>
-<source>
<database>The VOC2007 Databasedatabase>
<annotation>PASCAL VOC2007annotation>
<image>flickrimage>
<flickrid>341012865flickrid>
source>
-<owner>
<flickrid>Fried Camelsflickrid>
<name>Jinky the Fruit Batname>
owner>
-<size>
<width>353width>
<height>500height>
<depth>3depth>
size>
<segmented>0segmented>
-<object>
<name>dogname>
<pose>Leftpose>
<truncated>1truncated>
<difficult>0difficult>
-<bndbox>
<xmin>48xmin>
<ymin>240ymin>
<xmax>195xmax>
<ymax>371ymax>
bndbox>
object>
-<object>
<name>personname>
<pose>Leftpose>
<truncated>1truncated>
<difficult>0difficult>
-<bndbox>
<xmin>8xmin>
<ymin>12ymin>
<xmax>352xmax>
<ymax>498ymax>
bndbox>
object>
annotation>
3. 转换成JPG格式
因为voc是JPG格式的,还没拿去训练不知道PNG格式的会不会有影响,所以先转换成JPG格式以防万一。采用格式工厂批量处理,一次只能999张图片,所以要先划分出各个文件夹方便处理。PS也可以通过动作和录制功能批处理,不过效率有点慢就没采用。
4. 创建VOC2007文件夹
在JPEGImages放入转换完成的train图片的JPG图片(有博客说直接将下载的PNG放入,但有test和train两个文件夹,查看原voc2007文件夹,发现里面只有train的图片,于是只放入转换完成的trainJPG图片)。
在ImageSet文件夹里创建如下3个文件夹。
1. 介绍
这部分主要还是参考micro wen的博客。之前看的时候实验做起来很简单,不过还是要认真看一下代码。看代码时候就很多不懂,所以更新了代码备注,希望能帮到有需要的人。
由于“DontCare”,“Misc”,“Cyclist”三个类别在图片中太小且标注信息也不准确,在转换的时候需要将其忽略。根据之前的博客还将“Person_sitting”和“Pedestrian”合并为一个类别,统一标记为“Pedestrian”。采用python语言进行转换。
创建的python文件我是放在和label同一级目录下,不过把代码里的绝对路径写好应该也可以放在别的地方。
2. 转换kitti数据集类别
创建python文件modify_kitti_type.py
# -*-coding:utf-8-*-
import glob
import string
# glob: return document/file path
# 存储Labels文件夹所有txt文件路径,Win下修改路径要注意反斜杠用法,不要用成\
txt_list = glob.glob('E:/111/rpntrain-data/data_object_label_2/training/label_2/*.txt')
# 输出所有文件中的物体类别
def show_category(txt_list):
category_list = []
for item in txt_list:
try:
with open(item) as tdf:
for each_line in tdf:
labeldata = each_line.strip().split(' ') # 去掉前后多余的字符并把其分开
category_list.append(labeldata[0]) # 只要第一个字段,即类别
except IOError as ioerr:
print('File error:' + str(ioerr))
print(set(category_list)) # 输出集合
# 这里是将每个文件的每行写入line中
def merge(line):
# 列表推导式(又称列表解析式)提供了一种简明扼要的方法来创建列表,
# 它是利用其创建新列表list的一个简单方法。列表推导式比较像for循环语句,
# 必要时也可以加入if条件语句完善推导式。
each_line = ''
# add space to last word in each line
for i in range(len(line)):
if i != (len(line) - 1):
each_line = each_line + line[i] + ' '
else:
each_line = each_line + line[i] # 最后一条字段后面不加空格
each_line = each_line + '\n'
return (each_line)
# print('before modify categories are:\n')
print('在修改类别之前:\n')
# 显示原有的类别
show_category(txt_list)
# item为当前操作的文件,
for item in txt_list:
new_txt = []
try:
# with as是控制流语句,可以处理异常而不用多写代码
# 对item进行读取
with open(item, 'r') as r_tdf:
for each_line in r_tdf:
# 实际上strip是删除的意思;而split则是分割的意思。因此也表示了这两个功能是完全不一样的,
# strip可以删除字符串的某些字符,而split则是根据规定的字符将字符串进行分割。
labeldata = each_line.strip().split(' ')
'''if labeldata[0] in ['Truck','Van','Tram','Car']: # 合并汽车类
labeldata[0] = labeldata[0].replace(labeldata[0],'car')
if labeldata[0] in ['Person_sitting','Cyclist','Pedestrian']: # 合并行人类
labeldata[0] = labeldata[0].replace(labeldata[0],'pedestrian')'''
# print type(labeldata[4])
# Pedestrian 0.00 0 -0.20 712.40 143.00 810.73 307.92 1.89 0.48 1.20 1.84 1.47 8.41 0.01
# 没有研究label里数字具体的意思,直接使用前人的代码
if labeldata[4] == '0.00':
labeldata[4] = labeldata[4].replace(labeldata[4], '1.00')
if labeldata[5] == '0.00':
labeldata[5] = labeldata[5].replace(labeldata[5], '1.00')
# 如果当前行0位置为truck则进行替换,使用小写怕训练时候出错
if labeldata[0] == 'Truck':
labeldata[0] = labeldata[0].replace(labeldata[0], 'truck')
if labeldata[0] == 'Van':
labeldata[0] = labeldata[0].replace(labeldata[0], 'van')
if labeldata[0] == 'Tram':
labeldata[0] = labeldata[0].replace(labeldata[0], 'tram')
if labeldata[0] == 'Car':
labeldata[0] = labeldata[0].replace(labeldata[0], 'car')
if labeldata[0] in ['Person_sitting', 'Pedestrian']: # 合并行人类
labeldata[0] = labeldata[0].replace(labeldata[0], 'pedestrian')
if labeldata[0] == 'Cyclist':
continue
if labeldata[0] == 'DontCare': # 忽略Dontcare类
continue
if labeldata[0] == 'Misc': # 忽略Misc类
continue
new_txt.append(merge(labeldata)) # 重新写入新的txt文件
with open(item, 'w+') as w_tdf: # w+是打开原文件将内容删除,另写新内容进去
for temp in new_txt:
w_tdf.write(temp)
except IOError as ioerr:
print('File error:' + str(ioerr))
# 显示处理后的种类,这里已经完成了对label的修改
print('\nafter modify categories are:\n')
show_category(txt_list)
3. 转换标注信息格式:txt到xml
处理完原始的txt文件后,接下来需要将标签集的txt标注文件转换成xml文件。去掉标注信息中用不上的部分,把坐标值从float类型转化为int类型,最后代码会将生成的xml文件存放到VOC数据集的Annotations文件夹中。创建python文件txt_to_xml.py
#-*-coding:utf-8-*-
# 根据一个给定的XML Schema,使用DOM树的形式从空白文件生成一个XML
from xml.dom.minidom import Document
# python3.7下安装cv2,本机不能直接pip安装,搜索安装包进行安装
import cv2
import os
# 传入序号,
def generate_xml(name,split_lines,img_size,class_ind):
doc = Document() # 创建DOM文档对象
# 问题:创建document对象,如果存在则会把文件价名加在里面的文件前面?
# 上述问题是在写路径时候Annotations没加反斜杠
annotation = doc.createElement('annotation')
# appendChild方法的规定就是向节点添加最后一个子节点。
doc.appendChild(annotation)
# 测试输出文件位置问题
# print("document start")
# 这里开始写入XML,可具体看每个xml的内容
title = doc.createElement('folder')
title_text = doc.createTextNode('VOC2007')#这里修改了文件夹名
# appendChild:添加子节点
title.appendChild(title_text)
annotation.appendChild(title)
# img_name=name+'.png'#要用jpg格式
img_name = name + '.jpg'
title = doc.createElement('filename')
title_text = doc.createTextNode(img_name)
title.appendChild(title_text)
annotation.appendChild(title)
source = doc.createElement('source')
annotation.appendChild(source)
title = doc.createElement('database')
title_text = doc.createTextNode('The VOC2007 Database')#修改为VOC
title.appendChild(title_text)
source.appendChild(title)
title = doc.createElement('annotation')
title_text = doc.createTextNode('PASCAL VOC2007')#修改为VOC
title.appendChild(title_text)
source.appendChild(title)
size = doc.createElement('size')
annotation.appendChild(size)
title = doc.createElement('width')
title_text = doc.createTextNode(str(img_size[1]))
title.appendChild(title_text)
size.appendChild(title)
title = doc.createElement('height')
title_text = doc.createTextNode(str(img_size[0]))
title.appendChild(title_text)
size.appendChild(title)
title = doc.createElement('depth')
title_text = doc.createTextNode(str(img_size[2]))
title.appendChild(title_text)
size.appendChild(title)
for split_line in split_lines:
line=split_line.strip().split()
if line[0] in class_ind:
object = doc.createElement('object')
annotation.appendChild(object)
title = doc.createElement('name')
title_text = doc.createTextNode(line[0])
title.appendChild(title_text)
object.appendChild(title)
title = doc.createElement('difficult')
title_text = doc.createTextNode('0')
title.appendChild(title_text)
object.appendChild(title)
bndbox = doc.createElement('bndbox')
object.appendChild(bndbox)
title = doc.createElement('xmin')
title_text = doc.createTextNode(str(int(float(line[4]))))
title.appendChild(title_text)
bndbox.appendChild(title)
title = doc.createElement('ymin')
title_text = doc.createTextNode(str(int(float(line[5]))))
title.appendChild(title_text)
bndbox.appendChild(title)
title = doc.createElement('xmax')
title_text = doc.createTextNode(str(int(float(line[6]))))
title.appendChild(title_text)
bndbox.appendChild(title)
title = doc.createElement('ymax')
title_text = doc.createTextNode(str(int(float(line[7]))))
title.appendChild(title_text)
bndbox.appendChild(title)
# 将DOM对象doc写入文件
f = open('E:/111/rpntrain-data/VOC2007/Annotations/' + name + '.xml', 'w')
f.write(doc.toprettyxml(indent = ''))
f.close()
if __name__ == '__main__':
class_ind=('van', 'tram', 'car', 'pedestrian', 'truck')# 修改为了5类
# cur_dir=os.getcwd()
# 这个路径是label的上一层,不加反斜杠
labels_dir = os.path.join("E:/111/rpntrain-data/data_object_label_2/training", 'label_2')
# os.walk方法,主要用来遍历一个目录内各个子目录和子文件
for parent, dirnames, filenames in os.walk(labels_dir): # 分别得到根目录,子目录和根目录下文件
# 对于根目录下的文件,先取得路径得到前面的文件序号,再生成新的xml
for file_name in filenames:
full_path=os.path.join(parent, file_name) # 获取文件全路径
#print full_path
f=open(full_path)
# 读取所有行
split_lines = f.readlines()
name= file_name[:-4] # 后四位是扩展名.txt,只取前面的文件名
#print name
img_name = name + '.jpg'
# 将要训练的图片路径添加入img_path中
img_path = os.path.join('E:/111/rpntrain-data/VOC2007/JPEGImage/trianing', img_name)
#print img_path
img_size=cv2.imread(img_path).shape
# 文件序号,每一行,图片大小,目标类别
generate_xml(name,split_lines,img_size,class_ind)
print('all txts has converted into xmls')
4. 生成训练验证集和测试集列表
创建python文件generate_train_test_txt.py
#-*-coding:utf-8-*-
# 生成训练验证集和测试集列表
import pdb
import glob
import os
import random
import math
# 这个函数是传入要比较的标签类别和查询原图是否有这个标签
def get_sample_value(txt_name, category_name):
# kitti数据集的label位置
label_path = 'E:/111/rpntrain-data/data_object_label_2/training/label_2/'
# 建立路径,用于记录哪个训练/测试用的数据集搭配哪个种类的文件名
txt_path = label_path + txt_name+'.txt'
try:
with open(txt_path) as r_tdf:
# 如果当前的这个种类在label里有则返回1,用于上层记录是否归属该类别
if category_name in r_tdf.read():
return ' 1'
else:
return '-1'
except IOError as ioerr:
print('File error:'+str(ioerr))
# glob文件搜索,找到符合这个路径的路径
# 也有博客有这个写法:txt_list_path = glob.glob('./Labels/*.txt')
txt_list_path = glob.glob('E:/111/rpntrain-data/data_object_label_2/training/label_2/*.txt')
# 用于下文记录txt的所有文件名
txt_list = []
for item in txt_list_path:
# 分离路径名和文件名
temp1,temp2 = os.path.splitext(os.path.basename(item))
# 将文件名加入到这个数组里
txt_list.append(temp1)
# 对文件名进行排序
txt_list.sort()
# 控制台里显示所有的文件名
print(txt_list, end = '\n\n')
# 有博客建议train:val:test=8:1:1,先尝试用一下
# 思路是将trainval分得9份,8份给train,1份给val。
# val用于训练时候验证集,也就是训练结束时得到的准确率。和测试集不一样
# random.sample多用于截取列表的指定长度的随机数,但是不会改变列表本身的排序
# math.floor是得到小于或者等于参数的最大整数
num_trainval = random.sample(txt_list, math.floor(len(txt_list)*9/10.0)) # 可修改百分比
num_trainval.sort()
print(num_trainval, end = '\n\n')
num_train = random.sample(num_trainval,math.floor(len(num_trainval)*8/9.0)) # 可修改百分比
num_train.sort()
print(num_train, end = '\n\n')
# 这里用set().difference()得到和刚才得到trian数据集不一样的部分,也就是9份里的剩下1份
num_val = list(set(num_trainval).difference(set(num_train)))
num_val.sort()
print(num_val, end = '\n\n')
num_test = list(set(txt_list).difference(set(num_trainval)))
num_test.sort()
print(num_test, end = '\n\n')
# pdb.set_trace()
# 自己创建VOC里imagesets的Main_path文件夹路径
Main_path = 'E:/111/rpntrain-data/VOC2007/ImageSets/Main/'
# 数据集种类,用于区分训练和测试用
train_test_name = ['trainval','train','val','test']
# 数据集里的各个类别
category_name = ['van', 'tram', 'car', 'pedestrian', 'truck']#修改类别
# 循环写trainvl train val test
for item_train_test_name in train_test_name:
list_name = 'num_'
# 这个num_加上数据集种类,可以得到上文8:1:1里的各个数据集名称
list_name += item_train_test_name
# 创建数据集种类的文件,记录这个种类都有哪些照片
train_test_txt_name = Main_path + item_train_test_name + '.txt'
try:
# 写单个文件
with open(train_test_txt_name, 'w') as w_tdf:
# 一行一行写,eval是读取这个list的内容,也就是数据集种类里的照片名
# 最终能得到四类:trainval.txt之类的四个
for item in eval(list_name):
w_tdf.write(item+'\n')
# 循环写Car Pedestrian Cyclist
for item_category_name in category_name:
# 得到:路径+car+_+trainval+.txt的文件部分,
# 也就是数据类别在当前数据集的分类数据判断,如00001 1为含有该类00002 -1为不含该类
category_txt_name = Main_path + item_category_name + '_' + item_train_test_name + '.txt'
with open(category_txt_name, 'w') as w_tdf:
# 一行一行写,记录照片标号和该照片是否属于该类别
for item in eval(list_name):
w_tdf.write(item+' '+ get_sample_value(item, item_category_name)+'\n')
except IOError as ioerr:
print('File error:'+str(ioerr))
生成的txt文件如下:
至此训练车联网需要的数据集就准备好了。因为还不能回学校,所以进行训练的过程只能等以后了。
https://blog.csdn.net/xw_2_xh/article/details/86617595
https://blog.csdn.net/flztiii/article/details/73881954
https://blog.csdn.net/u014256231/article/details/79801665