配置环境及验证是否成功详情见:链接
YOLOv4项目代码,yolov4.weights,yolov4.conv.137,yolov4.cfg打包下载地址(发现放超链接会被人篡改成csdn付费资源来获取积分)https://pan.baidu.com/s/1gksPuEfNYKIJMq0cUqFY_A)
提取码:56zp
详情见详细介绍如何使用标注软件labelImg(新人100%上手)
import os
import time
def mkFolder(path):
year = str(time.localtime()[0])
floderName = 'VOC' + year#生成主文件夹的名称,比如今年是2021,则主文件夹的名称为VOC2021
# path = os.path.normpath(path)
floderPath = os.path.join(path, floderName)
if not os.path.exists(floderPath):
os.makedirs(floderPath)
print(floderPath)
subfloderName = ['Annotations', 'ImageSets', 'JPEGImages', 'labels', 'TESTImages']#生成的子文件夹名称
for name in subfloderName:
subfloderPath = os.path.join(path, floderName, name)
print(subfloderPath)
if not os.path.exists(subfloderPath):
os.makedirs(subfloderPath)
if name == 'ImageSets':
secSubFolderName = 'Main'
secSubFolderPath = os.path.join(path, floderName, name, secSubFolderName)
print(secSubFolderPath)
if not os.path.exists(secSubFolderPath):
os.makedirs(secSubFolderPath)
if __name__ == '__main__':
path = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\VOCdevkit' #更换为自己的文件夹路径
mkFolder(path)
VOC
-VOCdevkit
——VOC2021
————---Annotations #放入所有的xml文件
————---ImageSets
——————-----Main #放入train.txt,val.txt空文件
--train.txt
--val.txt
————---JPEGImages #放入所有的训练图片文件
————---labels #此时为空
————---TESTImages #放入所有的测试图片文件
#Main中的文件分别表示test.txt是测试集,train.txt是训练集,val.txt是验证集
注意需要在Main文件夹中手动创建两个文件train.txt,val.txt
import os
from os import listdir, getcwd
from os.path import join
if __name__ == '__main__':
source_folder = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\JPEGImages'#图片源目录
dest = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\ImageSets\Main\train.txt' # train.txt文件路径
dest2 = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC2021\ImageSets\Main\val.txt' # val.txt文件路径
file_list = os.listdir(source_folder)
train_file = open(dest, 'a')
val_file = open(dest2, 'a')
file_num = 0
for file_obj in file_list:
file_path = os.path.join(source_folder, file_obj)
file_name, file_extend = os.path.splitext(file_obj)
file_num = file_num + 1
if (file_num % 4 == 0): # 每隔4张选取一张验证集
#可自由选择训练集与测试集比例如果想设为9:1则把4改成9
val_file.write(file_name + '\n')
else:
train_file.write(file_name + '\n')
# val_file.write(file_name + '\n')
#
# train_file.write(file_name + '\n')
train_file.close()
val_file.close()
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
sets=[('2020', 'train'), ('2020', 'val')] ##这里要与Main中的txt文件一致
#classes = ["bubble", "adhension","outer","inner"]
classes = ["bubble"] # #你所标注的类别名
def convert(size, box):
dw = 1./(size[0])
dh = 1./(size[1])
x = (box[0] + box[1])/2.0 - 1
y = (box[2] + box[3])/2.0 - 1
w = box[1] - box[0]
h = box[3] - box[2]
x = x*dw
w = w*dw
y = y*dh
h = h*dh
return (x,y,w,h)
def convert_annotation(year, image_id):
in_file = open('VOCdevkit/VOC%s/Annotations/%s.xml'%(year, image_id), encoding="utf8")
out_file = open('VOCdevkit/VOC%s/labels/%s.txt'%(year, image_id), 'w', encoding="utf8")
tree=ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult)==1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text), float(xmlbox.find('ymax').text))
bb = convert((w,h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
wd = getcwd()
for year, image_set in sets:
if not os.path.exists('VOCdevkit/VOC%s/labels/'%(year)):
os.makedirs('VOCdevkit/VOC%s/labels/'%(year))
image_ids = open('VOCdevkit/VOC%s/ImageSets/Main/%s.txt'%(year, image_set)).read().strip('\n').split('\n')
list_file = open('%s_%s.txt'%(year, image_set), 'w')
for image_id in image_ids:
list_file.write('%s/VOCdevkit/VOC%s/JPEGImages/%s.jpg\n'%(wd, year, image_id))
convert_annotation(year, image_id)
list_file.close()
#os.system("cat 2020_train.txt 2020_val.txt > train.txt")
这个代码将在VOCdevkit同级目录里创建2021_train.txt与2021_val.txt并存放训练集与测试集的图片地址。同时将xml标注文件转换为txt形式存放在VOC\VOCdevkit\VOC2021\labels中
同样创建好相应文件夹后,把txt标注文件放入VOC\VOCdevkit\VOC2021\labels中,然后直接用下列代码划分为装训练集与测试集图片名称的TXT文件即可
修改6~8行
import os
from os import listdir, getcwd
from os.path import join
if __name__ == '__main__':
source_folder = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\VOCdevkit\VOC2021\JPEGImages'
dest = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\train(txt).txt' # train.txt文件路径
dest2 = r'C:\Users\Cookie_wang\Desktop\item\Pytorch-YOLOv4-master\VOC\val(txt).txt' # val.txt文件路径
file_list = os.listdir(source_folder)
train_file = open(dest, 'a')
val_file = open(dest2, 'a')
file_num = 0
for file_obj in file_list:
file_path = os.path.join(source_folder, file_obj)
file_name, file_extend = os.path.splitext(file_obj)
file_num = file_num + 1
if (file_num % 4 == 0): # 每隔4张选取一张验证集
val_file.write(file_name +".jpg"+ '\n')
else:
train_file.write(file_name+".jpg"+ '\n')
# val_file.write(file_name + '\n')
#
# train_file.write(file_name + '\n')
train_file.close()
val_file.close()
全部按照自己文件夹的位置修改
#voc.data
classes= 35#识别的种类个数
train = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/VOCdevkit/VOC2019/ImageSets/Main/train.txt#放存放训练集的图片名称的txt文件路径
valid = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/VOCdevkit/VOC2019/ImageSets/Main/test.txt#放存放测试集的图片名称的txt文件路径
names = /home/cookie/Desktop/item/darknet-master0/darknet-master/data/voc.names#放voc.names的地址
backup = /home/cookie/Desktop/item/darknet-master0/darknet-master/backup#存放生成权重的地址
voc.names存放识别的种类的名称
plate
0
1
2
3
4
5
6
7
8
9
A
B
C
D
E
F
G
H
J
K
L
M
N
P
Q
R
S
T
U
V
W
X
Y
Z
把相关cfg文件放入VOCdevkit的同级目录
把第三行batch改为batch=64
把subdivisions那一行改为 subdivisions=16
将max_batch更改为(数据集标签种类数(classes)*2000 但不小于训练的图片数量以及不小于6000)
将第20的steps改为max_batch的0.8倍和0.9倍
把位于8-9行设为width=416 height=416 或者其他32的倍数:
将classes=80 改为你的类别数 (有三个地方,969行,1056行,1143行)
改正[filters=255] 为 filters=(classes + 5)x3 (位置为查找yolo,每个yolo前的[convolutional]里,注意只修改最接近yolo的那个filters需要修改,一共应该有三处)
如果使用 [Gaussian_yolo] 层,修改 filters=(classes + 9)x3 (位置为CRRL+F查找Gaussian_yolo,每个Gaussian_yolo前的[convolutional]里,注意只修改最接近Gaussian_yolo的那个filters需要修改,一共应该有三处)
下载预训练权重yolov4.conv.137放入VOCdevkit的同级目录,没有预训练权重的话会随机初始化权重
在目录终端输入
darknet.exe detector train data/VOC.data yolov-obj.cfg yolov4.conv.137 -map
#其中.data文件与.cfg文件上述代码中的位置代码要视情况进行改变
mAP(均值平均精度) = 所有类别的平均精度求和除以所有类别
每4个Epochs计算一次map
训练生成的权重文件在目录下:
last_weights 每迭代100次保存一次
xxxx_weights 每迭代1000次保存一席
详情参考yolov3用训练过的weights文件继续训练数据
每迭代100步可以手动停止,下次训练加载此次的权重文件便可以接着训练。
eg:从2000步停止训练后,可以使用如下命令继续训练
darknet.exe detector train data/obj.data yolo-obj.cfg backup\yolo-obj_2000.weights
训练过程中如果 avg出现nan,训练可能出错,需要停止
如果nan出现在其他行,训练正常
如果迭代很多次后avg补再下降,需要停止
avg越低越好—,也要防止过拟合
对小的模型、简单的数据集,avg一般为0.05
对大的模型、复杂的数据集,avg一般为3
895行 layers = 23.
892行 stride=4
989行 stride=4
如果你的数据左右对象作为不同的类,比如:左右手、向左转、向右转路标
在数据增强部分 17行增加flip=0
如果小目标和巨大的目标一起训练,需要修改模型
为了使定位框更准确,在每个[yolo]层增加ignore_thresh = .9 iou_normalizer=0.5 iou_loss=giou——这会提高[email protected], 但是会降低[email protected].
如果你很精通,可以重新计算自己数据集的anchor
在终端输入
./darknet detector test data/voc.data data/yolov4.cfg backup/yolov4_last.weights data/kh/BAG2971.jpg
如果出现couldnt find XXX时把地址改成全地址即可
最后说明一下,再详细的教程应用到每个电脑上会碰到的问题都是不同的,这个时候就需要通过自己的实际情况解决问题,不能全部生搬硬套哦!