1.拉取keras-yolo3项目源码
git clone https://github.com/qqwweee/keras-yolo31
2.在keras-yolo3目录下获取yolov3权重文件
wget https://pjreddie.com/media/files/yolov3.weights1
3.将权重文件转换为keras适用的h5格式
python3 convert.py yolov3.cfg yolov3.weights model_data/yolo.h51
执行这一指令一般会报错,因为其运行所需的环境没创建好,按照报错信息一步步把库安装好就可以了,注意下版本适配的问题,这是我执行的一部分安装指令。
pip3 install numpy
pip3 install keras
pip3 install tensorflow
pip3 install --user matplotlib1
2
3
4
4.根据官方权重测试图片
python3 yolo_video.py --image1
随意找一张图并输入路径:
识别情况:
要测试视频流的话用python3 yolo_video.py --input=视频流路径
5.制作自己的数据集
在keras-yolo3目录下创建文件结构如下:
其中Annotations用来存储自己的标注文件,一般用labelImg来得到voc格式的标记文件;labelImg的话用pycharm会比较好配置一点。
ImageSets用来存储index脚本生成的四个文件,JPEGImages则用来存储自己的图像数据集。
index.py如下:
import os
import random
trainval_percent = 0.1
train_percent = 0.9
xmlfilepath = 'Annotations'
txtsavepath = 'ImageSets/Main'
total_xml = os.listdir(xmlfilepath)
num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)
if not os.path.exists(txtsavepath):
print('not exist...{}'.format(txtsavepath))
os.makedirs(txtsavepath)
ftrainval = open('ImageSets/Main/trainval.txt', 'w')
ftest = open('ImageSets/Main/test.txt', 'w')
ftrain = open('ImageSets/Main/train.txt', 'w')
fval = open('ImageSets/Main/val.txt', 'w')
for i in list:
name = total_xml[i][:-4] + '\n'
if i in trainval:
ftrainval.write(name)
if i in train:
ftest.write(name)
else:
fval.write(name)
else:
ftrain.write(name)
ftrainval.close()
ftrain.close()
fval.close()
ftest.close()1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
6.修改yolo_archor.txt文件
运行聚类函数kmeans.py,然后把用此结果按yolo_archor.txt文件里的原格式修改即可,当然也可以不做修改:
7.修改配置文件
修改voc_annotation.py文件(将sets与自己数据集的VOC文件夹对应,classes与自己标注文件的类(我的只有box类)对应。
运行voc_annotation.py生成训练文件,将文件名都去掉2019_或者在trian.py里修改训练文件的路径为自己的训练文件的路径。
修改yolov3.cfg配置文件:
batch=1 subdivisions=1为测试模式,batch=64 subdivisions=16为训练模式。此外,还要修改:
将yolo上方的卷积核数修改为3x(1+4+自己的类数)(我这里目标只识别1类,故改为filters=18,classes=1),将anchors修改为yolo_anchors.txt文件中的值,显存小的话还可以把random改为0。最后还需要修改model_data下的voc_classes.txt文件,同样改为自己要识别的类,本人的classes文件:
接下来以配置文件生成起始权重文件:
python3 convert.py -w yolov3.cfg yolov3.weights model_data/yolo_weights.h51
8.训练自己的数据集
修改train.py:
将其与之前准备的相应文件所对应,在logs目录下新建一个000文件夹来保存训练的权重文件
其中batch_size为每次输入的数据数目,如果出现val_loss:nan报错的话可以尝试降低它或者降低学习率,epoch为迭代次数,第一次可以少迭代几次看看效果
运行train.py:
emmm结果不理想的话,程序会继续训练(参数之前改好了):
到此为止训练就告一段落了,如果因为某些原因(我是用CPU跑的,卡死过一次,如下图)
那么在log/000/下会生成阶段性权重文件,成功跑完的话会生成最终的权重文件。
9.测试数据
将yolov3.cfg文件修改为测试模式,修改yolo.py文件中载入权重文件的路径为刚才训练好的权重文件的路径。
执行python3 yolo_video.py --image测试(注意输入正确的测试图片路径,直接从test.txt里拷贝会比较方便),这里因为某些原因,就不贴测试结果图了,总的来说效果还可以吧。
为了批量检测,我又稍微改了一下yolo_video.py的代码得到了一个detect_all.py脚本,将批量测试生成的数据存进了result文件夹下,又写了一个trans.py将批量测试得到的txt文件转换为voc格式: