关于理论部分我看的是b站“霹雳吧啦Wz”的RCNN理论讲解,作为入门小白表示能听懂,需要的同学可以自行观看
目录
1.环境准备
2.训练步骤
3.测试过程
4.计算map
我是用的是在colab+tensorflow1.14.0上进行训练,其他linux系统训练等同
(windows+pytorch的我也有尝试,但是在配置环境时下载pycocotools时windows的很麻烦,而且还得借助Microsoft visual c++14,我电脑装的是vscode,跟网上教程不一样,也找不到相关教程,所以放弃了)
colab的使用教程如果不会可以自行查阅这篇文章colab使用方法记录_道人兄的博客-CSDN博客
(1)下载源码
!git clone https://github.com/dBeker/Faster-RCNN-TensorFlow-Python3
(2)下载拓展文件
!pip install -r requirements.txt
(3)下载并添加预训练模型
源码中预训练模型使用的是VGG16,VGG16模型可直接下载:
!wget -P ./data/imagenet_weights/ http://download.tensorflow.org/models/vgg_16_2016_08_28.tar.gz
下载的模型名字应该是vgg_16.ckpt,重命名为vgg16.ckpt 后,把模型保存在data\imagenet_weights\文件夹下。
也可以使用其他的模型替代VGG16,其他模型在下方链接中下载:
https://github.com/tensorflow/models/tree/master/research/slim#pre-trained-models
(4)修改训练参数
打开源码的lib\config文件夹下的config.py文件,修改其中一些重要参数,如:
①network参数
该参数定义了预训练模型网络,源码中默认使用了vgg16模型,我们使用vgg16就不需修改,如果在上一步中使用其他模型就要修改。
②learning_rate
这个参数是学习率,如果设定太大就可能产生振荡,如果设定太小就会使收敛速度很慢。所以我们可以先默认为源码的0.001进行实验,后期再取0.01或0.0001等多次实验,找到运行后的相对最优值。
③batch_size
该参数表示梯度下降时数据批量大小,一般可以取16、32、64、128、256等。我个人的理解是,batch_size设定越大,训练时梯度下降的速率更快,也具有更高的方向准确度,但更加消耗内存;batch_size设定越小,虽然节省内存,但训练的速率比较慢,收敛效果也可能不是很好。所以在内存允许的情况下,尽量设定大一些。
④max_iters
max_iters参数表示训练最大迭代的步数。源码中是40000,我实验了4000和40000的步数,发现后来的测试结果中mAP值相差不大,以后会再继续研究。这个参数可以先按照源码的40000进行(要跑好几天。。。)
⑤snapshot_iterations
这个参数表示间隔多少迭代次数生成一次结果模型。
⑥roi_bg_threshold_low 和 roi_bg_threshold_high
这个参数表示在背景中被设定为ROI(感兴趣区域,region of interest)的阈值。如果后面出现Exception: image invalid, skipping 这样的报错,将roi_bg_threshold_low参数修改为0.0会解决问题。
(5)准备数据集
下载voc2007数据集至data/VOCdevkit2007
!wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtrainval_06-Nov-2007.tar
!wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtest_06-Nov-2007.tar
!wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCdevkit_08-Jun-2007.tar
解压
!tar xvf VOCtrainval_06-Nov-2007.tar
!tar xvf VOCtest_06-Nov-2007.tar
!tar xvf VOCdevkit_08-Jun-2007.tar
如果使用自己的训练数据集,自行标记为voc格式,标注流程就不多赘述,需要可以自行查阅
yolo数据集标注软件安装+使用流程_道人兄的博客-CSDN博客_yolo数据集标注工具
将数据集整理成以下格式即可
其中main所放至为训练及验证txt文件,划分程序如下:
# 数据集划分集类
import os
from sklearn.model_selection import train_test_split
image_path = r'F:/111/data/VOCDevkit2007/VOC2007/JPEGImages'
image_list = os.listdir(image_path)
names = []
for i in image_list:
names.append(i.split('.')[0]) # 获取图片名
trainval,test = train_test_split(names,test_size=0.5,shuffle=446) # shuffle()中是图片总数目
validation,train = train_test_split(trainval,test_size=0.5,shuffle=446)
with open('F:/111/data/VOCDevkit2007/VOC2007/ImageSets/Main/trainval.txt','w') as f:
for i in trainval:
f.write(i+'\n')
with open('F:/111/data/VOCDevkit2007/VOC2007/ImageSets/Main/test.txt','w') as f:
for i in test:
f.write(i+'\n')
with open('F:/111/data/VOCDevkit2007/VOC2007/ImageSets/Main/validation.txt','w') as f:
for i in validation:
f.write(i+'\n')
with open('F:/111/data/VOCDevkit2007/VOC2007/ImageSets/Main/train.txt','w') as f:
for i in train:
f.write(i+'\n')
print('完成!')
(6)生成对应文件
进入 ./data/coco/PythonAPI文件夹路径,分别运行下面两条命令:
!python setup.py build_ext --inplace
!python setup.py build_ext install
进入 ./lib/utils文件夹路径,运行下面一条命令:
!python setup.py build_ext --inplace
这一步其实我报错了,如下,但是好像后面也能正常训练没什么影响,如果有影响麻烦大佬说声
!python setup.py build_ext --inplace
running build_ext
building 'lib.utils.cython_bbox' extension
x86_64-linux-gnu-gcc -pthread -Wno-unused-result -Wsign-compare -DNDEBUG -g -fwrapv -O2 -Wall -g -fstack-protector-strong -Wformat -Werror=format-security -g -fwrapv -O2 -g -fstack-protector-strong -Wformat -Werror=format-security -Wdate-time -D_FORTIFY_SOURCE=2 -fPIC -I/usr/local/lib/python3.7/dist-packages/numpy/core/include -I/lib/utils -I/usr/include/python3.7m -c ../../../lib/utils/bbox.c -o build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o
In file included from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/ndarraytypes.h:1969:0,
from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/ndarrayobject.h:12,
from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/arrayobject.h:4,
from ../../../lib/utils/bbox.c:770:
/usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/npy_1_7_deprecated_api.h:17:2: warning: #warning "Using deprecated NumPy API, disable it with " "#define NPY_NO_DEPRECATED_API NPY_1_7_API_VERSION" [-Wcpp]
#warning "Using deprecated NumPy API, disable it with " \
^~~~~~~
x86_64-linux-gnu-gcc -pthread -Wno-unused-result -Wsign-compare -DNDEBUG -g -fwrapv -O2 -Wall -g -fstack-protector-strong -Wformat -Werror=format-security -g -fwrapv -O2 -g -fstack-protector-strong -Wformat -Werror=format-security -Wdate-time -D_FORTIFY_SOURCE=2 -fPIC -I/usr/local/lib/python3.7/dist-packages/numpy/core/include -I/lib/utils -I/usr/include/python3.7m -c ../../../lib/utils/bbox.c -o build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o
In file included from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/ndarraytypes.h:1969:0,
from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/ndarrayobject.h:12,
from /usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/arrayobject.h:4,
from ../../../lib/utils/bbox.c:770:
/usr/local/lib/python3.7/dist-packages/numpy/core/include/numpy/npy_1_7_deprecated_api.h:17:2: warning: #warning "Using deprecated NumPy API, disable it with " "#define NPY_NO_DEPRECATED_API NPY_1_7_API_VERSION" [-Wcpp]
#warning "Using deprecated NumPy API, disable it with " \
^~~~~~~
x86_64-linux-gnu-gcc -pthread -shared -Wl,-O1 -Wl,-Bsymbolic-functions -Wl,-Bsymbolic-functions -g -fwrapv -O2 -Wl,-Bsymbolic-functions -g -fwrapv -O2 -g -fstack-protector-strong -Wformat -Werror=format-security -Wdate-time -D_FORTIFY_SOURCE=2 build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o -o /content/drive/MyDrive/colab/RCNN/Faster-RCNN/data/coco/PythonAPI/lib/utils/cython_bbox.cpython-37m-x86_64-linux-gnu.so
build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o:(.bss+0x0): multiple definition of `__pyx_module_is_main_lib__utils__cython_bbox'
build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o:(.bss+0x0): first defined here
build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o: In function `PyInit_cython_bbox':
/content/drive/MyDrive/colab/RCNN/Faster-RCNN/data/coco/PythonAPI/../../../lib/utils/bbox.c:4470: multiple definition of `PyInit_cython_bbox'
build/temp.linux-x86_64-3.7/../../../lib/utils/bbox.o:/content/drive/MyDrive/colab/RCNN/Faster-RCNN/data/coco/PythonAPI/../../../lib/utils/bbox.c:4470: first defined here
collect2: error: ld returned 1 exit status
error: command 'x86_64-linux-gnu-gcc' failed with exit status 1
(7)修改类别
打开lib/datasets目录中的pascal_voc.py文件,第34行self._classes表示目标检测的类别,将其修改为自己数据集的类别。注意不能修改 “_background_”,它表示图片的背景。
(8)删除缓存文件
打开源码中data/cache目录,删掉上一次训练生成的.pkl缓存文件。打开default/voc_2007_trainval/default目录,删掉上次训练生成的模型。
注意以后每次训练都要删掉上述两个文件夹中的缓存文件和模型,不删会报错的。
(9)运行
每次生成的模型都会保存在default/voc_2007_trainval/default目录下
!python train.py
报错:
第一次运行时会出现以下错误
AttributeError: module 'tensorflow' has no attribute 'app'
解决方法:
因为colab自动预装最新的TensorFlow 2.X,而源码所使用的TensorFlow是1.x的,所以我们需要将新版的卸载,并安装旧版本
!pip uninstall tensorflow
!pip install tensorflow-gpu==1.14.0
(1)添加训练模型
新建Faster-RCNN-TensorFlow-Python3-master/output/vgg16/voc_2007_trainval/default目录。把训练生成的模型(default/voc_2007_trainval/default目录下的四个文件)复制到新建目录下,并重命名为如下图:
(2)修改demo.py文件
①修改目标类别
修改demo.py文件中line32,CLASSES中的类别要修改为之前步骤中相同的类别。注意 “_background_”不要修改。
②修改网络模型
找到demo.py文件中line35、line36,将其修改为如下图所示:
③修改预训练模型
找到demo.py文件中line104,将其修改为'vgg16',如下图:
找到demo.py文件中的line148,改为自己测试用的几张图片名称。注意和data/demo目录下存放的测试图片名字一致。
(3)运行demo.py文件
mAP(mean Average Precision), 即各类别AP的平均值,反映出一个目标检测模型性能的总体精确度。
(1)修改pascal_voc.py文件
打开pascal_voc.py文件,找到line189,将"filename"内容修改为下图:
(2)修改demo.py文件
打开demo.py文件,找到line31,添加两个模块:
# 添加这两个import from lib.utils.test import test_net from lib.datasets.factory import get_imdb
添加后如图所示:
然后,找到最后一行plt.show(),在它上面添加两行代码:
# 添加这两行代码 imdb = get_imdb("voc_2007_trainval") test_net(sess, net, imdb, 'default')
添加后如图所示:
(3)运行demo.py文件
新建data/VOCDevkit2007/results/VOC2007/Main目录,然后运行demo.py文件,等待运行结束就能看到mAP指标的计算结果啦!贴出我自己模型的计算结果吧!