nanodet训练手势识别模型

序言

前段时间nanodet爆火,以非常小的模型和运算量,取得了超过tiny-yolov4的精度,非常惊艳,因为时间问题一直没有尝试,最近有空决定尝试一下。先来看下作者给的模型效果
nanodet训练手势识别模型_第1张图片

一、nanodet安装

首先安装nanodet的环境包:

pip install Cython termcolor numpy tensorboard pycocotools matplotlib pyaml opencv-python tqdm

然后安装nanodet

git clone https://github.com/RangiLyu/nanodet.git
cd nanodet
python setup.py develop

安装结束后测试一下模型有没有问题,下载coco预训练权重密码erbn,然后运行demo查看是否安装成功:

python demo/demo.py image --config CONFIG_PATH --model MODEL_PATH --path IMAGE_PATH
  • CONFIG_PATH 是config/nanodet-m.yaml
  • MODEL_PATH 是刚才下载的权重
  • IMAGE_PATH 是测试图片路径


效果好像还不错,确认没问题后开始准备数据集。

二、准备数据集

这里使用的是自己收集的手势识别数据集,类别总共有6类,分类是:上、下、左、右、拳头、手掌,采用VOC格式标注;
nanodet训练手势识别模型_第2张图片
nanodet支持voc和coco两种格式的训练,所以这里直接按照voc格式训练,当然也可以转换为coco格式,转换代码在之前的博文中VOC格式标注转COCO格式。我的数据集目录结构为:
在这里插入图片描述
修改配置文件,将config/nanodet_custom_xml_dataset.yml复制一份,另取名为nanodet-m-shoushi.yml,按需修改以下几处:
nanodet训练手势识别模型_第3张图片在这里插入图片描述
nanodet训练手势识别模型_第4张图片
nanodet训练手势识别模型_第5张图片
修改结束后直接运行:

python tools/train.py config/nanodet-m-shoushi.yml

正常运行输出界面:
nanodet训练手势识别模型_第6张图片
最后的训练结果,好像还不错:
nanodet训练手势识别模型_第7张图片

三、效果展示

本来想上nanodet、yolov5s、yolo-fastest训练的对比的,发现上不了视频。那算了,随机截图几张看下效果图:

  • affirm 表示拳头
  • start 表示手掌

效果并不是特别理想,置信度比较低,误检和漏检比较严重,使用同样的数据集,用yolo-fastest和yolov5s训练出来的效果要远远好于nanodet,yolov5s就不用说了,和另外两个不是一个量级的,效果自然是要比较好,但是很有趣的现象是,nanodet在测试集上的map精度要比yolo-fastest高很多,但是实际摄像头的测试效果却比yolo-fastest差很多。这是不是可以说明,在一些固定背景下的检测,也许更适合用nanodet,在背景更复杂的场景,yolo-fastest泛化能力可能更强一些。

为什么要和yolo-fastest对比?作为两个压缩到极致的检测算法,还是很有必要对比一下的,感兴趣的可以看这两个优秀算法的介绍,牛逼克拉斯。

Yolo-Fastest:超超超快的开源ARM实时目标检测算法
NanoDet:轻量级(1.8MB)、超快速(移动端97fps)目标检测项目
nanodet训练手势识别模型_第8张图片
nanodet训练手势识别模型_第9张图片
nanodet训练手势识别模型_第10张图片
nanodet训练手势识别模型_第11张图片

你可能感兴趣的:(深度学习,算法)