基于Ubuntu的yolov4 环境配置以及效果实测

我目前主要“研究”的是语义分割。因为实习的原因,现在开始着手学习目标检测。打个卡,纪念我实习的第一次。

最近yolov4 开源了,各路大神都开始秀操作了。工业上也不例外。于是,我接到了实习的第一个任务:测试一下yolov4的性能,看有没有可能引进到工业上。

paper:https://arxiv.org/pdf/2004.10934.pdf 

code:https://github.com/AlexeyAB/darknet

我们将源码下载下来以后:

可以先修改一下Makefile里面的文件:

基于Ubuntu的yolov4 环境配置以及效果实测_第1张图片 

修改如下:这样是为了调用你的GPU以及opencv

基于Ubuntu的yolov4 环境配置以及效果实测_第2张图片

当然设置的前提是你已经安好了cuda  cudnn  以及opencv。不然make的时候报错会把你安排到怀疑人生。(别问我为什么知道  哈哈哈)

接着就是编译可执行文件了:

make

如果没有错的话 会生成一个类似于windows里的可执行文件:darknet

然后我们在测试一下该文件:

./darknet

如果编译成功,则出现

usage: ./darknet

然后。你还需要下载一波yolov4的权重。这个需要科学上网才行,不然太慢了。当然,你也可以私信我  我发给你  哈哈哈。不过我觉得现在网上应该很多了。

接着我们就可以从3个方面来测试了:

1,测试图片:

我用的是官方源码里面提供的数据:

./darknet detect cfg/yolov4.cfg yolov4.weights data/dog.jpg

 

2,测试video:

./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights data/ILSVRC2015_train_00755001.mp4 -thresh 0.2

我用了ILSVRC的数据集在gtx2080上跑下来fps大约在45左右。对小目标还是比较敏感。但是请假了师兄,一般工业上要达到100fps才会引入做修改。所以,yolov4  目前在我实习的公司不会被考虑了  哈哈。PS:-thresh 0.2  是指大于0.2概率的框都输出。结果如下:

 

基于Ubuntu的yolov4 环境配置以及效果实测_第3张图片基于Ubuntu的yolov4 环境配置以及效果实测_第4张图片

3、调用本地摄像头实时检测。

./darknet detector demo cfg/coco.data cfg/yolov4.cfg yolov4.weights 

好了,目前就是这样了。要是有小伙伴能够在目标检测方面多加指点的话  感激不尽。哈哈哈。

你可能感兴趣的:(深度学习,深度学习,人工智能)