关注并星标
从此不迷路
计算机视觉研究院
公众号ID|ComputerVisionGzq
学习群|扫码在主页获取加入方式
计算机视觉研究院专栏
作者:Edison_G
使用OpenCV部署yolov5v-v6.1目标检测,包含C++和Python两个版本的程序。
使用ONNXRuntime部署yolov5-v6.1目标检测,包含C++和Python两个版本的程序。
支持yolov5s,yolov5m,yolov5l,yolov5n,yolov5x, yolov5s6,yolov5m6,yolov5l6,yolov5n6,yolov5x6的十种结构的yolov5-v6.1。
转换生成onnx文件的方法
2021年9月在github上发布了一套使用ONNXRuntime部署anchor-free系列的YOLOR,依然是包含C++和Python两种版本的程序。起初我是想使用OpenCV部署的,但是opencv读取onnx文件总是出错,于是我换用ONNXRuntime部署。
YOLOR是一个anchor-free系列的YOLO目标检测,不需要anchor作为先验。本套程序参考了YOLOR的官方程序(https://github.com/WongKinYiu/yolor), 官方代码里是使用pytorch作为深度学习框架的。根据官方提供的.pth文件,生成onnx文件后,我本想使用OpenCV作为部署的推理引擎的,但是在加载onnx 文件这一步始终出错,于是我决定使用ONNXRuntime作为推理引擎。在编写完Python版本的程序后, 在本机win10-cpu环境里,在visual stdio里新建一个c++空项目,按照csdn博客里的文章讲解来配置onnxruntime, 配置的步骤跟配置Opencv的步骤几乎一样。在编写完c++程序后,编译运行,感觉onnxruntime的推理速度要比 opencv的推理速度快,看来以后要多多使用onnxruntime作为推理引擎了,毕竟onnxruntime是微软推出的专门针对 onnx模型做推理的框架,对onnx文件有着最原生的支持。本套程序里的onnx文件链接:https://pan.baidu.com/s/1Mja0LErNE4dwyj_oYsOs2g,提取码:qx2j
Github地址是:https://github.com/hpc203/yolor-onnxruntime
具体的文章可以阅读:
YoloV5一系列实践详情,Github代码已开源
Github地址:https://github.com/hpc203/yolov5-v6.1-opencv-onnxrun
© THE END
转载请联系本公众号获得授权
计算机视觉研究院学习群等你加入!
计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!
扫码关注
计算机视觉研究院
公众号ID|ComputerVisionGzq
学习群|扫码在主页获取加入方式
往期推荐
IoU优化——在Anchor-Free中提升目标检测精度(附源码)
微软提出DeepNet:把Transformer提升到了1000层,目标检测领域新的希望(附源代码)
Swim-Transform V2:用于目标检测,视觉大模型不再是难题(附源代码)
GiraffeDet:对目标检测中对Neck进行优化提升最终精度
深度学习目标检测在实际场景中的应用(附源代码)
Label,Verify,Correct:一种简单的Few Shot 目标检测方法
SPARSE DETR:具有可学习稀疏性的高效端到端目标检测(源代码下载)
自适应特征融合用于Single-Shot目标检测(附源代码下载)
目标检测:SmartDet、Miti-DETR和Few-Shot Object Detection