四、yolov8模型导出和查看

yolv8模型导出

1、找到engine文件夹下的exporter.py文件。
四、yolov8模型导出和查看_第1张图片
四、yolov8模型导出和查看_第2张图片

2、修改文件夹路径,改为我们训练结束后生成的文件夹。
四、yolov8模型导出和查看_第3张图片
3、打开default.yaml文件夹,找到format参数,修改为onnx,找到batch改为1,然后返回exporter.py文件,运行,导出onnx模型,方便trt和onnxruntime部署。
四、yolov8模型导出和查看_第4张图片
四、yolov8模型导出和查看_第5张图片
四、yolov8模型导出和查看_第6张图片

4、以上就是一个模型导出的完整流程;然而有人想要用openvino部署,需要导出vino模型。同样,打开default.yaml文件夹,找到batch改为1,找到format参数,修改为openvino;导出openvino可调用模型,
四、yolov8模型导出和查看_第7张图片
四、yolov8模型导出和查看_第8张图片

四、yolov8模型导出和查看_第9张图片

5、查看模型,通过网站https://netron.app/打开刚才生成的onnx,点击images,可以看到batch为1。

四、yolov8模型导出和查看_第10张图片

四、yolov8模型导出和查看_第11张图片

你可能感兴趣的:(win10+yolov8分割,C++,TRT和vino部署,YOLO,深度学习,人工智能)