yolov5 利用c++进行模型推理部署详解(openvino,tensoRT)

文章目录

    • 1. 模型导出为onnx
      • 1.1 onnx文件导出
      • 1.2 yolov5 onnx文件的导出
    • 2. 模型部署框架选择
      • 2.1 onnxruntime 推理引擎
      • 2.1.1 安装onnxruntime
      • 2.1.2 推理实现
      • 2.2 openvino 推理引擎
      • 2.2.1 安装
      • 2.2.2 推理实现
      • 2.3 tensorRT 推理引擎
      • 2.4 小结
    • 3. 图像预处理
    • 4. 后处理
      • 4.1 获得推理结果
      • 4.2 后处理decode box
      • 4.3 NMS
    • 5. 百度网盘源码

你可能感兴趣的:(object,detection,c++,openvino,深度学习)