TensorRT8 meets Python(三) Onnx+TensorRT推理(案例基于yolov5 6.0)
1.前言在前面两篇我们介绍了TensorRT的环境部署以及TensorRT的功能性介绍。在使用tensorRT的时候,最常见的方式就是各种训练框架都基于Onnx来做中间转换,通过Onnx来生成TensorRTengine,进而享受到TensorRT的推理速度。所以本文就以常见的检测模型yolov56.0来进行TensorRT模型的部署。整体测试都是基于TensorRTpythonbackend,在