Jetson Nano 部署(1):YOLOv5 目标检测实战介绍

系列博文介绍:如何将YOLOv5部署到Nvidia的Jetson Nano 开发版上,对视频进行目标检测处理
Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第1张图片

YOLOv5介绍

Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第2张图片
YOLOv5是最近非常流行的目标检测深度学习算法,与其他深度学习算法如EfficientDet相比,其在推理速度和精度上均有较好的性能。本博文针对YOLOv5 4.0进行实战部署介绍,YOLOv5 4.0有4个版本分别为s, m,l,x,本文介绍如何将YOLOv5s部署到Jetson Nano开发版上。如果想对YOLOv5原理的了解,可参考博客:YOLOv5 原理及实战介绍

Jetson Nano部署环境

Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第3张图片
上图是搭建的Jetson Nano开发平台,红框部分就是开发版,连接有网线、摄像头、以及键盘、鼠标。

Nvidia 视频分析软件栈

Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第4张图片
上图所示是Nvidia视频分析的软件栈的架构:底下的是的计算平台比如JetsonT4等,再上面一层是CUDA-X包括CUDA、Tensor RT、Triton Inference Server、MultiMedia, 再上面是DeepStream SDK ,最上面的是Pytho API 以及C++ API为应用和服务提供相关接口。

TensorRT 部署流程

Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第5张图片

TensorRT 部署流程
  • (1)在台式机或服务器上训练深度学习模型
  • (2) 保存训练得到的模型权重
  • (3) 使用TensorRT对模型进行优化
  • (4) 获得优化后的engine文件
  • (5) 利用TensorRT engine对推理进行加速

Jetson Nano 部署(1):YOLOv5 目标检测实战介绍_第6张图片
我们需要将训练好的yolov5s权重文件转换为wts文件格式,然后通过build转换为Tensorrt的engine文件,就能对我们输入的Tensors进行加速处理得到推理的输出结果。

Jetson Nano部署效果演示

tensort1

你可能感兴趣的:(模型部署,目标检测,深度学习,计算机视觉)