deepstream结合tensorrt推理过程,以及对tensorrt的理解,以及如何自己写一个类似基于deepstream的yolov5的so库的插件,nvdsinfer_custom_impl

deepstream结合tensorrt推理过程

1,deepstream的推理支持caffe和uff模型支持的比较好,因为已经内置了模型生成的库,只需要给定网络caffemodel权重文件和uff-input-blob-name=Input矩阵输入以及output-blob-names=MarkOutput_0矩阵输出即可, 如果需要后处理再通过后处理配置后处理函数,后处理函数不管在哪种模型情况下都需要自定义实现的;
2,而自定义的网络模型需要给定网络的cfg配置文件和wts权重文件,自己通过tensorrt实现转换engine的过程,但是需要根据ds提供的接口定义来实现转换过程,这样保存engine等不必要的过程就可以省略了。

Following properties are mandatory when engine files are not specified(当没有指定引擎文件时,以下属性是强制性的。):

  • Caffemodel mandatory properties: model-file, proto-file,output-blob-names
  • UFF: uff-file, input-dims, uff-input-blob-name,output-blob-names
  • ONNX: onnx-file

parse-bbox-func-name:后处理函数
output-blob-names:定义了输出层的信息,通过名字找到输出层
blod是caffe中特有的一种特性,blob是caffe中的基本数据结构,简单理解就是一个“4维数组”。

问答:engine文件直接可以进行推理推理使用,它包含了网络和权重信息<

你可能感兴趣的:(pytorch,深度学习,人工智能,deepstream,计算机视觉)