TensorRT基础

1. TensorRT的核心在于对模型算子的优化(合并算子、利用GPU特性选择特定核函数等)

2. tensorRT的模型需要在目标GPU上实际运行的方式选择最优算法和配置

3. tensorRT生成的模型只能在特定条件下运行(变异的trt版本、cuda版本、编译时的GPU型号)

4. 主要知识点为模型结构定义方式、编译过程配置、推理过程实现、插件实现、onnx理解

工作流程

TensorRT基础_第1张图片

用pytorch(pth)—> onnx —> trt的工作路径,可移植性高。

你可能感兴趣的:(tensorRT,CUDA,人工智能,深度学习)