TensorRT安装及使用

TensorRT安装教程推荐这篇文章,github访问不了,就看下边csdn上的那篇:

https://arleyzhang.github.io/articles/7f4b25ce/

https://blog.csdn.net/zong596568821xp/article/details/86077553

TensorRT安装的B站视频教程https://www.bilibili.com/video/av86802077?p=2

如果出错了看是不是这个问题:https://blog.csdn.net/qq_33047753/article/details/101604686

还解决不了,可以在评论区留言,我看到就会回复

TensorRT官方安装、升级、卸载指南:https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html


 

下边的内容我是学习B站上一位UP主的教程,自己顺便记录一下学习的内容。

一、如何用TensorRT加速Tensorflow模型加速:

1、导入tensorrt

import tensorrt as trt

2、创建冻结的TensorFlow模型

3、使用UFF转换器将冻结的tensorflow模型转换为UFF文件

$convert-to-uff frozen_inference_graph.pb

4、定义路径,更改以下路径以反映Samples中包含的模型位置

>>>model_file = './data/mnist/mnsit.uff'

5、创建builder,network和parser:

with builder = trt.Builder(TRT_LOGGER) as builder,builder.create_network() as network,trt.UffParser() as parser:
    parser.register_input('Placeholder',(1,28,28))
    parser.register_output('fc2/Relu')
    parser.parse(model_file,network)

 

你可能感兴趣的:(TensorRT安装及使用)