在使用nvidia tao工具时候,涉及的模型文件.bin和.engine以及.etlt文件之间的关系和区别

在使用nvidia tao工具时候,涉及的模型文件.bin和.engine以及.etlt文件之间的关系和区别

    • 1.bin文件和engine文件
    • 2.bin和engine哪个运行效率高?
    • 3.转换脚本tao-converter
    • 4.举例说明bin文件和engine文件的区别

注意、注意:

通过测试发现了etlt模型是直接可以在deepstream中运行的,之前没有测试成功的原因是unet是分割模型,我们需要用到分割的demo(deepstream_seg_app进行加载)etlt模型有点类似pth,所以加载速度很慢,而且根据配置会自动生成engine文件,我们第二次进行,deepstram-app不能直接加载分割模型,需要进行额外配置才可以。(待补充)
推荐转换为bin,这样理论上只要tensorrt版本一样就可以部署运行,没有bin这个模型,bin和engine是同一个,只是后缀不一样罢了。

所以一下内容不做参考:切记切记

1.bin文件和engine文件

在深度学习中,通常有两个主要的推理阶段,即模型推理和加速推理。模型推理阶段通常使用的是常规的深

你可能感兴趣的:(深度学习,人工智能,神经网络,ubuntu,NVIDIA,Jetson)