onnx->tensorRT模型转换错误集

onnx->tensorRT模型转换错误集

1.tensorrt.tensorrt.ICudaEngine

TypeError: deserialize_cuda_engine(): incompatible function arguments. The following argument types are supported:
   1. (self: tensorrt.tensorrt.Runtime, serialized_engine: buffer) -> tensorrt.tensorrt.ICudaEngine

Invoked with: , None

函数定位:set_memory_pool_limit ->原因:模型太大,设置限制的值过小
config.set_memory_pool_limit(trt.MemoryPoolType.WORKSPACE, 4096*(1 << 20))
设置最大工作空间大小,层实现需要一个临时工作空间,并且此参数限制了网络中任何层可以使用的最大大小;
当提供的工作空间不足,TensorRT 可能无法找到层的实现;

你可能感兴趣的:(tensorRT部署模型,tensorRT部署模型,onnx转换tensorRT)