【问题】——Tesla P4 docker 部署pytorch模型时,推理速度慢

【问题】——Tesla P4 docker 部署pytorch模型时,推理速度慢_第1张图片用docker部署GPU pytorch 推理,mobilenetv2模型,224*244的输入,时间需要:

size:224*224 | 平均耗时为:0.223
size:640*480 | 平均耗时为:0.436
size:1080*720 | 平均耗时为:0.633
size:1920*1080 | 平均耗时为:0.827

torch.cuda.is_available() 检查=True

解决方案

你可能感兴趣的:(docker)