pytorch基础---cudnn.benchmark和cudnn.deterministic以及如何禁用cudnn

使用cudnn.benchmark和cudnn.deterministic

在很多情况下我们都能看到代码里有这样一行:

torch.backends.cudnn.benchmark = true

而且大家都说这样可以增加程序的运行效率。那到底有没有这样的效果,或者什么情况下应该这样做呢?

解决办法
总的来说,大部分情况下,设置这个 flag 可以让内置的 cuDNN 的 auto-tuner 自动寻找最适合当前配置的高效算法,来达到优化运行效率的问题

一般来讲,应该遵循以下准则:

  • 如果网络的输入数据维度或类型上变化不大,设置 torch.backends.cudnn.benchmark = true
    可以增加运行效率;
  • 如果网络的输入数据在每次 iteration 都变化的话,会导致 cnDNN 每次都会去寻找一遍最优配置,这样反而会降低运行效率。

pytorch基础---cudnn.benchmark和cudnn.deterministic以及如何禁用cudnn_第1张图片

禁用cudnn

CUDNN_STATUS_EXECUTION_FAILED
问题代码:

错误信息:
RuntimeError: cuDNN error: CUDNN_STATUS_EXECUTION_FAILED
解决方法:
在网络后面增加:torch.backends.cudnn.enabled=False

你可能感兴趣的:(pytorch,cudnn,pytorch)