pytorch日常一错

报错信息: 

RuntimeError: not allowed to set torch.backends.cudnn flags after disable_global_flags; please use flags() context manager instead

 找到报错段:

    #确保输入固定时,输出不变
    cudnn.deterministic = True
    cudnn.benchmark = Flase
    #作用:程序在开始时花费一点额外时间,但是可以为整个网络的每个卷积层搜索最适合它的卷积实现算法,实现加速。

   解决方案:

   将其直接注释掉即可,但是注释后就调用不了GPU,只能用cpu去跑,将代码中.gpu改为.cpu即可正常运行,后续报错可参考我的另一篇博客,记录了我后续整个调试过程中的错误,希望可以帮到大家。(51条消息) torch中常见的错误信息_小白小王的博客-CSDN博客

  其他方案:

    网上也有其他的解决方案,比如先检查自己的torch是否为GPU版本,然后将cudnn.benchmark 设置为 True。虽然我的torch环境是gpu版本,但是此方案不能解决我的报错,大家若想继续调用gpu,加速模型训练,可以尝试一用。

 补充:检查torch是否为gpu版本的方法:

>>> import torch
>>> print(torch.__version__)
1.8.0  #输出torch的版本
>>> print(torch.cuda.is_available())
True #输出True,即GPU版本,反之则为cpu

你可能感兴趣的:(pytorch,深度学习,人工智能)