Pytorch CUDA报错,CUDNN_STATUS_INTERNAL_ERROR的解决办法

1、博主百度无解后逛了逛Pytorch的社区,发现上面也有很多朋友碰到了该问题,他们提供的解决办法是:

sudo rm -rf ~/.nv

    删除掉nvidia缓存,并且有人说奏效,也有人说It doesn't work for me...

2、于是乎,博主发现了解决该问题的方法:(特别是实验室服务器单机多卡的情况)

    僧多粥少,大家一般都只用一块GPU,TensorFlow时代的做法是,

import os
os.environ['CUDA_ENABLE_DEVICES'] = '0'

    但是该方法在Pytorch代码并不适用,正确的操作方法是:

import torch
torch.cuda.set_device(0)


觉得有帮助的盆友们点赞哟๑乛◡乛๑

你可能感兴趣的:(Pytorch)