cpu运行gpu上的pytorch 报错:AssertionError:torch not compiled with cuda enabled

在所有torch.load后面加map_location=torch.device('cpu'):

torch.load(xx, map_location=torch.device('cpu')) 

今天知道一句话:存储方面,能在 device='cpu' 上面做的事情,就别在 device='cuda'上面做。

再把关于cuda(CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。)的注释掉。

还有一些转为cuda的也要删除,如:

torch.from_numpy(im_).cuda()要改为torch.from_numpy(im_)
 

你可能感兴趣的:(Pycharm报错)