RuntimeError: CUDA out of memory. Tried to allocate 392.00 MiB (GPU 0; 7.79 GiB total capacity; 记录

1. 问题描述
在这里插入图片描述
有一种可能真的是显存不够用,这种直接在代码中修改可以减小batch_size即可解决。

但是查看了GPU显存明明够用啊,那为什么还报错RuntimeError: CUDA out of memory.呢?这种,就算减小batch_size 也没用
RuntimeError: CUDA out of memory. Tried to allocate 392.00 MiB (GPU 0; 7.79 GiB total capacity; 记录_第1张图片
参考网友经验,原来这种情况的根本原因 是

代码指定的GPU与实际使用的GPU不一致。

你以为代码在1上跑,实际上是在已经有代码运行的其他gpu跑,因此显示显存不足。

我的解决办法是在代码里修改了这几句代码。

os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID'
os.environ['CUDA_VISIBLE_DEVICES'] = '1' 
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

然后成功运行。

记录此次bug解决,以便以后需要时查阅。

你可能感兴趣的:(ubuntu系统,python,cuda,pytorch)