1. 问题描述
有一种可能真的是显存不够用,这种直接在代码中修改可以减小batch_size即可解决。
但是查看了GPU显存明明够用啊,那为什么还报错RuntimeError: CUDA out of memory.呢?这种,就算减小batch_size 也没用。
参考网友经验,原来这种情况的根本原因 是
代码指定的GPU与实际使用的GPU不一致。
你以为代码在1上跑,实际上是在已经有代码运行的其他gpu跑,因此显示显存不足。
我的解决办法是在代码里修改了这几句代码。
os.environ['CUDA_DEVICE_ORDER'] = 'PCI_BUS_ID'
os.environ['CUDA_VISIBLE_DEVICES'] = '1'
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
然后成功运行。
记录此次bug解决,以便以后需要时查阅。