Pytorch:测试保存训练模型时,显存充足,却提示cuda out of memory的问题

在训练网络结束后,测试训练模型,明明显存还很充足,却提示我cuda out of memory

Pytorch:测试保存训练模型时,显存充足,却提示cuda out of memory的问题_第1张图片

出现这种问题,有可能是指定GPU时出错(注意指定空闲的GPU),在排除这种情况以后,通过网上查找,说有可能是测试时的环境与训练时的环境不一样所导致,例如在网络训练时所使用的pytorch版本和测试时所使用的版本不同。由于我训练和测试用的同一虚拟环境,故排除这种情况。

还有一种说法,是因为pytorch的版本和cuda的版本不匹配所导致,经检查,也不是这方面的问题。

最后发现,在加载模型的时候,原代码为

# Initialize the network
generator = network.Name(opt)
# Load a pre-trained network
pretrained_net = torch.load(opt.load_name)
load_dict(generator, pretrained_net)

使用torch.load()时,应添加map_location,将其转移到CPU上,如下

# Initialize the network
generator = network.Name(opt)
# Load a pre-trained network
device = torch.device("cpu")
pretrained_net = torch.load(opt.load_name, map_location=device)
load_dict(generator, pretrained_net)

就可以解决了

你可能感兴趣的:(日常记录,机器学习,人工智能)