PyTorch用CPU加载GPU训练保存的模型

GPU的PyTorch训练保存了一个模型,用cpu的电脑加载模型的时候,出现的错误提示大概是说电脑中找不到cuda,那么怎么用CPU加载GPU训练保存的模型呢

model = torch.load('model_name.pkl',map_location='cpu')

load函数中指定map_location参数='cpu'或者=device

还是有错误,还是需要在GPU上把GPU训练的模型用保存参数的方法,保存模型的参数,在CPU上用load_dict的方法只load模型的参数,如下所示:

model = ModelClass() # 首先构造类的一个实例
model.load_state_dict(torch.load('model_path.pth', map_location='cpu'))

注意,Pytorch中保存和加载模型有两种方法:
方式(1)保存模型的参数,官方推荐⭐️

# 保存模型参数
torch.save(model.state_dict(), 'model_path.pth')
 
# 加载模型参数
model.load_state_dict(torch.load('model_path.pth'))

方式(2)保存整个模型

# 保存模型
torch.save(model, 'model.pth')
 
# 加载模型
model = torch.load('model.pth')

官方推荐方式(1)保存模型的参数,两种方式的保存和加载不能混用,例如方式(1)保存的模型加载的时候只能用方式(1)的加载来加载,不能用方式(2)的加载方式来加载

如果想了解更多的CPU和GPU的模型互相加载的方式,可以参考下面的链接:
https://blog.csdn.net/ytusdc/article/details/122137188

感谢大家的阅读,喜欢的小伙伴可以点赞、收藏、转发啊

你可能感兴趣的:(pytorch,深度学习)