保存模型有两种最基本的方式:
1、保存整个网络: torch.save(net, path1)
加载网络:model=torch.load(path1)
2、只保存网络参数:torch.save(net.state_dict(),path2)
加载网络参数:model.load_state_dict(torch.load(path2))
这种方式是官方推荐的方法,运行速度快,且占空间较小。需要注意的是 net.state_dict() 是将网络参数保存为字典形式(OrderedDict),load_state_dict() 加载的并不是网络参数的pth文件,而是字典。
代码:
import torchvision
import torch
# 加载torchvision中自带的vgg16网络
vgg16 = torchvision.models.vgg16(pretrained=False)
# 保存模型
torch.save(vgg16, "vgg16.pth")
# 加载模型
model=torch.load("vgg16.pth")
# 打印模型
print(model)
# 保存模型参数
torch.save(vgg16.state_dict(),"vgg16_para.pth")
##################################################
# 不建议这样写,虽然可以运行,但会报错
# 加载模型参数
vgg16_para=torch.load("vgg16_para.pth")
# 加载字典
vgg16.load_state_dict(torch.load(vgg16_para))
##################################################
# 应该这样写,不会有问题
# 加载模型,前提是vgg16的模型结构已经定义好了
vgg16.load_state_dict(torch.load("vgg16_para.pth"))
model=vgg16
print(model)
# 打印模型参数
print(vgg16_para)
保存模型的后缀有 .pth、.pt、.pkl、.ckpt 等多种格式,这些后缀都可以使用且没有什么区别,保存的模型大小也一样。以下写法没有区别:
torch.save(vgg16, "vgg16.pt")
torch.save(vgg16,"vgg16.ckpt")
torch.save(vgg16,"vgg16.pth")
torch.save(vgg16,"vgg16.pkl")
且不同后缀保存的文件大小也完全相等:
这样看的话只保存参数只比保存整个网络模型小 7 KB,似乎也不差这点存储空间。
通过打印模型就可以清晰地看到模型的结构。
打印模型:print(model)
打印模型参数:print(vgg16_para)
有时候无法用 print(model) 查看模型结构,也可以用 model.children() 方法逐层打印模型:
for i in model.children():
print(i)
两种方法得到的模型结构是一样的。
网络模型:
# print(model)
VGG(
(features): Sequential(
(0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(1): ReLU(inplace=True)
(2): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(3): ReLU(inplace=True)
(4): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(5): Conv2d(64, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(6): ReLU(inplace=True)
(7): Conv2d(128, 128, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(8): ReLU(inplace=True)
(9): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(10): Conv2d(128, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(11): ReLU(inplace=True)
(12): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(13): ReLU(inplace=True)
(14): Conv2d(256, 256, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(15): ReLU(inplace=True)
(16): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(17): Conv2d(256, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(18): ReLU(inplace=True)
(19): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(20): ReLU(inplace=True)
(21): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(22): ReLU(inplace=True)
(23): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
(24): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(25): ReLU(inplace=True)
(26): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(27): ReLU(inplace=True)
(28): Conv2d(512, 512, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
(29): ReLU(inplace=True)
(30): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
)
(avgpool): AdaptiveAvgPool2d(output_size=(7, 7))
(classifier): Sequential(
(0): Linear(in_features=25088, out_features=4096, bias=True)
(1): ReLU(inplace=True)
(2): Dropout(p=0.5, inplace=False)
(3): Linear(in_features=4096, out_features=4096, bias=True)
(4): ReLU(inplace=True)
(5): Dropout(p=0.5, inplace=False)
(6): Linear(in_features=4096, out_features=1000, bias=True)
)
)
参数: