pytorch:model save & model load

pytorch的模型保存与恢复~

首先pytorch官网doc中推荐两种方法。link

然而在需要注意的是:

方法一:

保存

torch.save(the_model.state_dict(), PATH)

恢复

the_model = TheModelClass(*args, **kwargs)

the_model.load_state_dict(torch.load(PATH))

然而这种方法只会保存模型的参数,并不会保存Epoch、optimizer、weight之类。我们需要自己导入模型的结构信息。

方法二:

保存

torch.save(the_model, PATH)

恢复

the_model = torch.load(PATH)

一个相对完整的例子

保存

torch.save({

            'epoch': epoch + 1,

            'arch': args.arch,

            'state_dict': model.state_dict(),

            'best_prec1': best_prec1,

        }, 'checkpoint.tar' )

恢复

if args.resume:

        if os.path.isfile(args.resume):

            print("=> loading checkpoint '{}'".format(args.resume))

            checkpoint = torch.load(args.resume)

            args.start_epoch = checkpoint['epoch']

            best_prec1 = checkpoint['best_prec1']

            model.load_state_dict(checkpoint['state_dict'])

            print("=> loaded checkpoint '{}' (epoch {})"                 

                           .format(args.evaluate, checkpoint['epoch']))

获取模型中某些层的参数

对于恢复的模型,如果我们想查看某些层的参数,可以:

# 定义一个网络

from collections import Ordered

Dictmodel = nn.Sequential(OrderedDict([               

                  ('conv1', nn.Conv2d(1,20,5)),

                  ('relu1', nn.ReLU()),

                  ('conv2', nn.Conv2d(20,64,5)),

                  ('relu2', nn.ReLU())

                ]))# 打印网络的结构print(model)

OUT:

Sequential (

  (conv1): Conv2d(1, 20, kernel_size=(5, 5), stride=(1, 1))

  (relu1): ReLU ()

  (conv2): Conv2d(20, 64, kernel_size=(5, 5), stride=(1, 1))

  (relu2): ReLU ()

)

如果我们想获取conv1的weight和bias:

params=model.state_dict()

for k,v in params.items():

    print(k)    #打印网络中的变量名

print(params['conv1.weight'])  #打印conv1的weight

print(params['conv1.bias']) #打印conv1的bias

你可能感兴趣的:(pytorch:model save & model load)