[Pytorch] 参数保存剖析

一般Pytorch会将训练好的模型保存至 xxx.pth 文件中
常用命令:
torch.load()
torch.save()

详细解剖其内部:
.pth 文件实质上是一个简单的字典文件

module.features.0.weight 
module.features.0.bias
module.features.1.weight 
module.features.1.bias 
module.features.1.running_mean
module.features.1.running_var
module.features.3.weight
module.features.3.bias
module.features.4.weight 
module.features.4.bias 
module.features.4.running_mean 
module.features.4.running_var
....
module.classifier.weight
module.classifier.bias
DataParallel(
  (module): VGG(
    # 这里的 'features' 其实是自定的名称,下面的'classifier' 同理
    (features): Sequential(
      (0): Conv2d(3, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))  # 对应上面的 features.0.weight, bias 
      (1): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True) # 对应上面的 *.1.*
      (2): ReLU(inplace)  # 激活曾没有参数所以直接跳过
      (3): Conv2d(64, 64, kernel_size=(3, 3), stride=(1, 1), padding=(1, 1))
      (4): BatchNorm2d(64, eps=1e-05, momentum=0.1, affine=True)
      (5): ReLU(inplace)
      (6): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), dilation=(1, 1), ceil_mode=False)  # 池化曾也没有参数
...
      (43): MaxPool2d(kernel_size=(2, 2), stride=(2, 2), dilation=(1, 1), ceil_mode=False)
      (44): AvgPool2d(kernel_size=1, stride=1, padding=0, ceil_mode=False, count_include_pad=True)
    )
    (classifier): Linear(in_features=512, out_features=10, bias=True)
  )
)

上面的DataParallel 是因为添加了
net = torch.nn.DataParallel(net)
这个操作使得网络可以在多GPU 上训练

VGG(
....
)

pytorch 的参数存储十分简单,如果你想自定义载入的话,直接修改net.state_dict()中的参数就可以了,和python的字典处理一样

你可能感兴趣的:([Pytorch] 参数保存剖析)