pytorch冻结某层参数
目的:加载已经训练好的某层参数,让其不进行反向传播。
如何加载已经训练好的模型:链接
pytorch如何冻结某层参数的实现,步骤如下:
例如,我要将self.classifier = Classifer(128, num_classes) 及其以上的层给冻结掉,训练时,不反向传播。
第一步:
...
self.classifier = Classifer(128, num_classes) #将这行及其以上的层冻结
for p in self.parameters(): #加入这两行代码
p.requires_grad = False
# 下面的层仍能反向传播
self.conv1_1 = nn.Conv2d(128, out_channels=64, kernel_size=2, stride=2, padding=0)
第二步:
params = [p for p in model.parameters() if p.requires_grad] #加入这一行
optimizer = torch.optim.SGD(params, lr=learning_rate,momentum= 0.9,weight_decay=1e-4)