pytorch如何冻结某层参数的实现

pytorch冻结某层参数
目的:加载已经训练好的某层参数,让其不进行反向传播。
如何加载已经训练好的模型:链接

pytorch如何冻结某层参数的实现,步骤如下:
例如,我要将self.classifier = Classifer(128, num_classes) 及其以上的层给冻结掉,训练时,不反向传播。
第一步:

...
self.classifier = Classifer(128, num_classes)  #将这行及其以上的层冻结
for p in self.parameters():  #加入这两行代码                  
    p.requires_grad = False
# 下面的层仍能反向传播      
self.conv1_1 = nn.Conv2d(128, out_channels=64, kernel_size=2, stride=2, padding=0)           

第二步:

params = [p for p in model.parameters() if p.requires_grad] #加入这一行                                                                         
optimizer = torch.optim.SGD(params, lr=learning_rate,momentum= 0.9,weight_decay=1e-4) 

你可能感兴趣的:(python)