optimizer.step() 和 scheduler.step() 的区别

定义:

optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 优化器使用 Adam。第一个参数是待优化的参数,一般为网络的权重
scheduler = torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min',factor=0.7, patience=5,min_lr=0.00001)

区别

optimizer.step() 是对模型参数进行更新
scheduler.step() 是对学习率进行更新

你可能感兴趣的:(跑程序,pytorch,深度学习,神经网络)