pytorch各种学习率衰减器

各种学习率衰减器

各类衰减器文档:【here】

指数衰减

torch.optim.lr_scheduler.ExponentialLR(optimizer, gamma=0.98)

pytorch各种学习率衰减器_第1张图片
一般将last_epoch 设置成-1,verbose设置成FALSE
学习率调整公式:在这里插入图片描述
pytorch各种学习率衰减器_第2张图片

固定步长衰减

torch.optim.lr_scheduler.StepLR(optimizer, step_size=step_size, gamma=0.1)
参数:
optimizer (Optimizer):的优化器;
step_size(int):更新epoch;
gamma(float):更新lr的乘法因子;
last_epoch (int):默认-1
pytorch各种学习率衰减器_第3张图片

多步长衰减

torch.optim.lr_scheduler.MultiStepLR(optimizer,milestones=[2050], gamma=0.8)

pytorch各种学习率衰减器_第4张图片
pytorch各种学习率衰减器_第5张图片

余弦退火衰减

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=60, eta_min=0)

pytorch各种学习率衰减器_第6张图片
T_max为余弦函数的一个半周期
pytorch各种学习率衰减器_第7张图片

函数衰减

lambda1 = lambda i: 0.1 * i
torch.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_epoch=-1, verbose=False)
#lr = lr *lamda

pytorch各种学习率衰减器_第8张图片

自适应调整衰减

torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer, mode='min', factor=0.1, patience=10, verbose=False, threshold=0.0001, threshold_mode='rel', cooldown=0, min_lr=0, eps=1e-08)

pytorch各种学习率衰减器_第9张图片

warm up

先将学习率从很小的值逐渐上升,再用现有的学习率衰减器

预热余弦退火

torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer, T_0=20, T_mult=2, eta_min=0.01)

pytorch各种学习率衰减器_第10张图片
T_0和T_mult的不同设置的比较
pytorch各种学习率衰减器_第11张图片

你可能感兴趣的:(深度学习基础知识,pytorch,学习,python)