lr_scheduler.StepLR调整学习率机制

StepLR调整学习率机制

有的时候需要我们通过一定机制来调整学习率,这个时候可以借助于 t o r c h . o p t i m . l r s c h e d u l e r torch.optim.lr_scheduler torch.optim.lrscheduler类来进行调整;torch.optim.lr_scheduler模块提供了一些根据epoch训练次数来调整学习率(learning rate)的方法。一般情况下我们会设置随着epoch的增大而逐渐减小学习率从而达到更好的训练效果

下面介绍了一种调整策略机制:StepLR机制;
(随着 e p o c h epoch epoch增大而逐渐减小学习率从而达到更好的训练效果

torch.optim.lr_scheduler.StepLR

语法

class torch.optim.lr_scheduler.StepLR(optimizer, step_size, gamma=0.1, last_epoch=-1)

  • 更新策略
    每过 s t e p − s i z e step-size stepsize个epoch,做一次更新。
  • 参数
    • optimizer: (Optimizer): 要更改学习率的优化器。
    • step_size: (int): 每训练step_size个epoch,更新一次参数。
    • gamma: (float): 更新 l r lr lr乘法因子。
    • last_epoch (int):最后一个epoch的index,如果是训练了很多个epoch后中断了,继续训练,这个值就等于加载的模型的epoch。默认为-1表示从头开始训练,即从epoch=1开始.

代码案例

import torch
import torch.nn as nn
from torch.optim.lr_scheduler import StepLR
import itertools
 
 
initial_lr = 0.1
 
class model(nn.Module):
    def __init__(self):
        super().__init__()
        self.conv1 = nn.Conv2d(in_channels=3, out_channels=3, kernel_size=3)
 
    def forward(self, x):
        pass
 
net_1 = model()
 
optimizer_1 = torch.optim.Adam(net_1.parameters(), lr = initial_lr)
scheduler_1 = StepLR(optimizer_1, step_size=3, gamma=0.1)
 
print("初始化的学习率:", optimizer_1.defaults['lr'])
 
for epoch in range(1, 11):
    # train
 
    optimizer_1.zero_grad()
    optimizer_1.step()
    print("第%d个epoch的学习率:%f" % (epoch, optimizer_1.param_groups[0]['lr']))
    scheduler_1.step()

实现结果

初始化的学习率: 0.11个epoch的学习率:0.1000002个epoch的学习率:0.1000003个epoch的学习率:0.1000004个epoch的学习率:0.0100005个epoch的学习率:0.0100006个epoch的学习率:0.0100007个epoch的学习率:0.0010008个epoch的学习率:0.0010009个epoch的学习率:0.00100010个epoch的学习率:0.000100
 

总结

谩骂的将各种框架及其结构啥的全部都将其搞清楚,研究彻底,
会自己敲打代码,会自己将其搞定都行啦的样子与打算。

你可能感兴趣的:(模块复现,学习,python,深度学习)