PyTorch优化函数

PyTorch优化器导入

文章目录

  • 一、导入PyTorch
  • 二、定义模型
  • 三、导入优化器
    • 导入优化器1 :梯度下降法SGD
    • 导入优化器2 :SGD+momentum
    • 导入优化器3 :Adagrad
    • 导入优化器4 :RMSprop
    • 导入优化器5 :Adadelte
    • 导入优化器6 :Adam

一、导入PyTorch

import torch
import torch.nn as nn

二、定义模型

net = nn.Sequential(
    nn.Linear(20,30),
    nn.ReLU(),
    nn.Linear(30,10),
    nn.ReLU()
)

三、导入优化器

导入优化器1 :梯度下降法SGD

optimzier1 = torch.optim.SGD(net.parameters(), 1e-2)

导入优化器2 :SGD+momentum

PyTorch优化函数_第1张图片

optimzier2 = torch.optim.SGD(net.parameters(), lr=1e-2, momentum = 0.9)

导入优化器3 :Adagrad

PyTorch优化函数_第2张图片

optimzier3 = torch.optim.Adagrad(net.parameters(),lr=1e-2)

导入优化器4 :RMSprop

PyTorch优化函数_第3张图片

optimzier4 = torch.optim.RMSprop(net.parameters(),lr=1e-2, alpha=0.9)

导入优化器5 :Adadelte

PyTorch优化函数_第4张图片

optimzier5 = torch.optim.Adadelta(net.parameters(),rho=0.9)

导入优化器6 :Adam

PyTorch优化函数_第5张图片

optimzier4 = torch.optim.Adam(net.parameters(),lr=1e-3)

你可能感兴趣的:(PyTorch)