【Pytorch学习笔记】Optimizer梯度下降_参数组创建示例

文章目录

  • 一、代码示例分步
    • 1.引入库
    • 2.生成随机矩阵
    • 3.一个参数组
    • 4. 两个参数组
  • 二、完整示例代码如下
  • 总结



提示:以下是本篇文章正文内容,下面案例可供参考

一、代码示例分步

1.引入库

代码如下(示例):

# coding: utf-8

import torch
import torch.optim as optim

2.生成随机矩阵

代码如下(示例):

w1 = torch.randn(2, 2)
w1.requires_grad = True

w2 = torch.randn(2, 2)
w2.requires_grad = True

w3 = torch.randn(2, 2)
w3.requires_grad = True

3.一个参数组

代码如下(示例):

optimizer_1 = optim.SGD([w1, w3], lr=0.1)
print('len(optimizer.param_groups): ', len(optimizer_1.param_groups))
print(optimizer_1.param_groups, '\n')

4. 两个参数组

optimizer_2 = optim.SGD([{'params': w1, 'lr': 0.1},
                         {'params': w2, 'lr': 0.001}])
print('len(optimizer.param_groups): ', len(optimizer_2.param_groups))
print(optimizer_2.param_groups)

二、完整示例代码如下

# coding: utf-8

import torch
import torch.optim as optim


w1 = torch.randn(2, 2)
w1.requires_grad = True

w2 = torch.randn(2, 2)
w2.requires_grad = True

w3 = torch.randn(2, 2)
w3.requires_grad = True

# 一个参数组
optimizer_1 = optim.SGD([w1, w3], lr=0.1)
print('len(optimizer.param_groups): ', len(optimizer_1.param_groups))
print(optimizer_1.param_groups, '\n')

# 两个参数组
optimizer_2 = optim.SGD([{'params': w1, 'lr': 0.1},
                         {'params': w2, 'lr': 0.001}])
print('len(optimizer.param_groups): ', len(optimizer_2.param_groups))
print(optimizer_2.param_groups)


总结

以上仅供学习参考。

你可能感兴趣的:(深度学习,pytorch,python,pytorch,学习,深度学习,机器学习)