2_pytorch_变量

神经网络中的参数都是以变量呈现的

# 神经网络中的参数是以变量呈现的
import torch
from torch.autograd import Variable

tensor = torch.FloatTensor([[1, 2], [3, 4]])

# Variable相当于一个搭建的图纸,requires_grad=True代表要把Variable涉及到反向传播中去,就会计算Variable节点的梯度
variable = Variable(tensor, requires_grad=True)

# 不一样体现在计算中
t_out = torch.mean(tensor*tensor)
v_out = torch.mean(variable*variable)

# print(t_out)
# print(v_out)
# tensor(7.5000)
# tensor(7.5000, grad_fn=)

# variable误差的反向传递
v_out.backward()
# 打印更新后的梯度 (variable/2)
print(variable.grad)

# 输出:
# tensor([[0.5000, 1.0000],
        # [1.5000, 2.0000]])

你可能感兴趣的:(莫烦pytorch学习笔记,python,pytorch,神经网络,卷积神经网络)