Pytorch中torch.autograd.Variable的用法

简介

构建神经网络的计算图时,需用orch.autograd.Variable将Tensor包装起来,形成计算图中的节点。backward()自动计算出所有需要的梯度。来针对某个变量执行grad获得想要的梯度值。

1

Variable是torch.autograd中很重要的类。它用来包装Tensor,将Tensor转换为Variable之后,可以装载梯度信息。pytorch的一个重要特点就是动态计算图,计算图中每一个节点代表一个变量,变量间建立运算关系并且可以修改,而不像Tensorflow中的计算图是固定不可变的。

.data——获得该节点的值,即Tensor类型的值

.grad——获得该节点处的梯度信息
Pytorch中torch.autograd.Variable的用法_第1张图片

2

Variable的参数为“requires_grad”和“grad_fn”:

(1)requires_grad的值为:True和False,True代表tensor变量需要计算梯度,False代表不需要。默认值为False。

(2)grad_fn的值该变量是否是一个计算结果,即该变量是不是一个函数的输出值。若是,则grad_fn返回一个与该函数相关的对象,否则是None。

你可能感兴趣的:(基础知识,深度学习)