计算图是用来描述运算的有向无环图
计算图有两个主要元素:节点(Node)和边(Edge)
节点表示数据, 如向量, 矩阵, 张量,
边表示运算, 如加减乘除卷积等
用计算图表示: y=(x+w) * (w + 1)
a = x + w
b = w + 1
y = a * b
y = (x + w) * (w + 1)
a = x + w
b = w + 1
y = a * b
叶子节点: 用户创建的节点称为叶子节点,如w和x
is_leaf: 指示张量是否为叶子节点
这是为了节省内存,因为在梯度反向传播之后,非叶子节点的梯度会被释放掉,以节省内存开销。
import torch
w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], requires_grad=True)
a = torch.add(w, x)
b = torch.add(w, 1)
y = torch.mul(a, b)
y.backward()
print(w.grad)
#查看叶子节点
print("is_leaf:\n", w.is_leaf, x.is_leaf, a.is_leaf, b.is_leaf, y.is_leaf)
#查看梯度
print("gradient:\n", w.grad, x.grad, a.grad, b.grad, y.grad)
#查看grad_fn
#print("grad_fn: \n", w.grad_fn, x.grad_fn, a.grad_fn, b.grad_fn, y.grad_fn)
'''
tensor([5.])
is_leaf:
True True False False False
gradient:
tensor([5.]) tensor([2.]) None None None
'''
import torch
w = torch.tensor([1.], requires_grad=True)
x = torch.tensor([2.], requires_grad=True)
a = torch.add(w, x)
a.retain_grad() #保存梯度
b = torch.add(w, 1)
y = torch.mul(a, b)
y.backward()
print(w.grad)
#查看叶子节点
print("is_leaf:\n", w.is_leaf, x.is_leaf, a.is_leaf, b.is_leaf, y.is_leaf)
#查看梯度
print("gradient:\n", w.grad, x.grad, a.grad, b.grad, y.grad)
#查看grad_fn
#print("grad_fn: \n", w.grad_fn, x.grad_fn, a.grad_fn, b.grad_fn, y.grad_fn)
'''
tensor([5.])
is_leaf:
True True False False False
gradient:
tensor([5.]) tensor([2.]) tensor([2.]) None None
'''
grad_fn: 记录创建该张量时使用的方法(函数)
y.grad_fn =
a.grad_fn =
b.grad_fn =
grad_fn:
None None <AddBackward0 object at 0x000002D5D935EF60> <AddBackward0 object at 0x000002D5D935E0B8> <MulBackward0 object at 0x000002D5D935EC88>
计算图是用来描述运算的有向无环图
计算图有两个主要元素:节点(Node)和边(Edge)
节点表示数据, 如向量, 矩阵, 张量,
边表示运算, 如加减乘除卷积等
根据计算图搭建方式,可将计算图分为动态图和静态图
动态图:运算与搭建同时进行。灵活 易调节
静态图:先搭建图,后运算。 高效 不灵活