torch.autograd.grad与w.backward区别

torch.autograd.grad与w.backward区别

作用:两者都是求解参数在某点的梯度值
autorgrad.grad参数为 第一个:目标函数 第二个:待求解的自变量参数
backward不需要传入参数,只需要直接调用他 由目标函数tensor调用
二者主要区别:
autorgrad.grad返回值为参数的梯度信息tensor
backward没有返回值,它将梯度信息自动保存到原来自变量参数tensor的grad属性中

你可能感兴趣的:(笔记,torch随笔)