关于这个报错的意思是:有一个参数不需要计算导数
此torch.autograd.grad
函数参数如下:outputs,inputs,函数功能是求outputs关于inputs的导数,此处的inputs需要加requires_grad_()
定义:
v = Variable(v).to(device).requires_grad_()
在loss.backward()
中报错:显然是因为此处的loss不是标量而是张量,经过反复检查发现model采用nn.DataParallel
导致loss是一个张量长度为cuda数量。因此删除如下代码:
model = nn.DataParallel(model).to(device)