RuntimeError: grad can be implicitly created only for scalar outputs

这个的原因是梯度只能为标量(即一个数)输出隐式地创建

也就是说传递的时候loss.backward()需要加上一个参数

loss.backward(torch.ones_like(loss))

这样就可以啦

你可能感兴趣的:(实验室的xml,深度学习,人工智能,pytorch)