Pytorch获取无梯度TorchTensor中的值

获取无梯度Tensor

遇到的问题:使用两个网络并行运算,一个网络的输出值要给另一个网络反馈。而反馈的输出值带有网络权重的梯度,即grad_fn=.
这时候如果把反馈值扔到第二网络中更新,会出现第一个计算图丢失无法更新的错误。哎哟喂,我根本不需要第一个网络的梯度好吗?
一开始用了一个笨办法,先转numpy,然后再转回torch.Tensor。因为numpy数据是不带梯度的。
但是我的原始tensor的放在cuda上的,cuda的张量是不能直接转Tensor,所以:

t_error = td_error.cuda().data.cpu().numpy()
t_error = torch.FloatTensor(t_error).to(device)

从cuda转回了cpu,变成numpy,又转成了tensor,又回到了cuda上,坑爹呢这是,可能只有我才能写出如此低效的辣鸡代码了。
后来发现,其实直接在返回的时候添加

with torch.no_grad():
	td_error = reward + GAMMA * v_ - v

即可.

你可能感兴趣的:(Python)