RuntimeError: Expected all tensors to be on the same device, but found at least two devices...

一、解决方案

        找出在cpu的tensor,然后把这些在cpu上的tensor转移到同一cuda上。

import torch

device = torch.device('cuda:0')    # 假如我使用的GPU为cuda:0
tensor.to(device)                  # 将tensor转移到cuda上

        以上是网上的解决方案,思路确实没错,但是上面的代码犯了一个小错,就是tensor.to(device)它会返回一个新的tensor地址,如果我们只是执行这行代码,那么tensor实际上还是在cpu上,因为我们没有保存转移到GPU上后的tensor地址。

         正确姿势

import torch

device = torch.device('cuda:0')    # 假如我使用的GPU为cuda:0
tensor = tensor.to(device)         # 将tensor转移到cuda上

二、参考

        RuntimeError: Expected all tensors to be on the same device...

你可能感兴趣的:(Python相关,pytorch)