torch.floattensor与troch.cuda.floattensor不匹配问题

1、模型为CPU。而data数据为GPU,则需要model.to(device)

2、大部分情况是model为GPU而输入data为CPU,此时

错误内容大概就是指输入类型是CPU(torch.FloatTensor),而参数类型是GPU(torch.cuda.FloatTensor)。
关于数据类型的链接:官方链接

首先,请先检查是否正确使用了CUDA。

通常我们这样指定使用CUDA:

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
inputs.to(device)

这样就把input这个tensor转换成了CUDA 类型。
但是我们还是出错。就是输出本篇博文的标题。

正确的做法是:

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
inputs = inputs.to(device)

原因:
tensor.to() 这个函数功能是产生一个新的tensor,并不会改变原数据。

但是,注意到
Module.to() 是一个“in-place”方法,tensor.to() 函数不是。

友情提示:
pytorch中要注意是否是“in-place”。

你可能感兴趣的:(torch,pytorch)