用CPU写的数据和模型,是如何转到GPU上的?

这是由一条指令引发的血案。话说最近看什么都爱问个为什么,这一方面是个好习惯,可以增强我对知识的理解,但是另一方面,在连续问了好几个为什么之后,我已经被岔到九转十八回的小乡村,再也找不到一开始是在看什么了……

这次是记录下为什么我们写代码总会有这样一句

if cuda:
//或者是下面这句
if torch.cuda.is_available():
  data.cuda()
  model.cuda()

对模型和相应的数据使用.cuda()处理。通过这种方式,我们就可以将内存中的数据复制到GPU的显存中去。从而可以通过GPU来进行运算了。
这个文章详细解释了这件事。

你可能感兴趣的:(用CPU写的数据和模型,是如何转到GPU上的?)