torch.cuda.is_available()显示false的原因

GTX2060
pytorch 1.6
cuda 10.2
cudnn 7.6.5
各方面都安装适配的特别好,可是不知道为什么就显示调用不上CUDA。

查了好久,发现pytorch可能也分为CPU和GPU版本的,虽然不像tensorflow那样有不同的名字(tensorflow-gpu,tensorflow),但是如果在conda中直接执行一下命令

conda install pytorch=xxx

安装的将会是CPU版本的,此时无论你的CUDA和CUDNN适配的多好,torch.cuda.is_available()都会显示false。因为你的cuda压根就没有用在torch上
一个很好的判断方法:

torch.version.cuda

如果确实是安装了gpu版本的pytorch,上面这个应该会显示cuda的版本,如果是cpu,则会显示None
好像只有运行如下命令:

conda install pytorch cudatookits=xx

一起安装,才会默认安装为gpu的pytorch,我也不知道为啥。

其实直接去pytorch的官网上有可以照搬的命令最方便了。
https://pytorch.org/
…有条件的可以去。
torch.cuda.is_available()显示false的原因_第1张图片
最后附终于搞成功的截图:
在这里插入图片描述

你可能感兴趣的:(cuda,gpu,深度学习)