pytorch+win10+pip安装+基本使用 for 2080TI GPU

pytorch+win10+pip安装 for 2080TI GPU

  • 1.Pytorch安装
    • 1.1 torchvison和pytorch版本的对应关系
    • 1.2 下载对应版本的torch及torchvison wheel
  • 2.CUDA安装
  • 3.cudnn安装
  • 4.安装过程中可能遇到的bug
    • 4.1 ImportError: numpy.core.multiarray failed to import
  • 5.基本使用
    • 5.1 信息获取
    • 5.2 查找并使用显存最大的GPU
    • 5.3 执行代码时指定GPU卡
  • 参考文献

新入手2块2080TI GPU,怀着激荡的心情,开启了安装之旅~

1.Pytorch安装

在https://pytorch.org/pytorch主页选择对应的torch及torchvision版本:

pip install torch==1.7.0+cu101 torchvision==0.8.1+cu101 torchaudio===0.7.0 -f https://download.pytorch.org/whl/torch_stable.html

这里选择的是cuda10.1对应的pytorch gpu版本。

pytorch+win10+pip安装+基本使用 for 2080TI GPU_第1张图片

1.1 torchvison和pytorch版本的对应关系

详见网站https://pypi.org/project/torchvision/。
pytorch+win10+pip安装+基本使用 for 2080TI GPU_第2张图片

1.2 下载对应版本的torch及torchvison wheel

可在官网下载https://download.pytorch.org/whl/torch_stable.html对应的版本,并cd到下载文件进行安装。

注:linux版可参考手把手教会你在Linux服务器上安装用户级别的CUDA。

2.CUDA安装

下载并安装对应的CUDA Toolkit 10.1,这里下载的是本地exe版。

趁本地exe下载的时间,试了下exe(network)安装过程中出错。

在官网https://developer.nvidia.com/cuda-10.1-download-archive-base?target_os=Windows&target_arch=x86_64&target_version=10&target_type=exelocal下载并安装。
pytorch+win10+pip安装+基本使用 for 2080TI GPU_第3张图片
不得不重复地说,下载速度很冻人~

CUDA安装时使用了推荐的精简模式,安装过程中倒是没有报啥错误~
pytorch+win10+pip安装+基本使用 for 2080TI GPU_第4张图片

3.cudnn安装

在英伟达官网下载对应的cudnn版本:
pytorch+win10+pip安装+基本使用 for 2080TI GPU_第5张图片
然后将下载文件解压,并复制到对应文件夹。
CUDA默认安装位置:C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1

4.安装过程中可能遇到的bug

4.1 ImportError: numpy.core.multiarray failed to import

安装完成后,输入import torch,若产生该错误,可能是由于numpy版本过高导致,可以将numpy卸载并安装较低版本,这里安装的是:

pip install numpy==1.15.0

5.基本使用

5.1 信息获取

  • cuda版本
torch.version.cuda
  • 可使用的GPU数目
torch.cuda.device_count() 
  • 是否有可用的GPU
torch.cuda.is_available()

5.2 查找并使用显存最大的GPU

# 获取每个 GPU 的剩余显存数,并存放到 tmp 文件中
os.system('nvidia-smi -q -d Memory |grep -A4 GPU|grep Free >tmp')
memory_gpu = [int(x.split()[2]) for x in open('tmp', 'r').readlines()]
os.environ['CUDA_VISIBLE_DEVICES']=str(np.argmax(memory_gpu))
#torch.cuda.set_device(np.argmax(memory_gpu)) 
os.system('rm tmp')  # 删除临时生成的 tmp 文件

5.3 执行代码时指定GPU卡

如果有多张卡,指定使用某些卡,如第0,1张GPU,可以设置如下:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0,1"

注意,该代码应该放在import torch之前。

参考文献

[1] https://github.com/pytorch/pytorch
[2] https://pypi.org/project/torchvision/
[3] https://download.pytorch.org/whl/torch_stable.html
[4] 手把手教会你在Linux服务器上安装用户级别的CUDA

你可能感兴趣的:(深度学习,cuda,pytorch,win10,2080TI,GPU)