指定GPU设备号

指定GPU设备号

记录自己在实验室服务器上运行程序“指定gpu设备号”时的一些总结,和踩过的一些坑。

4种方法

1. 使用os指定

 import os
 os.environ['CUDA_VISIBLE_DEVICES'] = '0'

注意:这两行代码一定要放在所有代码之前,尤其要放在“import torch”之前(原因可以向下查看“附录”,或者自己在命令行尝试几种不同的指定方法)

2. 在命令行指定

CUDA_VISIBLE_DEVICES=x python  xxx.py

3. 使用torch指定

import torch
torch.cuda.set_device(0)

4. 在指定device时,同时指定gpu设备号

device = torch.device('cuda:1') if torch.cuda.is_available() else torch.device('cpu')

一些查看当前设备信息的torch代码

1. cuda是否可用

torch.cuda.is_available()

2. 返回gpu数量

torch.cuda.device_count()

3. 返回gpu名字

torch.cuda.get_device_name(0)

4. 返回当前设备索引

torch.cuda.current_device()

遇到的一些问题

1. 同时使用了多种方式指定,既使用os指定,后面又用torch来set???

最好只使用一种方式设定,不要同时使用多种方式。 原因:

比如:
使用os.environ[‘CUDA_VISIBLE_DEVICES’]是设定程序对哪几张卡可视,一般设定成功之后,接下来程序中任何有关卡号的指定都是相对的

例如:os.environ['CUDA_VISIBLE_DEVICES'] = '1,2,3',生效之后,再设置torch.cuda.set_device(0),此时pytorch将会使用1号cuda.

其他类似…

2. 设置了在某卡上运行,但是无效(比如设置了在“1”号卡上运行,使用“nvidia-smi”查看,结果发现还是在“0”号卡上运行)

解决方法

(1)如果使用os方式设置,首先检查自己的os语句位置是否放在了最前面。

(2)使用torch.cuda.get_device_name(id)语句,打印出正在使用的gpu设备名字。(ps:你以为的设备号可能不是真的设备号

例如:

服务器上有一张V100和一张P100的卡,使用nvidia-smi,发现0号设备有人在用,1号设备空闲。
指定GPU设备号_第1张图片
此处看到1号设备空闲,因此将设备号设置为1号。再次使用nvidia-smi查看,发现自己跑的程序也运行在0号上????

使用torch.cuda.get_device_name(id)打印出设备名称:(也可以直接在程序中打印出来,看看此时程序究竟是在哪一张卡上跑)
指定GPU设备号_第2张图片
此处发现0号设备才是V100,1号设备是P100。于是,将设备号设置为0号,此时查看nvidia-smi,发现自己的程序已正确地在1号设备上跑。

附录

在命令行做的一些小实验:

(1)先使用os指定,再使用torch获取

使用python命令进入python命令行
指定GPU设备号_第3张图片

可以看到,指定完os的可见设备之后,再使用torch获取,只能检测到1个设备。

(2)先import torch, 后指定os
指定GPU设备号_第4张图片
此处可以看到,指定前torch可以检测到2个设备;指定后torch还是能检测到两个设备。

参考博文:

[1] 啥?你又抢了别人的板子 – os.environ[‘CUDA_VISIBLE_DEVICES‘]指定GPU无法生效解决方案

[2]pytorch中查看gpu信息

你可能感兴趣的:(杂七杂八,python,pytorch,gpu)