linux python gpu可见指令_连接远程服务器使用GPU-指南

linux python gpu可见指令_连接远程服务器使用GPU-指南_第1张图片

linux python gpu可见指令_连接远程服务器使用GPU-指南_第2张图片

(1)nvidia-smi 命令

GPU:GPU 编号; Fan:风扇转速,从0到100%之间变动; Name:GPU 型号; Temp:温度,单位是摄氏度; Perf:性能状态,从P0到P12,P0表示最大性能,P12表示状态最小性能(即 GPU 未工作时为P0,达到最大工作限度时为P12)。 Persistence-M:持续模式的状态。持续模式虽然耗能大,但是在新的GPU应用启动时,花费的时间更少,这里显示的是off的状态; Pwr:Usage/Cap:能耗; Memory Usage:显存使用率; Bus-Id:涉及GPU总线的东西,domain:bus:device.function; Disp.A:Display Active,表示GPU的显示是否初始化; Volatile GPU-Util:浮动的GPU利用率; Uncorr. ECC:Error Correcting Code,错误检查与纠正; Compute M:compute mode,计算模式。

(2)nvidia-smi -L 列出所有可用的 NVIDIA 设备信息。

0e4d32e3bd5f0a9f2c6164ceb7d29bc4.png

(3) CUDA_VISIBLE_DEVICES=1 python test.py 在终端执行程序时指定GPU

以下形式:

CUDA_VISIBLE_DEVICES=1 只允许编号1的GPU
CUDA_VISIBLE_DEVICES=0,1 0和1同时占用
CUDA_VISIBLE_DEVICES=“0,1” 同上
CUDA_VISIBLE_DEVICES="" 不使用gpu

(4)python代码中指定GPU

import os
os.environ["CUDA_VISIBLE_DEVICES"]="0"

注意,服务器看到的GPU序号和手动在Linux上查看的序号是相反的【代码调用】,比如

os.environ[“CUDA_VISIBLE_DEVICES”] = “0”的话,你会发现在watch nvidia-smi指令下,2号GPU正在满负荷的运行!

你可能感兴趣的:(linux,python,gpu可见指令,查看gpu使用率,nvidia)