[日常] Linux 后台指定 GPU 运行 PyTorch 代码

首先,利用 nvidia-smi查看电脑的 GPU,我所分到的GPU 是 GPU 0 和 GPU 1。

[日常] Linux 后台指定 GPU 运行 PyTorch 代码_第1张图片

接着,我需要分别在两张卡上跑不同的程序,命令如下:

CUDA_VISIBLE_DEVICES=0 nohup python train.py --Label -1 >nohup1.out 2>&1 &
CUDA_VISIBLE_DEVICES=1 nohup python train.py --Label -2 >nohup2.out 2>&1 &

其中,CUDA_VISIBLE_DEVICES=0指定了程序所运行的 GPU(同时使用多张卡的话,可以这样CUDA_VISIBLE_DEVICES=0,1),nohup&使得系统在后台执行该命令,>nohup1.out 2>&1使得标准输出重定向到指定文件中(默认为nohup.out),并使得标准出错重定向到标准输出。

当你输入这两命令后,系统会显示这两个进程的 PID:

也可以用 nvidia-smi进行查看:

[日常] Linux 后台指定 GPU 运行 PyTorch 代码_第2张图片

如果你要终止后台运行的进程,可以用kill -9 [PID]

参考资料:

  • linux后台执行命令:&和nohup
  • (原)PyTorch中使用指定的GPU

如果你看到了这篇文章的最后,并且觉得有帮助的话,麻烦你花几秒钟时间点个赞,或者受累在评论中指出我的错误。谢谢!

作者信息:
知乎:没头脑
LeetCode:Tao Pu
CSDN:Code_Mart
Github:Bojack-want-drink

你可能感兴趣的:(Linux,工作成长,AI,杂谈)