在Linux终端下查看GPU正常使用的情况

首先,在终端输入nvidia-smi

可以查看当前正常使用的GPU情况,如下图所示:
在Linux终端下查看GPU正常使用的情况_第1张图片
如果要一直刷进度 nvidia-smi -l (一般看数据训练情况) nvidia-smi 实时刷新 实时显示显存使用情况
在Linux终端下查看GPU正常使用的情况_第2张图片
进程会一直刷出来~
在Linux终端下查看GPU正常使用的情况_第3张图片
在Linux终端下查看GPU正常使用的情况_第4张图片
想要终止其中某个/或几个GPU进程,可通过以下命令实现:kill -9 PID
现在要关闭占用2和3号GPU的四个进程的PID分别是:19341、19367、19341、19367

(其实,后2个和前2个是一样的,因为我在训练的时候指定了用2个GPU训练,实际只包含2个PID
在Linux终端下查看GPU正常使用的情况_第5张图片
在终端输入后,回车:
kill -9 19341 19367 19341 19367
(进程之间用空格隔开)

结果如下:
在Linux终端下查看GPU正常使用的情况_第6张图片
对于NVIDIA的显存详细注释如下:
在Linux终端下查看GPU正常使用的情况_第7张图片
显存占用和GPU占用是两个不一样的东西,显卡是由GPU和显存等组成的,显存和GPU的关系有点类似于内存和CPU的关系。跑caffe代码的时候显存占得少,GPU占得多;跑TensorFlow代码的时候,显存占得多,GPU占得少。
简而言之:
显卡=GPU+显存+…… 类似 CPU+内存

你可能感兴趣的:(linux,python)