TensorFlow 显存占用率高 GPU利用率低

nvidia-smi指令

命令位置:
TensorFlow 显存占用率高 GPU利用率低_第1张图片
所以Path中添加环境变量:
C:\Program Files\NVIDIA Corporation\NVSMI
试验一哈:
TensorFlow 显存占用率高 GPU利用率低_第2张图片
要注意的点:

  • Driver Version和CUDA Version不是一回事
  • CUDA Version实际是环境变量中Path配置的,如果一台机器同时装了多个CUDA,那么这里的CUDA Version显示的是Path中靠前的CUDA版本(和nvcc -V的显示是一样的)
  • 下方的GPU使用信息网上有很多资料,但是比较靠谱的资料是去官网查手册,这里不再赘述,只挑几个比较重要的说一下:
  1. Temp = Temperature,温度
  2. Perf = Performance,性能,P0-P12,由低到高
  3. Memory / Usage ,其实下方的数据是“已经使用的显存/总显存”
  4. GPU-Util,GPU使用率
  • 下方的Processes显示的使用GPU的线程信息:GPU序号,线程ID,线程名,GPU显存使用量
  • N/A可以理解为无法显示,并不是无限大的意思

动态刷新GPU信息

nvidia-smi -l    # L小写字母,不是1

每隔一秒刷新一次GPU信息(执行一次nvidia-smi的结果)
后面可以加上自定义的秒数,如:

nvidia-smi -l 5   # 每隔5秒刷新一次

还有更细粒度的:

nvidia-smi -lms    # 每隔1ms刷新一次,( L小写字母,不是1)

当然也可以自定义毫秒数:

nvidia-smi -lms 500   # 每隔500毫秒刷新一次

个人经验,500ms刷新一次比较适合。
PS:nvidia-smi的用法可以nvidia-smi -h查看:
在这里插入图片描述

显存占用高,但是CPU使用率低

如之前的图中:
TensorFlow 显存占用率高 GPU利用率低_第3张图片
显存占用率:5456MiB/6144MiB = 88.80%
GPU利用率(GPU-Util):0%
(即使100ms刷新一次也捕捉不到GPU利用率的提高)
PS:
这里先补充一个知识,回想一下CPU和内存的关系,同理,GPU和显存是两回事,理所当然,GPU利用率和显存占用率也是两回事,现在的情况相当于:内存快占满,但CPU使用率很低,eg:
TensorFlow 显存占用率高 GPU利用率低_第4张图片
如Java中while(true)创建对象,内存会爆,但是CPU使用率并不高。
上述显卡显存占用率高,GPU利用率低的情况出现在笔记本跑深度学习时,最初以为是显存太低的缘故(load一个batch_size((一次训练的图片数))的数据即过载),换在16G显存的服务器中跑,同样出现该问题:TensorFlow 显存占用率高 GPU利用率低_第5张图片
修改batch_size(一次训练的图片数)大小,无效,改大改小都不行。

怎么解决呢?

答:
试了n多的方法,终于找到原因:
训练的原始图片大小为3024 * 4032,实际大小为2-3M,太大了。。。
如果解释为什么,则先了解一个背景知识,类似于CPU与内存的关系,在GPU工作流水线中,也是按照显存准备数据——GPU拿数据运算——显存准备数据——GPU拿数据运算 …的方式工作的。如果图片的分辨率太大,图片放入显存直接爆了,GPU利用率当然也无从谈起,外在表现就是显存几乎占满,但同时GPU等不到数据,一直空闲。解决方法是将图片分辨率改小就OK了。


所以这个问题的解决思路是这样的: ① 确认代码在GPU上跑了 方法可以top-down: * 单独建测试文件test.py,代码:
import os
from tensorflow.python.client import device_lib
os.environ["TF_CPP_MIN_LOG_LEVEL"] = "99"

if __name__ == "__main__":
    print(device_lib.list_local_devices())

如果正常的话,会打印GPU信息。

或者也可以直接运行项目的训练模型,如果TensorFlow调用了GPU,也会输出类似上面测试代码的运行效果——输出的GPU信息(猜测是TensorFlow内部也有类似上面的打印GPU信息的代码),此时(必须正在运行TensorFLow代码)查看nvidia-smi的线程信息会有python.exe():
TensorFlow 显存占用率高 GPU利用率低_第6张图片
好,已经能够确定TensorFlow调用了GPU跑代码。

② 观察显存和GPU利用率
一定要使用动态刷新nvidia-smi命令,因为有时GPU利用率是跳跃式变化的,同时尽量关
闭其他使用GPU的程序,单独观察tensorflow利用情况。

  • 显存占用低,GPU利用率低
    很明显,这是因为batch_size太小,显存没完全利用,GPU没有喂饱,尝试增大batch_size
  • 显存占用高,GPU利用率低
    大概率batch_size太高,即显存成为bottle_neck,GPU一直在等显存的数据。如果batch_size已经为1,问题依旧,则考虑是不是单张图片分辨率太大的问题。

你可能感兴趣的:(Python学习笔记,深度学习,python)