tensorflow GPU 使用配置

查看机器上GPU情况

命令: nvidia-smi

功能:显示机器上gpu的情况

命令: nvidia-smi -l

功能:定时更新显示机器上gpu的情况

eg: nvidia-smi -l 10 # 10s刷新一次


tf.ConfigProto()函数用在创建session的时候,用来对session进行参数配置:

config = tf.ConfigProto(allow_soft_placement=True, allow_soft_placement=True)  
config.gpu_options.per_process_gpu_memory_fraction = 0.4  #占用40%显存  
sess = tf.Session(config=config)  

1. 记录设备指派情况 :  tf.ConfigProto(log_device_placement=True)


设置tf.ConfigProto()中参数log_device_placement = True ,可以获取到 operations 和 Tensor 被指派到哪个设备(几号CPU或几号GPU)上运行,会在终端打印出各项操作是在哪个设备上运行的。


2. 自动选择运行设备 : tf.ConfigProto(allow_soft_placement=True)

在tf中,通过命令 "with tf.device('/cpu:0'):",允许手动设置操作运行的设备。如果手动设置的设备不存在或者不可用,就会导致tf程序等待或异常,为了防止这种情况,可以设置tf.ConfigProto()中参数allow_soft_placement=True,允许tf自动选择一个存在并且可用的设备来运行操作。


3. 限制GPU资源使用:


为了加快运行效率,TensorFlow在初始化时会尝试分配所有可用的GPU显存资源给自己,这在多人使用的服务器上工作就会导致GPU占用,别人无法使用GPU工作的情况。

tf提供了两种控制GPU资源使用的方法,一是让TensorFlow在运行过程中动态申请显存,需要多少就申请多少;第二种方式就是限制GPU的使用率。

限制方法:

一、动态申请显存


[python]  view plain  copy
  1. config = tf.ConfigProto()  
  2. config.gpu_options.allow_growth = True  
  3. session = tf.Session(config=config)  


二、限制GPU使用率


[python]  view plain  copy
  1. config = tf.ConfigProto()  
  2. config.gpu_options.per_process_gpu_memory_fraction = 0.4  #占用40%显存  
  3. session = tf.Session(config=config)  

或者:


[python]  view plain  copy
  1. gpu_options=tf.GPUOptions(per_process_gpu_memory_fraction=0.4)  
  2. config=tf.ConfigProto(gpu_options=gpu_options)  
  3. session = tf.Session(config=config)  

三 指定使用哪块GPU

在终端执行程序时指定GPU   

CUDA_VISIBLE_DEVICES=1   python  your_file.py

这样在跑你的网络之前,告诉程序只能看到1号GPU,其他的GPU它不可见

可用的形式如下:

CUDA_VISIBLE_DEVICES=1           Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1         Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES="0,1"       Same as above, quotation marks are optional
CUDA_VISIBLE_DEVICES=0,2,3       Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES=""          No GPU will be visible

在python程序中设置:

[python]  view plain  copy
  1. os.environ['CUDA_VISIBLE_DEVICES'] = '0' #使用 GPU 0  
  2. os.environ['CUDA_VISIBLE_DEVICES'] = '0,1' # 使用 GPU 0,1  
在执行python程序时候:

CUDA_VISIBLE_DEVICE=0,1 python yourcode.py




你可能感兴趣的:(深度学习)