Gpu配置与使用策略

1、获得当前主机上运算设备列表:
1)gpus =tf.config.experimental.list_physical_devices(device_type=‘GPU’)
2)cpus = tf.config.experimental.list_physical_devices(device_type=‘CPU’)

2、设置当前程序可见的设备范围
当前程序只会使用自己可见的设备,不可见的设备不会被当前程序使用,因此可以设置当前程序可见的设备范围。

方法(1)列出gpu并指定范围:gpus=tf.config.experimental.list_physical_devices(device_type=‘GPU’)
tf.config.experimental.set_visible_devices(devices=gpus[0:2],device_type=‘GPU’)

方法(2)
import os
os.environ[‘CUDA_VISIBLE_DEVICES’] = “2,3”

3、设置显存使用策略
默认情况下,TensorFlow 将使用几乎所有可用的显存。

方法1:仅在需要时申请显存空间(程序初始运行时消耗很少的显存,随着程序的运行而动态申请显存;)
gpus = tf.config.experimental.list_physical_devices(device_type=‘GPU’)
for gpu in gpus:
tf.config.experimental.set_memory_growth(device=gpu, True)

方法2:设置 TensorFlow 固定消耗 GPU:0 的 1GB 显存
gpus = tf.config.experimental.list_physical_devices(device_type=‘GPU’)
tf.config.experimental.set_virtual_device_configuration(gpus[0],
[tf.config.experimental.VirtualDeviceConfiguration(memory_limit=1024)])

你可能感兴趣的:(笔记,深度学习,神经网络,自然语言处理,计算机视觉)