tensorflwow pytorch 控制gpu使用量指令

gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
TensorFlow设置GPU占用量:
https://www.cnblogs.com/jiu0821/p/9501665.html

1 pytorch设置GPU占用量的指令是哪个?(未解决,)
是这个p['momentum'] =0.9么?不是,这个是动量帮助训练的
这个博客给出了解答:https://blog.csdn.net/u012328159/article/details/80311892


2 TensorFlow设置GPU占用量:(已解决,如下)
在构造tf.Session()时候通过传递tf.GPUOptions作为可选配置参数的一部分来显式地指定需要分配的显存比例,如下所示:

1 假如有12GB的显存并使用其中的4GB:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

per_process_gpu_memory_fraction指定了每个GPU进程中使用显存的上限,但它只能均匀作用于所有GPU,无法对不同GPU设置不同的上限

2、尝试如下设置:

config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)

当allow_growth设置为True时,分配器将不会指定所有的GPU内存,而是根据需求增长

3、指定GPU编号:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"

或者在脚本或者命令行中指定
export CUDA_VISIBLE_DEVICES=0
原文链接:https://blog.csdn.net/zjc910997316/article/details/102944315

你可能感兴趣的:(tensorflow)