tensorflow 常用小技巧

限制TensorFlow使用的GPU资源。

固定比例

# Assume that you have 12GB of GPU memory and want to allocate ~4GB:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)

sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))

按需求增长

config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)

查看GPU使用情况

详细查看

nvidia-smi

简要列出各个GPU

nvidia-smi -L 

使用指定CPU

https://blog.csdn.net/m0_37041325/article/details/77488981
我的虚拟机用的是zsh,所以不是操作~/.bashrc

  1. vim ~/.zshrc
  2. 在.zshrc.最下方添加

export CUDA_VISIBLE_DEVICES='XX'(这个xx是GPU的序号,比如我这边服务器上有8个GTX1080序号是0~7,可以填入任意多个序号,序号间用逗号隔开)

  1. source ~/.zshrc

代码内添加方法:

import os

os.environ['CUDA_VISIBLE_DEVICES'] = "0"

你可能感兴趣的:(tensorflow 常用小技巧)