用GPU跑代码,观察GPU情况

  • 查看机器上GPU情况

    nvidia-smi
    
  • 定时更新显示机器上gpu的情况

    nvidia-smi -l
    
  • 设定刷新时间(秒)显示GPU使用情况

     watch -n 3 nvidia-sm
    
  • 其中左上侧有0、1、2、3的编号,表示GPU的编号,在后面指定GPU时需要使用这个编号。

  • 在终端执行程序时指定GPU

    CUDA_VISIBLE_DEVICES=0,1,2,3  (任意几块)  python  your_file.py
    
  • 在Python代码中指定GPU

     import os
    os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
    os.environ["CUDA_VISIBLE_DEVICES"] = "0"
    
  • 设置定量的GPU使用量

    config = tf.ConfigProto() 
    config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的显存 
    session = tf.Session(config=config)
    
  • 设置最小的GPU使用量

     config = tf.ConfigProto() 
     config.gpu_options.allow_growth = True 
     session = tf.Session(config=config)
    

你可能感兴趣的:(系统配置)