TensorFlow(2.x版本,1.x版本)以及pytorch版本中关于GPU的信息查看以及GPU的配置问题

前言:我们一般使用深度学习框架都是GPU版本的,如何检测我们的安装是否成功,GPU、CUDA、CUDNN等信息呢?本文做了一个归纳总结:

一、tensorflow版本的GPU信息查看

(1)tensorflow版本

tf.__version__     tensorflow版本
tf.__xxxxx__       一些信息的查看
tf.verison.xxxx    一些信息
tf.test.is_built_with_cuda()
tf.test.gpu_device_name()   默认获得第一块GPU设备,打印出 "/device:gpu:0"
tf.test.is_built_with_gpu_support()
tf.test.is_built_with_rocm(): Returns whether TensorFlow was built with ROCm (GPU) support.
tf.test.is_gpu_available(): 快要被取代了,被后面的方法所替代tf.config.list_physical_devices('GPU')

注意:tensorflow2.x版本以及较新的几个tensorflow1.x版本,关于一些基本信息的查看和配置都主要在以下两个包中

tf.test.xxxx
tf.comfig.xxxx

只不过有一些名称可能不太一样。

(2)pytorch关于GPU的信息查看

torch.__version__
torch.version.cuda  #9.0
torch.cuda.is_available()
torch.cuda.get_device_name(0)
torch.cuda.get_device_properties(0)
torch.cuda.device(0)
torch.cuda.device_count()
torch.cuda.current_device()    # 当前正在使用的设备

torch.backend.cudnn.version()   # 7005,查看cudnn的版本

注意torch的GPU信息查看主要是在 torch.cuda.xxxx 这个包里面。

注意:torch里面有一个验证tensor是否被cudnn支持的方法。

import torch
from torch.backends import cudnn

x = torch.Tensor([1.0])
xx = x.cuda()
print(xx)

# CUDNN TEST 验证cudnn
print(cudnn.is_acceptable(xx))  # xx是一个torch的tensor

(3)清理GPU显存的几种方法

方法一:torch版本
torch.cuda.empty()

# 方法二
ps aux | grep python
kill -9 [pid]

# 方法三
nvidia-smi --gpu-reset -i [gpu-id]  # id 是0,1,2,3,等等,这需要管理员权限

 

 

 

 

你可能感兴趣的:(tensorflow2.x,TensorFlow,pytorch,tensoeflow,pytorch,GPU,cuda,cudnn,tensorflow,GPU,GPU显存清理)