torch.cuda常见相关

文章目录

  • cuda常见用法
  • 场景问题
  • 什么是cuda?
  • cuda链接

cuda常见用法

torch.cuda.is_available() # 查看是否有可用GPU
torch.cuda.device_count() # 查看GPU数量
torch.cuda.get_device_capability(device) # 查看指定GPU容量
torch.cuda.get_device_name(device) # 查看指定GPU名称
torch.cuda.empty_cache() # 清空程序占用的GPU资源
torch.cuda.manual_seed(seed) # 设置随机种子
torch.cuda.manual_seed_all(seed) # 设置随机种子
torch.cuda.get_device_properties(i) # i为第几张卡,显示该卡的详细信息

场景问题

torch.cuda.device_count()返回n但是用nvidia-smi显示n+1个显卡,可能的原因?

第一个原因:你在环境变量设置了CUDA_VISIBLE_DEVICES

第二个原因:你显卡坏了一个,如何判断是不是坏了可以使用上面接口测试

import torch
device=torch.device("cuda:0")
print(torch.cuda.get_device_capability(device))

把0改成1如果报错则表示1这个显卡有问题或者不存在,据此可以判断显卡坏了。但是这个只是系统层面表示坏了。还需要进一步判断。首先重启系统在测试一次,不行就把显卡拔插一下,依然不行则做最后尝试把系统重装一次(这个一般都没效果),还不行只能说明显卡坏了。

什么是cuda?

统一计算设备架构(Compute Unified Device Architecture, CUDA),是由NVIDIA推出的通用并行计算架构。解决的是用更加廉价的设备资源,实现更高效的并行计算。

INSCODE AI 创作助手:CUDA是一种由NVIDIA推出的计算平台和编程模型,它使开发人员可以在NVIDIA GPU上实现高性能计算应用程序。CUDA主要用于加速计算密集型任务,例如科学计算、深度学习、图形处理和密码学等领域。CUDA提供了一组API和工具,包括CUDA C/C++编译器、CUDA库、CUDA驱动程序和CUDA Toolkit等,使开发人员可以使用C/C++编程语言来编写高效的GPU应用程序。

cuda链接

https://developer.nvidia.com/cuda-downloads

https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/contents.html

你可能感兴趣的:(environment,cuda,深度学习)