文章目录
- cuda常见用法
- 场景问题
- 什么是cuda?
- cuda下载链接
cuda常见用法
torch.cuda.is_available() # 查看是否有可用GPU
torch.cuda.device_count() # 查看GPU数量
torch.cuda.get_device_capability(device) # 查看指定GPU容量
torch.cuda.get_device_name(device) # 查看指定GPU名称
torch.cuda.empty_cache() # 清空程序占用的GPU资源
torch.cuda.manual_seed(seed) # 设置随机种子
torch.cuda.manual_seed_all(seed) # 设置随机种子
torch.cuda.get_device_properties(i) # i为第几张卡,显示该卡的详细信息
场景问题
torch.cuda.device_count()返回1但是用nvidia-smi显示2个显卡,可能的原因?
第一个原因:你在环境变量设置了CUDA_VISIBLE_DEVICES
第二个原因:你显卡坏了一个,如何判断是不是坏了可以使用上面接口测试
import torch
device=torch.device("cuda:0")
print(torch.cuda.get_device_capability(device))
把0改成1如果报错则表示1这个显卡有问题或者不存在,据此可以判断显卡坏了。但是这个只是系统层面表示坏了。还需要进一步判断。首先重启系统在测试一次,不行就把显卡拔插一下,依然不行则做最后尝试把系统重装一次(这个一般都没效果),还不行只能说明显卡坏了。
什么是cuda?
统一计算设备架构(Compute Unified Device Architecture, CUDA),是由NVIDIA推出的通用并行计算架构。解决的是用更加廉价的设备资源,实现更高效的并行计算。
INSCODE AI 创作助手:CUDA是一种由NVIDIA推出的计算平台和编程模型,它使开发人员可以在NVIDIA GPU上实现高性能计算应用程序。CUDA主要用于加速计算密集型任务,例如科学计算、深度学习、图形处理和密码学等领域。CUDA提供了一组API和工具,包括CUDA C/C++编译器、CUDA库、CUDA驱动程序和CUDA Toolkit等,使开发人员可以使用C/C++编程语言来编写高效的GPU应用程序。
cuda下载链接
https://developer.nvidia.com/cuda-downloads