指定gpu训练模型却依然使用了cpu问题解决

环境

linux系统下有一块gpu,CUDA版本为11.3,conda环境下已安装pytorch

问题

模型训练时通过以下代码指定使用gpu进行训练:
在这里插入图片描述
结果模型依然在cpu上进行训练

解决方法

用以下代码测试cuda是否可用:

import torch

if_cuda = torch.cuda.is_available()
print("if_cuda=",if_cuda)
gpu_count = torch.cuda.device_count()
print("gpu_count=",gpu_count)

运行结果为False和0,说明cuda不可用
运行conda list,发现环境中安装的pytorch是cpuonly的,因此导致了无法使用gpu训练。
在这里插入图片描述
使用conda uninstall pytorch卸载掉原来的pytorch,重新安装就好。
(安装pytorch过程又遇到一系列麻烦,下篇博客记录~)

你可能感兴趣的:(深度学习,神经网络)