Pytorch 学习之:关于 GPU 训练你必须知道的几件事

文章目录

  • torchvision 下载的 `pretrain` 模型路径
  • cuda 版本一定要适配
  • 多 cuda 训练 `DataParallel` 使用须知

torchvision 下载的 pretrain 模型路径

  • 使用 torchvision 来直接下载 pretrained 模型,有时候服务器的下载速度很慢,不如直接下载到本地之后传上去,但是问题来了,torchvision 模型下载后的存放路径是什么呢?
import torchvision.models as models
model = models.alexnet(pretrained=True)

Pytorch 学习之:关于 GPU 训练你必须知道的几件事_第1张图片

  • 可以看到源码中是定义的这个位置,如果是 MAC 系统,那么 $XDG_CACHE_ HOME/ 这个位置就是

    cd ~/.cache/
    
  • 所以 $XDG_CACHE_ HOME/ torch 位置就是

    cd ~/.cache/torch
    
  • 在这里面的 checkpoints 下面就是所有下载的模型了
    Pytorch 学习之:关于 GPU 训练你必须知道的几件事_第2张图片

cuda 版本一定要适配

  • 我最近在自己重写 rcnn 的代码,然后默认 torch 的版本是 1.4, 然后我的设备 gpucuda 版本是 11.1
  • 我在进行训练的时候,model.to(device) 好久都没反应,不报错。
    Pytorch 学习之:关于 GPU 训练你必须知道的几件事_第3张图片
  • 经过一步步 debug,发现这个版本上掉以轻心了,重新安装 pytorch10.1 版本,cuda 11.1 就可以了

多 cuda 训练 DataParallel 使用须知

  • 很多人都会使用 torch.nn.DataParallel 进行多卡联合训练
  • 但是今天我在设置多卡训练的时候报错: AssertionError: Invalid device id
  • 我运行的时候 0,1,6,7 卡被占用。所以我的 device 设置如下:
os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:
     print("Let's use", torch.cuda.device_count(), "GPUs!")
     model = DataParallel(model
                          , device_ids=[int(i) for i in args.device.split(',')]
                          )
AssertionError: Invalid device id

Pytorch 学习之:关于 GPU 训练你必须知道的几件事_第4张图片

  • 经过查阅资料 发现:
  • 设置 os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5" 相当于告诉机器,我现在使用这四个设备,那么这四个设备的 device_id 就分别变成了 0, 1, 2, 3 所以代码应该写成下面这样:因为使用 DataParallel 的时候要求必须从设备 0 开始,所以我们需要想办法将我们调用的设备设置成从 0 编号开始
os.environ["CUDA_VISIBLE_DEVICES"] = "2,3,4,5"

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = model.to(device)
if torch.cuda.device_count() > 1:
     print("Let's use", torch.cuda.device_count(), "GPUs!")
     model = DataParallel(model
                          , device_ids=[0,1,2,3]
                          )

你可能感兴趣的:(Pytorch学习,pytorch,cuda,多gpu)