解决运行出现CUDA error:out of memory的问题

模型运行出现以下问题,经过查找资料发现解决方案如下:
解决运行出现CUDA error:out of memory的问题_第1张图片
CUDA_VISIBLE_DEVICES限制一下使用的GPU。

比如有0,1,2,3号GPU,CUDA_VISIBLE_DEVICES=2,3,则当前进程的可见GPU只有物理上的2、3号GPU,此时它们的编号也对应变成了0、1,即cuda:0对应2号GPU,cuda:1对应3号GPU。

如何设置CUDA_VISIBLE_DEVICES:

① 使用python的os模块

import os

os.environ[‘CUDA_VISIBLE_DEVICES’]=‘2, 3’

②直接设置环境变量(linux系统)

export CUDA_VISIBLE_DEVICES=2,3

之后程序正常运行
解决运行出现CUDA error:out of memory的问题_第2张图片

参考:https://www.cnblogs.com/jisongxie/p/10276742.html

你可能感兴趣的:(NLP,深度学习,python)