RuntimeError: CUDA out of memory. Tried to allocate ...reserved in total by PyTorch

在学习fastai教程时,使用jupyter执行第一个深度学习模型时就总是报内存不够,难道好不容易安装好的nvidia显卡还不能用了?

RuntimeError: CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 1.96 GiB total capacity; 1.42 GiB already allocated; 4.75 MiB free; 1.44 GiB reserved in total by PyTorch)

显卡内存是有点小,不过小点就一次少用点呗,PyTorch应该有相应的参数可以调节一次使用的内存的.发现函数ImageDataLoaders.from_name_fun有个参数bs可以设置一批处理的数据量.通过不段调整bs的值发现设置为16时模型能够成功训练成功,并用时最短:

RuntimeError: CUDA out of memory. Tried to allocate ...reserved in total by PyTorch_第1张图片

你可能感兴趣的:(AI,fastai,日志,深度学习,fastai,ai,ml,机器学习)