解决“CUDA out of memory.”问题

问题描述

今天在跑实验的时候,将网络模型改得更加复杂了,出现内存不够的报错提示:

RuntimeError: CUDA out of memory. Tried to allocate 1.22 GiB (GPU 1; 14.76 GiB total capacity; 2.65 GiB already allocated; 1.22 GiB free; 3.69 GiB reserved in total by PyTorch)

16GB的GPU都不够用了......

解决方法

将batch_size改小即可

# 原来的batch_size
--batch 16

# 改为
--batch 8

 

你可能感兴趣的:(踩坑记录,Deep,Learning,Python,debug,CUDA,python,深度学习,网络模型)