pytorch运行报错:CUDA out of memory

pytorch运行报错:CUDA out of memory

    • 问题原因
    • 修改
    • 运行

今天遇到问题 我的代码运行报这个错误:
RuntimeError: CUDA out of memory. Tried to allocate 594.00 MiB (GPU 0; 8.00 GiB total capacity; 6.84 GiB already allocated; 0 bytes free; 6.86 GiB reserved in total by PyTorch)

问题原因

CUDA out of memory,是计算过程中设置的内存超过了限制。
你的单次计算数据量太大了,改一改bach_size

修改

减小到原本数据量的一半。(2、4、8啥的都行)

运行

再次运行,发现还是报错,那就继续讲将你的BACH_SIZE除以2,重新训练

问题解决。

最近好忙,好久没有写修改问题的过程了。
如有帮助 点赞 收藏 关注!

你可能感兴趣的:(python,计算机视觉,pytorch,人工智能,python)