yolov7在检测的时候报RuntimeError: CUDA out of memory. Tried to allocate

    在训练时,这个问题很常见,只需要确保cudnn 和 torch 正常的情况下,修改batch-size即可解决。但在检测中,特别时检测一段时间后出现RuntimeError: CUDA out of memory. Tried to allocate xx MiB (GPU 0; xx GiB total capacity; xx GiB already allocated; xx MiB free; xx GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CON
    该问题如果直接用他本身的检测类detect.py时无问题,在自己封装过程的检测类,比如结合deepsort时封装的检测器会报这样的问题。本身检测类在最后用了 with torch.no_grad(): ,该代码作用是放在里面的代码块不计算梯度。在自己封装的类里面加入torch.set_grad_enabled(False),如果自己封装类没有引入torch ,需要import torch,如果开启torch.set_grad_enabled(True),关闭计算梯度的功能,检测一段时间后就不回出现显存溢出的情况。`
    import torch 
    torch.set_grad_enabled(False) #不计算梯度 防止显存运行一段时间后溢出`
    ![detect.py](https://img-blog.csdnimg.cn/aa112bab88984ef7b1e9fe06695f6c46.png)

你可能感兴趣的:(技术问题,深度学习,pytorch,python)