【Pytorch API笔记8】用torch.cuda.empty_cache()释放所有未使用的缓存内存

骚操作:循环训练多个不同数据集的模型,显存占用得不到释放!

那么,在python上,如何释放pytorch开辟的显存呢?

PyTorch提供了上下文管理器来控制GPU内存分配。可以使用torch.cuda.empty_cache()来释放所有未使用的缓存内存。以下是一个示例:

import torch
torch.cuda.empty_cache()

你可能感兴趣的:(深度框架,Pytorch,pytorch,人工智能,python)