torch减少显存使用

with torch.no_grad():

被包裹起来的上下文不走tracking,减少显存的堆积占用

  • torch.no_grad也可以作为注解的写法
@torch.no_grad()
def index():

清理显存

torch.cuda.empty_cache()

添加词句之后清理显存。

你可能感兴趣的:(torch减少显存使用)