kaggle 深度学习训练内存不够

在kaggle上训练VGG网络,为了实现一个可视化算法,运用了pytorch中的hook机制。
但是在训练中出现了爆内存的现象,总结一下几种解决办法:

  • 无关的变量使用完要删掉
import gc
del variables
gc.collect()
  • 使用hook机制,如果多次使用,一定要每次用完就删除掉,否则多次重复register_hook,会叠加,占用很多内存空间
handle = model.register_forward_hook(fn)
handle.remove()

你可能感兴趣的:(深度学习,报错,pytorch,深度学习,hook)