pytorch loss.item()大坑记录(非常重要!!!)

跑神经网络时遇到的大坑:代码中所有的loss都直接用loss表示的,结果就是每次迭代,空间占用就会增加,直到cpu或者gup爆炸。
解决办法:把除了loss.backward()之外的loss调用都改成loss.item(),就可以解决。
原理可以见这里:https://www.zhihu.com/question/67209417/answer/344752405

你可能感兴趣的:(pytorch)