loss.item()大坑

loss.item()大坑

跑神经网络时遇到的大坑:代码中所有的loss都直接用loss表示的,结果就是每次迭代,空间占用就会增加,直到cpu或者gup爆炸。
解决办法:把除了loss.backward()之外的loss调用都改成loss.item(),就可以解决。
accuracy也是一样,也得用item()的形式。
原理可以见这里:https://www.zhihu.com/question/67209417/answer/344752405

你可能感兴趣的:(Pytorch炼丹小知识点,深度学习,神经网络,机器学习)