解决问题:pytorch奇怪错误,网络完全不训练,参数不更新,没有梯度

遇到奇怪的问题的时候总是会特别绝望,比如,网络参数完全不更新

解决问题:pytorch奇怪错误,网络完全不训练,参数不更新,没有梯度_第1张图片

不知道怎么解决,所以就查看了一下参数的梯度,结果发现完全没有梯度

[x.grad for x in optimizer.param_groups[0]['params']]

惊不惊喜,意不意外

非常生气,我都是copy的以前的代码,结果,调了两天,就是自己的沙雕错误,我copy代码copy太多了,网络被写了两遍,删掉重复的就好了,不过不清楚为什么,反正网络调通了。。

解决问题:pytorch奇怪错误,网络完全不训练,参数不更新,没有梯度_第2张图片

你可能感兴趣的:(pytorch)