expected version 1 instead. Hint: the backtrace further above shows the operation that faile

今天排bug

常见解决方案:

1) += 这样的话相当于把之前的值覆盖了,因此反向传播的时候,就会报错。变成x = x+ 1(还记得我刚看到这个代码的时候觉得,卧槽+=多方便,这沙雕这基本语法都不知道吗)

2)如果是对比学习的例如GAN这种网络,两个loss.backward()放在一起大概这样子。

3)有可能是自己代码写的太离谱了。我把自己的model和loss.backward()放在不同循环了。网上的所有答案都对不上。 model和loss.backward()放在一个循环里好吧。 模型的参数是会逐渐进步的,而不是一只新建生成这样子。

你可能感兴趣的:(深度学习,机器学习,pycharm)