Pytorch 神经网络backword()理解

看了很多篇文章,感觉下边这篇写的最清楚。

https://www.jianshu.com/p/cbce2dd60120

个人理解:

 在神经网络中计算中,输入、输出、中间输出值、和模型参数,都看做变量。在反向传播中,backword()函数可以计算变量的梯度、前提是这个变量是不是中间输出值、输出。就是文中所说的没有creater 。具体到神经网络中,模型参数是一开始就有的所以我们可以计算得到梯度。后可以使用step()更新,如果理解的有错误,请指正。

你可能感兴趣的:(Pytorch 神经网络backword()理解)