深度学习过程反向传播有关sigmoid的求导

在深度学习的反向传播过程中,我们需要对激活函数进行求偏导,这里写一点如果激活函数是sigmoid函数时的推导过程。

Flow chart(Forward propagation)

input --> --> --> --> Error=

Flow chart(Backward propagation)

output <-- <---------------------------

在经历一次前向传播后,我们会得到一个输出yi,同时我们回得到一个MSE作为与我们目标的误差反馈。深度学习中我们会对误差进行w的偏导,然后对w进行更新,这个步骤和梯度下降法的参数更新是一个原理。

其中,

\frac{\delta y_i}{\delta h_i} = \frac{\delta (\frac{1}{1+e^{-h_i}})}{\delta h_i} = \frac{e^{-h_i}}{(1+e^{-h_i})^2} = \frac{1+e^{-h_i}-1}{(1+e^{-h_i})^2} = \frac{1}{1+e^{-h_i}} - \frac{1}{(1+e^{-h_i})^2}

这里,

所以,


综上,

最后更新, , 是学习率。

你可能感兴趣的:(深度学习过程反向传播有关sigmoid的求导)