吴恩达之神经网络和深度学习-2.9logistic回归中的梯度下降算法

本节课是按照三个函数来进行的,由3个函数进行梯度下降算法的计算。
z=wTx+b z = w T x + b
y^=a=σ(z)=11+ez y ^ = a = σ ( z ) = 1 1 + e − z
L(a,y)=(ylog(a)+(1y)log(1a)) L ( a , y ) = − ( y l o g ( a ) + ( 1 − y ) l o g ( 1 − a ) )
假设我们有两个特征值 x1x2 x 1 、 x 2 ,需要去找到对应的 w1w2b w 1 、 w 2 和 b 的最小值。
首先我们求 da d a
da=dL(a,y)da=[yloga(1y)log(1a)]=[ylogalog(1a)+ylog(1a)]=ya+11ay1a=ya+1y1a d a = d L ( a , y ) d a = [ − y l o g a − ( 1 − y ) l o g ( 1 − a ) ] ′ = [ − y l o g a − l o g ( 1 − a ) + y l o g ( 1 − a ) ] ′ = − y a + 1 1 − a − y 1 − a = − y a + 1 − y 1 − a
dadz=[11+ez]=ez(1+ez)2=((1+ez)1)(1+ez)2=11+ez(11+ez)2=aa2=a(1a) d a d z = [ 1 1 + e − z ] ′ = e − z ( 1 + e − z ) 2 = ( ( 1 + e − z ) − 1 ) ( 1 + e − z ) 2 = 1 1 + e − z − ( 1 1 + e − z ) 2 = a − a 2 = a ( 1 − a )
dz=dL(a,y)dadadz=(aa2)(1y1aya)=aay1aya2a2y1a+ay=aay(a2a2y)1ay+ay=aaya(aay)1ay+ay=(1a)(aay)1ay+ay=aayy+ay=ay d z = d L ( a , y ) d a d a d z = ( a − a 2 ) ( 1 − y 1 − a − y a ) = a − a y 1 − a − y − a 2 − a 2 y 1 − a + a y = a − a y − ( a 2 − a 2 y ) 1 − a − y + a y = a − a y − a ( a − a y ) 1 − a − y + a y = ( 1 − a ) ( a − a y ) 1 − a − y + a y = a − a y − y + a y = a − y
dw1=dL(a,y)dw1=dL(a,y)dadadzdzdw1=x1dz d w 1 = d L ( a , y ) d w 1 = d L ( a , y ) d a d a d z d z d w 1 = x 1 d z
同理可知
dw2=x2dz d w 2 = x 2 d z
db=dz d b = d z
由此,我们可以知道单个样本的梯度下降算法的计算过程是怎样进行的,那么下节课我们将看多种样本的梯度下降算法的计算过程。

你可能感兴趣的:(视频资料)