吴恩达深度学习--logistic回归中的梯度下降法

如果要对一个例子进行梯度下降,需要用公式算出dz,然后算出dw1、dw2、db,

然后进行更新w1、w2、b

我们关心得J(w,b)是一个平均函数,这个损失函数L。


a^i是训练样本的预测值





以上是对于单个例子的逻辑回归。


我们可以初始化J=0,dw1 dw2 db都为0


回顾我们正在做的细节,dw1、dw2、db作为累加器


你可能感兴趣的:(吴恩达深度学习--logistic回归中的梯度下降法)