基于Logistic回归的神经网络

一、
初始化参数w, b
二、向前递推:
z = np.dot(w.T,X)+b
A = sigmoid(z) ——Logistic回归
cost = -1/m * np.sum(np.dot(Y,np.log(A).T)+np.dot((1-Y),np.log(1-A).T))

向后递推:
dw = 1/m * (np.dot(X,(A-Y).T))
db = 1/m * np.sum((A-Y),axis=1,keepdims=True)

三、优化
用梯度下降
w = w - learning_rate * dw
b = b - learning_rate * b
不断的调整w, b
得到损失函数

四、预测
z = np.dot(w.T,X)+b
A = sigmoid(z)
判断概率大于还是小于0.5;
大于为1, 小于为0

你可能感兴趣的:(基于Logistic回归的神经网络)