简化代价函数 和 梯度下降(Simplified cost function and gradient descent)

把代价函数写到一起:

简化代价函数 和 梯度下降(Simplified cost function and gradient descent)_第1张图片
简化代价函数 和 梯度下降(Simplified cost function and gradient descent)_第2张图片

最大似然估计,得出来的式子。

这个代价函数它是凸的(convex),所以使用梯度下降可以获得全局最优解。


梯度下降(gradient descent ):
线性回归的特征缩放(提高梯度下降的速度)在逻辑回归中依然可以使用。

简化代价函数 和 梯度下降(Simplified cost function and gradient descent)_第3张图片
简化代价函数 和 梯度下降(Simplified cost function and gradient descent)_第4张图片

你可能感兴趣的:(简化代价函数 和 梯度下降(Simplified cost function and gradient descent))