机器学习中梯度下降法和牛顿法的比较

梯度下降法用到一阶导,即目标函数变化最快的方向,牛顿法同时用到二阶导,计算梯度变化最快的方向,收敛速度更快。

梯度下降法

迭代公式为: θ j : = θ j − α ∂ ∂ θ j J ( θ j ) \theta_j :=\theta_j -\alpha \frac{\partial }{\partial \theta_j } J(\theta_j ) θj:=θjαθjJ(θj),其中 α \alpha α为步长,参数往函数极小值的方向前进。
机器学习中梯度下降法和牛顿法的比较_第1张图片

牛顿法

机器学习中梯度下降法和牛顿法的比较_第2张图片
机器学习中梯度下降法和牛顿法的比较_第3张图片机器学习中梯度下降法和牛顿法的比较_第4张图片
作者: peghoty

出处: http://blog.csdn.net/itplus/article/details/21896453

你可能感兴趣的:(machine,learning)