机器学习基石下--logistic regression

Gradient of logistic regression error

下一步,求Ein(w)的最小值。可以证明Ein(w)是连续、可微、二次可微的,且二次微分矩阵为正定矩阵。因此Ein(w)是个凸函数(convex)。


机器学习基石下--logistic regression_第1张图片
image.png

Ein(w)的梯度:


机器学习基石下--logistic regression_第2张图片
image.png

想要Ein(w)的梯度等于0,有两种情况
机器学习基石下--logistic regression_第3张图片
image.png

一种是所有的θ项都为0,这种情况只有在数据集是线性可分时才会出现。
另一种是加权和等于0,这是一个w的非线性方程,没有解析解,或称封闭解(close-form solution)。只能通过迭代法求解


image.png

迭代法求最优解
沿着某个方向迈出最大一步
image.png

做泰勒展开,将问题转化为线性问题:
机器学习基石下--logistic regression_第4张图片
image.png

给定步长条件下,求最优解的一种贪婪算法
机器学习基石下--logistic regression_第5张图片
image.png

机器学习基石下--logistic regression_第6张图片
image.png

v的方向已经确定,下一步,如何确定步长η


机器学习基石下--logistic regression_第7张图片
image.png

步长η与梯度项成正比,进一步简化
机器学习基石下--logistic regression_第8张图片
image.png

因此,logistic regression的演算法可总结为:
机器学习基石下--logistic regression_第9张图片
image.png

你可能感兴趣的:(机器学习基石下--logistic regression)