【传统机器学习算法—笔记】-逻辑回归

版权声明:如果对大家有帮助,大家可以自行转载的。原文链接:

二分类

将一类数据定义为类别1,其余数据为类型2,只需要分类一次。
【传统机器学习算法—笔记】-逻辑回归_第1张图片

多分类

先定义其中一类为类型1(正类),其余数据为负类(rest);接下来去掉类型1数据,剩余部分再次进行二分类,分成类型2和负类;如果有n类,那就需要分类n-1次。
【传统机器学习算法—笔记】-逻辑回归_第2张图片

Sigmod激活函数

g ( z ) g(z) g(z) 代表一个常用的逻辑函数(logistic function)为 S S S形函数(Sigmoid function),公式为:
在这里插入图片描述

合起来,我们得到逻辑回归模型的假设函数:
在这里插入图片描述
Sigmod图像
【传统机器学习算法—笔记】-逻辑回归_第3张图片
g ( z ) g(z) g(z)大于等于0.5时,预测y=1;
g ( z ) g(z) g(z)小于0.5时,预测y=0。

线性回归的函数 h ( x ) = z = w T x , h(x)=z=w^Tx, h(x)=z=wTx,范围是实数集。
而分类预测结果需要得到[0,1]的概率值;
在二分类模型中,时间的几率odds:事件发生与事件不发生的概率之比为 p / 1 − p p/1-p p/1p,称为事件的发生比;
取对数得到: l o g ( p / 1 − p ) log(p/1-p) log(p/1p),而 l o g ( p / 1 − p ) = w T x = z log(p/1-p)=w^Tx=z log(p/1p)=wTx=z
求解得到: p = 1 / ( 1 + e − w T x ) = 1 / ( q + e ( − z ) ) p=1/(1+e^-w^Tx)=1/(q+e^(-z)) p=1/(1+ewTx)=1/(q+e(z))

将z进行逻辑交换:
【传统机器学习算法—笔记】-逻辑回归_第4张图片

逻辑回归求解

假设一个二分类模型:

p ( y = 1 ∣ x ; w ) = h ( x ) p(y=1|x;w)=h(x) p(y=1x;w)=h(x)
p ( y = 0 ∣ x ; w ) = 1 − h ( x ) p(y=0|x;w)=1-h(x) p(y=0x;w)=1h(x)
则: p ( y ∣ x ; w ) = ( h ( x ) ) y ( 1 − h ( x ) ) ( 1 − y ) p(y|x;w)=(h(x))^y(1-h(x))^(1-y) p(yx;w)=(h(x))y(1h(x))(1y)
逻辑回归模型的假设是: h ( x ) = g ( w T x ) = g ( z ) h(x)=g(w^Tx)=g(z) h(x)=g(wTx)=g(z)
其中 z = w T x z=w^Tx z=wTx逻辑函数公式为:
在这里插入图片描述
代价函数
J ( w ) = − 1 m ∑ i = 1 m ( y ( i ) log ⁡ ( h ( x ( i ) ) ) + ( 1 − y ( i ) ) log ⁡ ( 1 − h ( x ( i ) ) ) ) J\left(w\right)=-\frac{1}{m}\sum\limits_{i=1}^{m}{({{y}^{(i)}}\log \left( {h}\left( {{x}^{(i)}} \right) \right)+\left( 1-{{y}^{(i)}} \right)\log \left( 1-{h}\left( {{x}^{(i)}} \right) \right))} J(w)=m1i=1m(y(i)log(h(x(i)))+(1y(i))log(1h(x(i))))
为了衡量算法在全部训练样本上的表现如何,我们需定义一个算法的代价函数,算法的代价函数是对m个样本额损失函数求和然后除以m。

似然函数
【传统机器学习算法—笔记】-逻辑回归_第5张图片
梯度下降
1 m X T ( S i g m o i d ( X W ) − y ) \frac{1}{m} X^T( Sigmoid(XW) - y ) m1XT(Sigmoid(XW)y)
∂ J ( w ) ∂ w j = 1 m ∑ i = 1 m ( h ( x ( i ) ) − y ( i ) ) x j ( i ) \frac{\partial J\left( w \right)}{\partial {{w }_{j}}}=\frac{1}{m}\sum\limits_{i=1}^{m}{({{h}}\left( {{x}^{(i)}} \right)-{{y}^{(i)}})x_{_{j}}^{(i)}} wjJ(w)=m1i=1m(h(x(i))y(i))xj(i)
正则化
J ( w ) = 1 m ∑ i = 1 m [ − y ( i ) log ⁡ ( h ( x ( i ) ) ) − ( 1 − y ( i ) ) log ⁡ ( 1 − h ( x ( i ) ) ) ] + λ 2 m ∑ j = 1 n w j 2 J\left( w \right)=\frac{1}{m}\sum\limits_{i=1}^{m}{[-{{y}^{(i)}}\log \left( {{h}}\left( {{x}^{(i)}} \right) \right)-\left( 1-{{y}^{(i)}} \right)\log \left( 1-{{h}}\left( {{x}^{(i)}} \right) \right)]}+\frac{\lambda }{2m}\sum\limits_{j=1}^{n}{w _{j}^{2}} J(w)=m1i=1m[y(i)log(h(x(i)))(1y(i))log(1h(x(i)))]+2mλj=1nwj2

你可能感兴趣的:(传统机器学习算法笔记,人工智能,机器学习,深度学习,神经网络,计算机视觉)