Logistics回归模型

逻辑斯蒂回归模型定义

二项逻辑斯蒂回归模型是如下条件的概率分布:
P ( Y = 1 ∣ x ) = e w ⋅ x + b 1 + e w ⋅ x + b P(Y=1|x)=\frac{e^{w\cdot x+b}}{1+e^{w\cdot x+b}} P(Y=1x)=1+ewx+bewx+b
P ( Y = 0 ∣ x ) = 1 1 + e w ⋅ x + b P(Y=0|x)=\frac{1}{1+e^{w\cdot x+b}} P(Y=0x)=1+ewx+b1
w ^ \widehat{w} w 为(w;b),记 x ^ \widehat{x} x 为(x,1)上述两式可写成:
P ( Y = 1 ∣ x ) = e w ^ ⋅ x ^ 1 + e w ^ ⋅ x ^ P(Y=1|x)=\frac{e^{\widehat{w}\cdot \widehat{x}}}{1+e^{\widehat{w}\cdot \widehat{x}}} P(Y=1x)=1+ew x ew x
P ( Y = 0 ∣ x ) = 1 1 + e w ^ ⋅ x ^ P(Y=0|x)=\frac{1}{1+e^{\widehat{w}\cdot \widehat{x}}} P(Y=0x)=1+ew x 1

假设有{X1,X2,X3…Xn}的样本,正例类别记为y=1,反例类别记为y=0;则Xi服从未知参数为p的伯努利分布,那么每个Xi的概率质量函数为:
f = p y i ( 1 − p ) 1 − y i f=p^{y_{i}}(1-p)^{1-y_{i}} f=pyi(1p)1yi
其似然函数为:
L ( p ) = ∏ i = 1 n f = p y 1 ( 1 − p ) 1 − y 1 × p y 2 ( 1 − p ) 1 − y 2 × . . . × p y n ( 1 − p ) 1 − y n L(p)=\prod_{i=1}^{n}f=p^{y_{1}}(1-p)^{1-y_{1}}\times p^{y_{2}}(1-p)^{1-y_{2}}\times ...\times p^{y_{n}}(1-p)^{1-y_{n}} L(p)=i=1nf=py1(1p)1y1×py2(1p)1y2×...×pyn(1p)1yn
取对数似然可得:
l n L ( p ) = ∑ i = 1 n [ y i l n ( p ) + ( 1 − y i ) l n ( 1 − p ) ] lnL(p)=\sum_{i=1}^{n}[ y_{i}ln(p)+(1-y_{i})ln(1-p)] lnL(p)=i=1n[yiln(p)+(1yi)ln(1p)]

P ( Y = 1 ∣ x ) = e w ^ ⋅ x ^ 1 + e w ^ ⋅ x ^ P(Y=1|x)=\frac{e^{\widehat{w}\cdot \widehat{x}}}{1+e^{\widehat{w}\cdot \widehat{x}}} P(Y=1x)=1+ew x ew x
代入化简得:
∑ i = 1 n [ y i ( w ^ ⋅ x i ^ ) − l n ( 1 + e w ^ ⋅ x i ^ ) ] \sum_{i=1}^{n}[y_{i}(\widehat{w}\cdot \widehat{x_{i}})-ln(1+e^{\widehat{w}\cdot \widehat{x_{i}}})] i=1n[yi(w xi )ln(1+ew xi )]
w ^ \widehat{w} w 为变量,最大化该似然函数即可。

从几何角度看逻辑回归

以对一维的样本数据分类为例,样本点为X={1,2,3,4,5,6},对应的类别分别为Y={0,0,0,1,1,1},经过逻辑回归训练后的结果为:w=7.316 b=25.470 。

w ^ = [ 7.316 , 25.470 ] T \widehat{w}=[7.316,25.470]^{T} w =[7.316,25.470]T
根据 P ( Y = 1 ∣ x ) = e w ^ ⋅ x ^ 1 + e w ^ ⋅ x ^ P(Y=1|x)=\frac{e^{\widehat{w}\cdot \widehat{x}}}{1+e^{\widehat{w}\cdot \widehat{x}}} P(Y=1x)=1+ew x ew x
带入 w ^ \widehat{w} w 和测试样例 x i ^ \widehat{x_{i}} xi ,求得P值:当P>0.5时将其判定为1(正例),否则判定为0(反例)。

意义:

只看样本而不看样本类别时,样本X里的元素就是数轴上的6个点;而使用加上样例类别时,变成了二维面上的点,从X={1,2,3,4,5,6}和Y={0,0,0,1,1,1}到 (X,Y)={(1,0),(2,0),(3,0),(4,1),(5,1),(6,1)}, 此时,就是寻找一条线拟合(X,Y)的这些点,这条线就是函数
f ( x ) = e w ^ ⋅ x ^ 1 + e w ^ ⋅ x ^ f(x)=\frac{e^{\widehat{w}\cdot \widehat{x}}}{1+e^{\widehat{w}\cdot \widehat{x}}} f(x)=1+ew x ew x
如下图:

此时该问题变成了线性回归问题,即寻找一条线,最大程度拟合(X,Y)={(1,0),(2,0),(3,0),(4,1),(5,1),(6,1)}这些点。

此时为样本只有1个特征的例子,当样本点有两个特征时,可以转化为求一个柱面拟合 ( X 1 , X 2 , Y ) (X_{1},X_{2},Y) (X1,X2,Y)上的所有点(该柱面的垂直投影形状为$y=\frac{et}{1+et} ) , 更 多 特 征 时 , 类 似 寻 找 超 平 面 拟 合 所 有 点 ),更多特征时,类似寻找超平面拟合所有点 (X_{1},X_{2},…,X_{n},Y)$

你可能感兴趣的:(AI)