LR,
Logistic Regression
,逻辑回归
之前笔记:逻辑回归
推荐视频链接:
逻辑回归
逻辑回归
二分类:分类目标只有两种
判断是猪吗-----是、不是
逻辑回归=线性回归+sigmoid函数
线性回归
就是用一条直线来拟合自变量和因变量之间的关系把回归变成分类?
否
,当 y ∈ [ 0 , 1 ] y\in[0,1] y∈[0,1]是
解读损失函数
我们采用 ∈ {0, 1} 以符合Logistic 回归的描述习惯.
为了解决连续的线性函数不适合进行分类的问题,我们引入非线性函数 ∶ R → ( 0 , 1 ) ∶ℝ^ → (0, 1) g∶RD→(0,1)来预测类别标签的后验概率( = 1|).
( = 1 ∣ ) = ( ( ; ) ) ( = 1|) = ((; )) p(y=1∣x)=g(f(x;w))
其中(⋅) 通常称为激活函数(Activation Function
),其作用是把线性函数的值域从实数区间“挤压”到了(0, 1)
之间,可以用来表示概率.
在Logistic 回归
中,我们使用Logistic 函数
来作为激活函数.标签 = 1
的后验概率为
( = 1|)=(T) ≜ 1 1 + e x p ( − T ) \frac{1}{1 + exp(−^T)} 1+exp(−wTx)1
为简单起见,这里 = [ 1 , ⋯ , , 1 ] T = [_1, ⋯ , _, 1]^T x=[x1,⋯,xD,1]T和 = [ 1 , ⋯ , , ] T = [_1, ⋯ , _, ]^T w=[w1,⋯,wD,b]T分别为 + 1 维的增广特征向量和增广权重向量.
线性回归
是用一条直线来拟合自变量和因变量之间的关系(做预测)逻辑回归
是来解决二分类问题的(做分类)把一个多分类问题变成多个二分类问题
。One-Vs-One
是一种相对稳健的扩展方法。对于同样的三分类问题,我们像举行车轮作战一样让不同类别的数据两两组合训练分类器,可以得到 3 个二元分类器。Softmax
让一个样本映射到多个【0,1】之间的数值上Softmax
使得所有概率之和为1,对概率分布归一化
优点:
对数据中小噪声的鲁棒性好;
LR 算法已被广泛应用于工业问题中;
多重共线性并不是问题,它可结合正则化来解决。
LR算法的缺点:
对于非线性特征,需要转换
当特征空间很大时,LR的性能并不是太好