逻辑回归模型--分类标签的概率分布

逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个sigmod函数,但也就由于这个sigmod函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。
关于LR模型的数学原理和参数求解方法,已经有很多优秀的文章介绍过,在此我不再赘述。今天给大家介绍的主题是逻辑回归模型中分类标签的概率分布。

基于经典统计学学派的观点,逻辑回归的分类标签是基于样本特征通过二项分布产生的,分类器要做的实际上就是估计这个分布。

为什么说逻辑回归的分类标签是服从二项分布的呢?
请先看逻辑回归的hypothesis(假设)函数:


逻辑回归模型--分类标签的概率分布_第1张图片
Hypothesis function

LR模型是这样工作的:对待分类样本的特征向量x,把x带入h函数,算得hθ(x)。若hθ(x)大于预设门限(一般是0.5),则判定待分类样本属于类别1,否则属于类别0。
简单来说,逻辑回归模型希望找到一个合适的θ,使得h函数在预测集上能有足够好的表现。在此,我们假设预测集和训练集满足相同的概率分布。

那么,预测集和训练集应该满足怎样的概率分布呢?先贤们已经得出结论,二项分布
请回想二项分布的性质:
1)重复进行n次随机试验,n次试验相互独立,且事件发生与否的概率在每一次独立试验中都保持不变。
2)每次试验仅有两个可能结果,且两种结果互斥。
逻辑回归的h函数正是基于 “样本分类标签满足二项分布”的假设而推导出来的。

性质1的说明

针对性质1,若样本分类标签不满足“n次试验相互独立,且事件发生与否的概率在每一次独立试验中都保持不变”,则对应到h函数,针对相同的自变量x,因变量h(x)会有不同的输出值,进而给出不同的分类标签y,这与我们对hypothesis 函数的定义相矛盾。
上面这段话可能有点费解,让我用一个例子解释:我训练了一个女友心情分类器,分类器的输入是一个二维特征向量 [我早上是否和她说了早安,我最近一周是否给她购买过礼物],分类器的输出是开心/不开心。训练样本如下:

训练样本 说早安 买礼物 女友心情
样本1 开心
样本2 开心
样本3 不开心
样本4 不开心

分类器训练好了,我满心欢喜地来预测今天女友今天是否开心,[说了早安,买了礼物],结果女友今天吐槽我说“我同事的老公又给她买了新的项链,我不开心”。显然,我们的分类器失效了。
事实上,根据谚语"女人的心情,三分天注定,七分靠shopping",我们可以推断出女友心情应该是随机且不可预测的。LR模型在该场景完败,奉劝大家还是多买买买来讨好女朋友。

性质2的说明

针对性质2,一个样本只可能属于一个分类标签,这个比较好理解,LR模型的分类结果是样本i属于类别C,不存在样本i既属于类别C又属于类别D的情况。如果样本可能属于多个分类,例如薛定谔的猫,就不适合使用LR模型来分类。

总结

LR模型建立在 “样本分类标签满足二项分布”的假设上。因此,对于不满足二项分布的场景,LR模型无法准确分类。解决的途径可以是增加非线性特征、组合特征等,使分类标签在更高维特征空间满足二项分布;或是选择决策树、随机森林等非线性模型。

更多精彩内容,请关注我的个人博客。

你可能感兴趣的:(逻辑回归模型--分类标签的概率分布)