机器学习 | 逻辑回归与最大熵模型理论知识(一)


公众号后台回复“图书“,了解更多号主新书内容

作者:pandaww

来源:BBIT

机器学习 | 逻辑回归与最大熵模型理论知识(一)

今天,我们开始对逻辑回归与最大熵模型的学习。

逻辑回归是统计学习中的经典分类方法,最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型。逻辑回归模型与最大熵模型都属于对数线性模型。今天,我们先来学习逻辑回归模型。

逻辑回归模型

首先来介绍逻辑分布

定义:设 是连续随机变量, 服从逻辑分布是指 具有下列分布函数和密度函数:

式中, 为位置参数, 为形状参数。

逻辑分布的密度函数 和分布函数 的图形如下:

机器学习 | 逻辑回归与最大熵模型理论知识(一)_第1张图片

分布函数属于逻辑函数,其图形是一条S形曲线(sigmod curve)。该曲线以点 为中心对称,即满足

曲线在中心附近增长速度较快,在两端增长速度较慢。形状参数 的值越小,曲线在中心附近增长得越快。

二项逻辑回归模型

二项逻辑回归模型是一种分类模型,由条件概率分布 表示,形式为参数化的逻辑分布。这里,随机变量 取值为实数,随机变量 取值为1或0.我们通过监督学习的方法来估计模型参数。

定义:二项逻辑回归模型是如下的条件概率分布:

这里, 是输入, , 和 是参数, 称为权值向量,b称为偏置, 为 和 的内积。

对于给定的输入实例x,按照上面两式可以求得 和 。逻辑回归比较两个条件概率值的大小,将实例x分到概率值较大的那一类。

有时为了方便,将权值向量和输入向量加以扩充,扔记作 、 ,即,。这时,逻辑回归模型如下:

现在考察逻辑回归模型的特点。一个事件的几率是指该事件发生的概率与该事件不发生的概率的比值。如果事件发生的概率是 ,那么该事件的几率是 ,该事件的对数几率或logit函数是:

对逻辑回归而言,由(5)、(6)式得:

这就是说,在逻辑回归模型中,输出Y = 1的对数几率是输入 的线性函数。或者说,输出Y = 1的对数几率是由输入 的线性函数表示的模型,即逻辑回归模型。

换一个角度看,考虑对输入 进行分类的线性函数 ,其值域为实数域。注意,这里 。通过逻辑回归模型定义式(5)可以将线性函数 转换为概率:

这时,线性函数的值越接近正无穷,概率值就越接近1;线性函数的值越接近负无穷,概率值就越接近于0。这样的模型就是逻辑回归模型。

模型参数估计

逻辑回归模型学习时,对于给定的训练数据集,其中, , ,可以应用极大似然估计法估计模型参数,从而得到逻辑回归模型。

设:                       

似然函数为:

对数似然函数为:

对 求极大值,得到 的估计值。

这样,问题就变成了以对数似然函数为目标函数的最优化问题。逻辑回归学习中通常采用的方法是梯度下降法及拟牛顿法。

假设 的极大似然估计值是 ,那么学到的逻辑回归模型为:

多项逻辑回归

上面说的是二项分类模型,可以将其推广到多项逻辑回归模型,用于多项分类。假设离散型随机变量Y的取值集合是{1, 2, ..., K},那么多项逻辑回归模型是:

这里, 。

二项逻辑回归的参数估计法也可以推广到多项逻辑回归。

◆ ◆ ◆  ◆ ◆麟哥新书已经在当当上架了,我写了本书:《拿下Offer-数据分析师求职面试指南》,目前当当正在举行活动,大家可以用相当于原价5折的预购价格购买,还是非常划算的:








数据森麟公众号的交流群已经建立,许多小伙伴已经加入其中,感谢大家的支持。大家可以在群里交流关于数据分析&数据挖掘的相关内容,还没有加入的小伙伴可以扫描下方管理员二维码,进群前一定要关注公众号奥,关注后让管理员帮忙拉进群,期待大家的加入。
管理员二维码:
猜你喜欢
● 卧槽!原来爬取B站弹幕这么简单● 厉害了!麟哥新书登顶京东销量排行榜!● 笑死人不偿命的知乎沙雕问题排行榜
● 用Python扒出B站那些“惊为天人”的阿婆主!● 你相信逛B站也能学编程吗

你可能感兴趣的:(机器学习,python,人工智能,支持向量机,数据分析)