六、逻辑回归与最大熵模型

    • 六逻辑回归与最大熵模型
      • 1 逻辑回归模型
        • 11 逻辑分布logistics regression
        • 12二项逻辑回归模型
        • 13模型参数估计
        • 14多项逻辑回归
      • 2最大熵模型
        • 21最大熵原理
        • 22最大熵模型的定义
        • 23最大熵模型的学习
        • 24极大似然估计
      • 3模型学习的最优化算法

六、逻辑回归与最大熵模型

逻辑回归(logistic regression)是统计学习中的经典分类方法。最大熵是概率模型学习的一个准则,将其推广到分类问题得到最大熵模型(maximum entropy model)。逻辑回归与最大熵模型都属于对数线性模型

6.1 逻辑回归模型

6.1.1 逻辑分布(logistics regression)

定义: X 是连续随机变量, X 服从逻辑分布是指 X 具有下列分布函数和密度函数:

F(x)=P(Xx)=11+e(xμ)/γ

f(x)=F(x)=e(xμ)/γγ(1+e(xμ)/γ)2

分布函数属于逻辑函数,其图形是一条S型曲线(sigmoid curve)。该曲线以点 (μ,12) 为中心对称。

6.1.2二项逻辑回归模型

二项逻辑回归模型(binomial logistics regression model)是一种分类模型,由条件概率分布 P(Y|X) 表示,形式为参数化的逻辑分布。其中,随机变量 X 取值为实数,随机变量 Y 取值为1或0。我们通过监督学习的方法来估计模型参数。
定义:二项逻辑回归模型是如下的条件概率分布:

P(Y=1|X)=exp(ωx+b)1+exp(ωx+b)

P(Y=0|X)=11+exp(ωx+b)

其中, ω 称为权值向量,b称为偏置, ωx 为内积。

逻辑分布的密度函数f(x)和分布函数F(x)的图形如图所示。分布函数属于逻辑函数,其图形是一条S形曲线(sigmoid curve)。该曲线以点(u, 1/2)为中心对称,即满足

- 曲线在中心附近增长速度较快,在两端增长速度较慢形状参数Y的值越小,曲线在中心附近增长得越快.
逻辑回归比较两个条件概率值的大小,将实例 x 分到概率值大的那一类。

6.1.3模型参数估计

逻辑回归模型学习时,对于给定的训练数据集 T=(x1,y1),(x2,y2),,(xN,yN), ,可以应用极大似然估计法估计模型参数,从而得到逻辑回归模型

P(Y=1|X)=π(x),P(Y=0|X)=1π(x)

似然函数为
i=1N[π(xi)]yi[1π(xi)]1yi

设对数似然函数为 L(ω) ,对 L(ω) 求极大值,得到 ω 的估计值。
这样,问题就标称了以对数似然函数为目标函数的最优化问题。逻辑回归学习中通常采用的方法是梯度下降法以及拟牛顿法。

6.1.4多项逻辑回归

上面介绍的逻辑回归模型是二项分类模型,用于二类分类,可以将其推广为多项逻辑分类模型(multi-nominal logistics regression model),用于多类分类。

6.2最大熵模型

最大熵模型(maximum entropy model)是由最大熵原理推导实现。

6.2.1最大熵原理

最大熵原理认为,学习概率模型时,在所有的可能的概率模型(分布)中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合。所以,最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。

在信息论与概率统计中,熵(entropy)是表示随机变量不确定性的度量。设 X 是一个取有限个值的离散随机变量,其概率分布为

P(X=xi)=pi,i=1,2,,n

则随机变量 X 定义为
H(X)=i=1npilogpi

直观地,最大熵原理认为要选择的概率模型首先必须满足已有的事实,即约束条件。在没有更多信息的情况下,那些不确定的部分都是“等可能的”

6.2.2最大熵模型的定义

假设满足所有约束条件的模型集合为
定义在条件概率分布P(Y|X)上的条件熵为
则模型集合C中条件熵H(P)最大的模型称为最大熵模型。

6.2.3最大熵模型的学习

最大熵模型的学习过程就是求解最大熵模型的过程,可以形式化为约束最优化问题。

转换成

6.2.4极大似然估计

最大熵模型学习中的对偶函数极大化等价于最大熵模型的极大似然估计,最大熵模型的学习问题就转换为具体求解对数似然函数极大化或对偶函数极大化的问题。
对数似然函数为:

目标函数为:

最大熵模型的一般形式为:

6.3模型学习的最优化算法

逻辑回归,最大熵模型学习归结为以似然函数为目标函数的最优化问题,通常通过迭代算法求解。
从最优化的观点看,这时的目标函数具有很好的性质。它是光滑的凸函数,因此多种最优化的方法都适用,保证能找到全局最优解。常用的方法有改进的迭代尺度法,梯度下降法,牛顿法或拟牛顿法。牛顿法或拟牛顿法一般收敛速度较快。

关于梯度下降,拟牛顿法等相关公式推导,参考coursera上Andrew NG 的课程, 这是相关博客链接:http://blog.csdn.net/abcjennifer/article/details/7716281

你可能感兴趣的:(机器学习)