特定条件下结构风险最小化等价于最大后验概率估计



为了降低产生过拟合的可能性,我们从样本的所有属性中选取一部分属性集用以训练模型,一种防止过拟合的方法—正则化,它将会保留所有属性。


频率学派

之前我们一直是通过求最大似然值确定参数(maximum likelihood (ML)):

特定条件下结构风险最小化等价于最大后验概率估计_第1张图片

上式中的θ是基于频率学派(frequentist)的观点对待的,频率学派认为,θ是一个固定不变的常量,只是我们现在还不知道它的值,而我们的目的就是基于统计学原理获得θ的近似值。我们要通过随机产生的样本去估计这个参数,所以才有了最大似然估计这些方法。

贝叶斯学派

特定条件下结构风险最小化等价于最大后验概率估计_第2张图片

然而,贝叶斯学派(Bayesian)对于θ的观点与频率学派的观点是不同的,它们认为,θ是一个未知的随机变量,因此可以给出关于θ分布情况的先验概率p(θ),例如θ可能满足高斯分布等等(这是一种假设或者说是统计结果,此时并未考虑我们的训练样本)。如上为后验概率。

把每个类别的标签看成上面的参数θ,然后用样本去推测出标签的分布。贝叶斯学派强调人的先验的作用,即人以往认知的作用。并且通过不断增添新的知识,来更新以往的认知。


在频率学派中最大似然估计没有将θ视作y的估计参数,认为θ是一个常数,只是未知其值而已,比如我们经常使用常数c作为y=2x+c的后缀一样。因此对于p(y(i)|x(i);θ)中的θ,对极大似然估计求导后,可以求出一个确定的值θ。

而贝叶斯估计将θ视为随机变量,θ的值满足一定的分布,不是固定值,我们无法通过计算获得其值,只能在预测时计算积分。

然而在上述贝叶斯估计方法中, 虽然公式合理优美,但后验概率p(θ|S)很难计算,看其公式知道计算分母时需要在所有的θ上作积分,然而对于一个高维的θ来说,枚举其所有的可能性太难了。


贝叶斯方法的参数估计

贝叶斯方法的参数估计,就是通过最大化后验概率来估计模型的参数。

假定模型参数为w,数据集为D,贝叶斯通过最大化后验概率估计模型参数w,即:




后验概率的展开形式

假定如下:

1、样本独立不相关

2、模型参数独立不相关

特定条件下结构风险最小化等价于最大后验概率估计_第3张图片

最新的优化问题为:


参数的先验概率与正则项

当参数w的先验概率满足高斯分布:

优化问题的左项中,如果w满足N(0,1/(2λ)):

特定条件下结构风险最小化等价于最大后验概率估计_第4张图片

这时候的优化函数为:

同样地,参数w的先验概率满足均值为0的拉普拉斯分布,有:



这说明:

L2正则,等价于参数w的先验分布满足均值为0的正态分布

L1正则,等价于参数w的先验分布满足均值为0的拉普拉斯分布

拉普拉斯在0附近突出,周围稀疏,对应容易产生稀疏解的模型





























http://blog.csdn.net/xmu_jupiter/article/details/44996261

http://www.cnblogs.com/Determined22/p/6347778.htmlhttp://blog.csdn.net/Young_Gy/article/details/58147838

http://blog.csdn.net/zhuxiaodong030/article/details/54408786

http://blog.csdn.net/Young_Gy/article/details/58147838

http://blog.csdn.net/yzheately/article/details/51120239https://www.zhihu.com/question/23536142


你可能感兴趣的:(特定条件下结构风险最小化等价于最大后验概率估计)