Naive Bayesian(朴素贝叶斯)

朴素贝叶斯是基于贝叶斯定理特征条件独立假设的分类方法。

对于给定的训练数据集,先基于特征条件独立假设学习到输入输出的联合概率分布,然后基于此模型,对于给定的输入x,利用贝叶斯定理输出后验概率最大的输出y。(属于生成模型)


综合来说就是:

1.       由训练数据学习联合概率分布。(会用到条件独立性假设)

2.       利用贝叶斯定理将输入x分到后验概率最大的类y。


具体推导:

1. 由训练数据求解联合概率分布

在这里联合概率分布p(x,y)=p(x|y)*p(y)

其中p(x|y)p(y)这两个概率用极大似然估计或贝叶斯估计来求解。

极大似然估计求解:

 

Naive Bayesian(朴素贝叶斯)_第1张图片

贝叶斯估计求解:

极大似然估计可能会出现所要估计的概率值为0的情况,这会影响到后验概率的计算结果,是分类产生偏差。贝叶斯估计可以解决这一问题。

            Naive Bayesian(朴素贝叶斯)_第2张图片 ( 式4-10)

其中Sj指某个特征对应的取不同值的个数。(Sj个a,这一点确定4-10为概率分布。)

Naive Bayesian(朴素贝叶斯)_第3张图片

K代表K个C(类别)。

注意:上面的式子中求和符号对右面所有式子有效。这就等价于在随机变量各个取值的频数上附加一个正数  ,当 λ=0时就是极大似然估计,常取 λ=1,这时称为拉普拉斯平滑。

注:


 

上式表明式4-10确为一种概率分布。


2. 求得联合概率分布后,利用贝叶斯定理进行分类预测。

贝叶斯定理:

 

注:

其中分母为全概率公式。在这里朴素贝叶斯应用了条件独立性假设,即条件概率

Naive Bayesian(朴素贝叶斯)_第4张图片

代入上面的式子可以得到后验概率 


在这里我们把后验概率最大的类作为x的输出(等价于期望风险最小化—待理解),即朴素贝叶斯分类器可以表示为 


注:

分母中的求和公式是对右面全部式子起作用的,由此可知分母对所有的Ck都是相同的,因此可以只看分子。即分类器为


你可能感兴趣的:(机器学习十大算法)