朴素贝叶斯分类

贝叶斯定理 

英国数学家贝叶斯(Thomas Bayes)曾经给出如下定理: 

P(A)表示A事件发生的概率,P(B)表示B事件发生的概率;P(A|B)表示在B事件已经确定发生的情况下,发生A事件的概率;P(B|A)表示在A事件已经确定发生的情况下,发生B事件的概率;P(AB)表示AB事件同时发生的概率。所以: 

P(A)P(B|A)=P(AB)=P(B)P(A|B) 

也就是说,A事件发生的概率乘以A事件已发生条件下B事件发生的概率,和B事件发生的概率乘以B事件已发生条件下A事件发生的概率,这二者是相等的,都等于AB事件同时发生的概率。 

(特例:如果A、B是独立事件,互不相关,那么P(A)=P(A|B),P(B)=P(B|A),于是:P(A)P(B)=P(AB)。) 

变换一下得到: 

P(B|A)=P(B)P(A|B)/P(A) 

在很多场景下,P(A|B)是容易得出的,但是P(B|A)不容易获得,这时可以利用贝叶斯公式求得。 

我们还可以把贝叶斯定理推论到三元情形: 

P(A|B,C)=P(B|A)P(A)P(C|A,B) / (P(B)P(C|B)) 



朴素贝叶斯分类(Naive Bayesian Classification) 

假设具备如下分类:C1, C2, C3, … Cn, 

同时,待分类项x具备如下相关属性分类项:a1, a2, a3, … an, 

接着我们定义x属于Ck分类,当且仅当:P(Ck|x)=max{P(C1|x), P(C2|x), … P(C3|x)}。这一步是属于对分类器的应用。 

也就是说,根据x的相关属性分类项来判断,和哪一分类最匹配时,x就算属于该分类。 

下面我们开始进行分类器的构建: 

1、确定相关特征属性分类项。就是上述的a1, a2, … an,对于x出现在某分类Ci中的概率,等于每个特征属性出现在该分类中的概率之积: 

P(x|Ci)=P(a1|Ci)P(a2|Ci)…P(an|Ci) —— 公式A 

2、整理取得训练样本。这个样本的数量和准确性会大大影响到分类的准确性,很多时候需要清洗样本数据。 

3、分别计算每个类别下每个相关属性的概率,即: 

P(ak|Ci),其中1<=k<=m,ak表示任一相关属性,1<=i<=n,Ci表示任一分类。 

根据贝叶斯定理和公式A,可以得到x事件出现在Ci分类中的概率: 

P(Ci|x)P(x)=P(Ci)P(x|Ci)=P(Ci)P(a1|Ci)P(a2|Ci)…P(an|Ci) —— 公式B 

通过比较对任意的i,1<=i<=n的时候,P(Ci|x)P(x)的取值,从中找到最大值,就可以找到x的分类——因为对于不同的i,P(x)在是恒定值,所以对此问题而言,比较P(Ci|x)P(x)的最大值和比较P(Ci|x)的最大值是一致的。 

举一个具体的例子: 

一批商品,分类C1是正品,C2是次品。现在有两个属性分类项:a1表示质量,划为<1千克和>=1千克两个分类;a2表示体积,划为<1cm³和>=1cm³两个分类。 

经过100个商品的样本统计,其中正品有80个,其中有60个质量<1千克,20个质量>=1千克,有40个体积<1cm³,40个体积>=1cm³;而余下的次品20个中,有5个质量<1千克,15个质量>=1千克,4个体积<1cm³,16个体积>=1cm³。 

也就是说: 

P(C1)=80/100, P(a1<1|C1)=60/80, P(a1>=1|C1)=20/80, P(a2<1|C1)=40/80, P(a2>=1|C1)=40/80 

P(C2)=20/100, P(a1<1|C2)=5/20, P(a1>=1|C2)=15/20, P(a2<1|C2)=4/20, P(a2>=1|C2)=16/20 

下面使用已经计算完成的分类器进行分类: 

有一个待分类的商品x,它的质量是0.8千克,体积是1.1cm³,那么: 

根据公式B: 

P(x)P(C1|x)=P(C1)P(x|C1)=P(C1)P(a1<1|C1)P(a2>=1|C1)=0.3 

P(x)P(C2|x)=P(C2)P(x|C2)=P(C2)P(a1<1|C2)P(a2>=1|C2)=0.12 

所以,该商品判断为C1正品。

你可能感兴趣的:(机器学习)