NaiveBayes

贝叶斯公式 + 条件独立假设 = 朴素贝叶斯方法

$$

P(Y|X)=\frac{P(X|Y)}{P(X)}

$$

其中P(Y)叫做先验概率,P(Y|X)叫做后验概率,P(Y,X)叫做联合概率。

1. P(“属于某类”|“具有某特征”)=在已知某样本“具有某特征”的条件下,该样本“属于某类”的概率。所以叫做『后验概率』。

2. P(“具有某特征”|“属于某类”)=在已知某样本“属于某类”的条件下,该样本“具有某特征”的概率。

3. P(“属于某类”)=(在未知某样本具有该“具有某特征”的条件下,)该样本“属于某类”的概率。所以叫做『先验概率』。

4. P(“具有某特征”)=(在未知某样本“属于某类”的条件下,)该样本“具有某特征”的概率。

由于计算时具有某特征而属于某类无法直接通过统计得到,比如有十个属性而求相应类概率是比较复杂的,但是反过来求对应类会有那些属性概率则可以通过统计得到,因此需要用到上面所说的概率公式将其转换。当然朴素贝叶斯算法有个更加强的假设,就是属性间相互独立,也就是概率可以进行相乘:

$$

P(v_1,\cdots,v_n|x_k)=\Pi P(v_i|x_k)

$$

当特征属性为连续值时,通常假定其值服从高斯分布(也称正态分布)

你可能感兴趣的:(NaiveBayes)