概率-贝叶斯

计算机世界有很多事情其实就是通过概率计算得来的,有时候简单得让人难以置信

这几天在外面,没有好好整理,但又因为看了些杂书,所以对数学的需求更加基本了,来认识一个基本公式:

贝叶斯

概率的概念引出之后,用来解决正向推理就方便了很多,比如掷骰子就可以预测下一次掷得到某个结果的概率或者某几次的概率了,但这仅仅能解决很少一部分问题,因为单个事件的概率是确定的,那么单个事件重复发生就变得可预测,因为我们一直假设骰子或者硬币是非常规则的;但现实世界通常并不是单个事件的重复发生,而是多个不同概率的事件在交叉联结,就没有那么简单了,于是有了贝叶斯公里

贝叶斯定理由英国数学家贝叶斯 ( Thomas Bayes 1702-1761 ) 发展,用来描述两个条件概率之间的关系,比如 P(A|B) 和 P(B|A),按照乘法法则,可以立刻导出:P(A∩B) = P(A)*P(B|A)=P(B)*P(A|B);如上公式也可变形为:P(B|A) = P(A|B)*P(B) / P(A)。——来自百度百科

公式当中的“|”符号可以读作“给定”或者“given”,“∩”是交集符号,可以认为是“并且”

我们可以把上面的公式读作:给定A后B发生的概率=给定B后A的发生概率*B的概率/A的发生概率

更加通用的贝叶斯公式

这里给定的概率又有一个专有名词,叫“先验概率”,官方对这个名词的解释是——根据以往经验和分析得到的概率,如全概率公式,它往往作为"由因求果"问题中的"因"出现的概率

与此对应的就还有一个“后验概率”,就是通过贝叶斯公式求出来的结果,最常用的例子就是:

假设一个学校里有60%男生和40%女生。女生穿裤子的人数和穿裙子的人数相等,所有男生穿裤子。一个人在远处随机看到了一个穿裤子的学生。那么这个学生是女生的概率是多少?

使用贝叶斯定理,事件A是看到女生,事件B是看到一个穿裤子的学生。我们所要计算的是P(A|B)。

P(A)是忽略其它因素,看到女生的概率,在这里是40%

P(A')是忽略其它因素,看到不是女生(即看到男生)的概率,在这里是60%

P(B|A)是女生穿裤子的概率,在这里是50%

P(B|A')是男生穿裤子的概率,在这里是100%

P(B)是忽略其它因素,学生穿裤子的概率,P(B) = P(B|A)P(A) + P(B|A')P(A'),在这里是0.5×0.4 + 1×0.6 = 0.8.

根据贝叶斯定理,我们计算出后验概率P(A|B)

P(A|B)=P(B|A)*P(A)/P(B)=0.25

可见,后验概率实际上就是条件概率。

也可以看出,“先验概率”实际上是事件独立性的概率,而“后验概率”(或条件概率)是不同事件的组合概率,更趋向于现实

贝叶斯理论主要用于决策判据,常见的语音识别、机器翻译,最基本的原理就是通过它来的:

贝叶斯决策理论方法是统计模式识别中的一个基本方法。贝叶斯决策判据既考虑了各类参考总体出现的概率大小,又考虑了因误判造成的损失大小,判别能力强。贝叶斯方法更适用于下列场合:

(1) 样本(子样)的数量(容量)不充分大,因而大子样统计理论不适宜的场合。

(2) 试验具有继承性,反映在统计学上就是要具有在试验之前已有先验信息的场合。用这种方法进行分类时要求两点:  第一,要决策分类的参考总体的类别数是一定的。例如两类参考总体(正常状态Dl和异常状态D2),或L类参考总体D1,D2,…,DL(如良好、满意、可以、不满意、不允许、……)。

基于贝叶斯的应用非常多,因为它很基础,有朴素贝叶斯算法(可以看这篇文章:朴素贝叶斯分类器的应用)

明天接着描述别的,晚安

你可能感兴趣的:(概率-贝叶斯)