概率公理化定义的理解

由于自己研究生方向为计算机视觉,需要用到许多概率论方面相关的知识,出来混早晚是要还滴!由于本科概率论课不太适应老师的语调,大多数课都睡过去了。。。就连最基本的概率的公理化定义,都快大学毕业了,都一直没有理解,真是囧!

赶紧恶补了下概率论,感觉对公理化定义有了一点新的认识,一方面写出来加深自己的记忆,一方面分享出来,供有同样疑问的同学看看,水平有限,如有错误也在所难免,恳请大家指出,然后我进行改正,也算是一种提高的途径。

       废话少说,下面就进入正题。

首先,先看一下从极限频率的角度,对概率进行定义:一个试验的样本空间为S,在相同的条件下可重复进行。对于样本空间S里的事件E,记n(E)为n次重复试验中E发生的次数。那么,该事件发生的概率:

即概率P(E)定义为E发生的次数占试验总次数的比例的极限,也即发生频率的极限。这一定义有很严重的缺陷,怎么就知道这个极限就一定会收敛到某个固定的常数呢?所以,用频率来定义概率的支持者就常常说这个收敛是整个系统的一个假设,即把它当作一个公理来看待。(可查看公理的定义百度百科公理)就类似于两点之间线段最短,这个是大家都认可的,是不需要证明的。然后从这一最基本的公理出发,可以推出许多新的结论。

但是这却不是一个最基本的、最简洁的假设,而且这个假设不一定为所有人所认同。那么,我们为何不先假定一些更简单、更直观的关于概率的公理,然后从这些公理出发,去证明频率在某种意义下趋于一个常数极限呢?这不是更合理吗?于是有了下述的三条关于概率的公理:

假设某个试验的样本空间为S,对应于其中任一事件E,定义一个数P(E),满足如下三条公理:

公理一   0<=P(E)<=1

公理二   P(S)=1

公理三   对任一系列互不相容的事件E1,E2,...(即如果i!=j,则EiEj=NULL)有:

概率公理化定义的理解_第1张图片

我们把满足以上三条公理的P(E)称为事件E的概率。

公理一说明事件E的概率在0到1之间。公理二说明,S作为必然发生的事件,其概率为1。公理三说明对任一系列互不相容事件,至少有一件事发生的概率等于各事件发生的概率之和。这三点都是简单又直观的。

接下来,其他的关于概率的结论,就可以通过使用这三条公理来进行推导、证明。现举一例:

如果E包含于F,那么P(E)<=P(F)。

证明:因为E包含于F,所以F表示为:F=E∪E补∩F,因为E和E补∪F是不相容的,所以由公理三得:P(F)=P(E)+P(E补∪F)。又由公理一知P(E补∩F)>=0,因此,P(E)<=P(F)。

类似的,许多其他的应用也可以通过这三个公理组合证明出来,就不再赘述。

参考书籍:概率论基础教程(第八版)[美]Sheldon M.Ross著 郑忠国 詹从赞 译(非常好的一本书,理论与实际结合)


你可能感兴趣的:(数学之概率论,概率论,公理化定义)