概率论与数理统计知识点

本文仅作个人学习记录

1.全概率公式:若事件 A 1 , A 2 , . . . A_1,A_2,... A1,A2,...构成一个完备事件组,且均具有正概率,则对任何一个事件 B B B,有 P ( B ) = ∑ i P ( A i ) P ( B ∣ A i ) P(B)= \sum_{i}P(A_i)P(B|A_i) P(B)=iP(Ai)P(BAi)
文字描述:事件B发生的概率为事件 A i A_i Ai发生的概率与 A i A_i Ai发生时事件B发生的概率乘积之和.
2.贝叶斯公式:若 A 1 , A 2 , . . . A_1,A_2,... A1,A2,...构成一个完备事件组,且均具有正概率,则对任何一个概率不为零的事件B,有 P ( A m ∣ B ) = P ( A m ) P ( B ∣ A m ) ∑ i P ( A i ) P ( B ∣ A i ) P(A_m|B)= \dfrac{P(A_m)P(B|A_m)}{\sum_{i}P(A_i)P(B|A_i)} P(AmB)=iP(Ai)P(BAi)P(Am)P(BAm)
贝叶斯公式实质:后验概率
原理:当不能准确知悉一个事物的本质时,可以依靠与事物特定本质相关的事件出现的多少去判断其本质属性的概率(栗子:如果你看到一个人总是做一些好事,则那个人多半会是一个好人)
3.伯努利定理:设一次试验中事件A发生的概率为 p ( 0 < p < 1 ) p(0p(0<p<1),则 n n n重伯努利试验试验中,事件 A A A恰好发生 k k k次的概率 P n ( k ) P_n(k) Pn(k) P n ( k ) = C n k p k q n − k ( 其 中 k = 0 , 1 , . . . , n , q = 1 − p ) P_n(k)=C_n^kp^kq^{n-k}(其中k=0,1,...,n,q=1-p) Pn(k)=Cnkpkqnk(k=0,1,...,n,q=1p)
4.期望\方差\协方差\相关系数
期望:反映随机变量平均取值的大小
方差:样本值与全体样本值的平均数之差的平方值的平均数
协方差:用于衡量两个变量的总体误差。可以理解为衡量两个变量在变化过程中是否同方向变化,及同向或反向的程度
相关系数:用两变量的协方差除以二者的标准差之积,是一种特殊的协方差
***5.大数定律:当重复试验的次数n增大时,事件A的频率总是呈现出稳定性,稳定在某一个常数附近。频率的稳定性是概率定义的客观基础。当试验次数很大的时候可以用频率代替概率
6.中心极限定理:如果样本量足够大,则变量均值的采样分布将近似于正态分布,而与该变量在总体中的分布无关。
7.参数估计—最大似然估计
原理:就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值
***什么是似然函数:函数 P ( x ∣ θ ) P(x|θ) P(xθ)输入有两个: x x x表示某一个具体的数据; θ θ θ 表示模型的参数,如果 x x x是已知确定的, θ θ θ 是变量,这个函数叫做似然函数
8.显著性检验
通俗的讲就是先对参数或分布做一个假设,然后用样本信息检验来检查假设是否合理.只限定第一类错误(原假设为真,而检验的结论却劝你放弃原假设)概率的统计假设检验就称之为显著性检验.

你可能感兴趣的:(概率论)