Task1:随机事件与随机变量(1天)

Task1:随机事件与随机变量(1天)

91-听说大家很喜欢篮球队-tang

知识点

一.随机事件

1. 基本概念释义

  • 随机现象:不能确定结果,但是能确定结果范围

  • 随机试验:记为 E E E,

    • 可以在相同条件下重复进行;
    • 结果有多种可能性,并且所有可能结果事先已知;
    • 作一次试验究竟哪个结果出现,事先不能确定.
  • 样本空间:记为 Ω \Omega Ω,随机试验的所有可能结果组成的集合

  • 样本点:记为 ω \omega ω,试验的每一个可能结果

  • 随机事件:记为 A , B , C A,B,C A,B,C,样本空间 Ω \Omega Ω中满足一定条件的子集.随机事件在随机试验中可能出现也可能不出现.

  • 必然事件:样本空间包含了所有的样本点,因此总是发生

  • 不可能事件:空集 ϕ \phi ϕ不包含任何样本点

2.概率

1.定义:
  • 随机试验 E E E的样本空间为 Ω \Omega Ω,对于每个事件 A A A,定义一个实数 P ( A ) P(A) P(A)与之对应,若函数 P ( . ) P(.) P(.)满足条件:

    1. 对每个事件 A A A,均有 0 < P ( A ) < = 1 00<P(A)<=1;

    2. P ( Ω ) = 1 P(\Omega)=1 P(Ω)=1;

    3. 若事件 A 1 , A 2 , A 3 , . . . A_1,A_2,A_3,... A1,A2,A3,...两两互斥,即对于 i , j = 1 , 2 , . . . , i ≠ j , A i ∩ A j = ϕ i,j=1,2,...,i \neq j ,A_i \cap A_j = \phi ij=1,2,...i=j,AiAj=ϕ,均有
      P ( A 1 ∪ A 2 ∪ . . . ) = P ( A 1 ) + P ( A 2 ) + . . . P(A_1 \cup A_2 \cup ...)=P(A_1) +P(A_2) +... P(A1A2...)=P(A1)+P(A2)+...

则称 P ( A ) P(A) P(A)为事件 A A A的概率。

2.主要性质:
  • 对于任一事件 A A A,均有 P ( A ‾ ) = 1 − P ( A ) P(\overline{A})=1-P(A) P(A)=1P(A).

  • 对于两个事件 A A A B B B,若 A ⊂ B A \subset B AB,则有

​ $P(B-A) = P(B) - P(A), P(B) >P(A) $.

  • 对于任意两个事件 A A A B B B,有

P ( A ∪ B ) = P ( A ) + P ( B ) − P ( A ∩ B ) P(A \cup B) = P(A) + P(B) - P(A\cap B) P(AB)=P(A)+P(B)P(AB).

3.古典概型

设随机事件 E E E 的样本空间中只有有限个样本点,即 Ω = { ω 1 , ω 2 , . . . , ω n } \Omega= \{ \omega_1, \omega_2,..., \omega_n \} Ω={ω1,ω2,...,ωn},其中, n n n 为样本点的总数。每个样本点 ω i ( i = 1 , 2 , . . . , n ) \omega_i (i =1,2,...,n) ωi(i=1,2,...,n)出现是等可能的,并且每次试验有且仅有一个样本点发生,则称这类现象为古典概型。若事件 A A A 包含个 m m m 个样本点,则事件 A A A 的概率定义为:

$P(A) = \frac{m} {n} = \frac{事件A包含的基本事件数} {基本事件总数} $。

4.条件概率

  • 定义:

A A A B B B 是两个事件,且 P ( B ) > 0 P(B)>0 P(B)>0,称 $P(A|B) = \frac {P(AB)} {P(B)} $ 为在事件 B B B 发生的条件下,事件 A A A 发生的概率。

5.全概率公式和贝叶斯公式

  • 概率的乘法公式

    $P(AB)=P(B|A)P(A) =P(A|B)P(B) $

    • 如果事件组,满足
    1. B 1 , B 2 , . . . B_1,B_2,... B1,B2,... 两两互斥,即 B i ∩ B j = ϕ , i ≠ j , i , j = 1 , 2 , . . . B_i\cap B_j = \phi,i \neq j ,i,j = 1,2,... BiBj=ϕi=j,i,j=1,2,...,且 P ( B i ) > 0 , i = 1 , 2 , . . . P(B_i)>0,i=1,2,... P(Bi)>0,i=1,2,...
    2. B 1 ∪ B 2 ∪ . . . = Ω B_1 \cup B_2 \cup ... = \Omega B1B2...=Ω

​ 则称事件组 B 1 , B 2 , . . . B_1,B_2,... B1,B2,...是样本空间 $ \Omega$ 的一个划分。

  • 全概率公式

    B 1 , B 2 , . . . B_1,B_2,... B1,B2,...是样本空间 $ \Omega$ 的一个划分, A A A 为任一事件,则

    P ( A ) = ∑ i = 1 ∞ P ( B i ) P ( A ∣ B i ) P(A) = \sum_{i=1}^{\infty } {P(B_i)}P(A|B_i) P(A)=i=1P(Bi)P(ABi)

    称为全概率公式。

    根据全概率公式和概率乘法公式,我们可以得到:

  • 贝叶斯公式

    B 1 , B 2 , . . . B_1,B_2,... B1,B2,...是样本空间 $ \Omega$ 的一个划分,则对任一事件 A ( P ( A ) > 0 ) A(P(A)>0) A(P(A)>0) ,有

    ​ $P(B_i|A) =\frac {P(B_i A)} {P(A)} = \frac {P(A|B_i )P(B_i)} {\sum_{j=1}^{\infty }P( B_j)P(A|B_j)} ,i=1,2,… $

    称上式为贝叶斯公式,称 P ( B i ) ( i = 1 , 2 , . . . ) P(B_i)(i=1,2,...) P(Bi)(i=1,2,...) 为先验概率, P ( B i ∣ A ) ( i = 1 , 2 , . . . ) P(B_i|A)(i=1,2,...) P(BiA)i=1,2,...为后验概率。

​ 在实际中,常取对样本空间 Ω \Omega Ω 的有限划分 B 1 , B 2 , . . . , B n B_1,B_2,...,B_n B1,B2,...,Bn B i B_i Bi 视为导致试验结果 A A A 发生的“原因”,而 P ( B i ) P(B_i) P(Bi) 表示各种“原因”发生的可能性大小,故称为先验概率; P ( B i ∣ A ) P(B_i|A) P(BiA) 则反应当试验产生了结果 A A A 之后,再对各种“原因”概率的新认识,故称为后验概率 。

二、随机变量

1.随机变量及其分布

  • 随机变量定义:

    E E E 是随机试验, Ω \Omega Ω 是样本空间,如果对于每一个 $\omega \in \Omega $ 。都有一个确定的实数 X ( ω ) X(\omega) X(ω) 与之对应,若对于任意实 $x \in R $ , 有 $ {\omega :X(\omega) < x } \in F$ ,则称 $\Omega $ 上的单值实函数 X ( ω ) X(\omega) X(ω) 为一个随机变量。

随机变量的分布函数定义:

​ 设 X X X 是一个随机变量,对任意的实数 x x x ,令
F ( x ) = P { X < = x } , x ∈ ( − ∞ , + ∞ ) F(x) = P \{ X<=x\} ,x \in (- \infty ,+ \infty) F(x)=P{X<=x},x(,+)
​ 则称 F ( x ) F(x) F(x) 为随机变量 x x x 的分布函数,也称为概率累积函数。

2. 离散型随机变量

​ 如果随机变量 X X X 的全部可能取值只有有限多个或可列无穷多个,则称 X X X 为离散型随机变量。掷骰子的结果就是离散型随机变量。

​ 对于离散型随机变量 X X X 可能取值为 x k x_k xk的概率为:
P { X = x k } = p k , k = 1 , 2 , . . . P \{ X =x_k \} =p_k,k=1,2,... P{X=xk}=pk,k=1,2,...
则称上式为离散型随机变量 X X X 的分布律。

F ( x ) = P { X < = x } = ∑ x k < = x P { X = x k } = ∑ x k < = x P k F (x) = P \{ X<=x \} =\sum_{x_k <=x}{ P \{ X=x_k \} } = \sum_{x_k <=x}{ P_k} F(x)=P{X<=x}=xk<=xP{X=xk}=xk<=xPk

3.常见的离散型分布

1.伯努利实验,二项分布
  • 定义:

    如果一个随机试验只有两种可能的结果 A A A A ‾ \overline A A,并且

P ( A ) = p , P ( A ‾ ) = 1 − p = q P(A) = p,P(\overline A) =1-p=q P(A)=pP(A)=1p=q

其中, 0 < p < 1 00<p<1 ,则称此试验为Bernoulli(伯努利)试验. Bernoulli试验独立重复进行 n n n 次,称为 n n n 重伯努利试验。


A = { n 重 伯 努 利 试 验 中 A 出 现 k 次 } A = \{ n重伯努利试验中A出现k次\} A={nAk}

P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P(A_k) =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P(Ak=Cnkpk(1p)nk,k=0,1,2,...n.
这就是著名的二项分布,常记作 B ( n , k ) B(n,k) B(nk

解释:一共抽了 n n n 次, k ( k < n ) k(kk(k<n) 次抽中了 A A A ,概率为 p p p ,那么 n − k n-k nk 次抽中了非 A A A,概率为 1 − p 1-p 1p 组合的次数就是 C n k C^k_n Cnk 。所以 P ( A k ) = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P(A_k) =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P(Ak=Cnkpk(1p)nk,k=0,1,2,...n.

  • 分布函数:

若随机变量 X X X 的分布律为:
P { X = k } = C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . P \{ X =k \} =C^k_np^k(1-p)^{n-k},k=0,1,2,...n. P{X=k}=Cnkpk(1p)nk,k=0,1,2,...n.
其分布函数为:
F ( x ) = ∑ k = [ x ] C n k p k ( 1 − p ) n − k , k = 0 , 1 , 2 , . . . n . F(x) = \sum_{k=}^{[x]} {C^k_np^k(1-p)^{n-k}},k=0,1,2,...n. Fx=k=[x]Cnkpk(1p)nk,k=0,1,2,...n.
其中, [ x ] [x] [x] 表示下取整,即不超过 x x x 的最大整数。

4.随机变量的数字特征

1.数学期望
  • 离散型:设离散型随机变量 X X X 的分布律为 P { X = x i } = p i , i = 1 , 2 , . . . , P \{ X=x_i\} = p_i ,i =1,2,..., P{X=xi}=pi,i=12... 若级数 $ \sum_{i} {|x_i|p_i}$ 收敛,

    (收敛指会聚于一点,向某一值靠近,相对于发散)。则称级数 $ \sum_{i} {x_ip_i}$ 的和为随机变量 X X X 的数学期望。记为 E ( X ) E(X) E(X) ,即:

E ( X ) = ∑ i x i p i E(X) = \sum_{i} {x_ip_i} E(X)=ixipi

  • 设连续型随机变量 X X X 的概率密度函数为 f ( x ) f(x) f(x) ,若积分 ∫ − ∞ + ∞ ∣ x ∣ f ( x ) d x \int_{- \infty}^{+ \infty}{|x|f(x)}dx +xfxdx 收敛, 称积分 ∫ − ∞ + ∞ x f ( x ) d x \int_{- \infty}^{+ \infty}{xf(x)}dx +xfxdx 的值为随机变量 X X X 的数学期望,记为 E ( X ) E(X) E(X) ,即:
    E ( X ) = ∫ − ∞ + ∞ x f ( x ) d x E(X)= \int_{- \infty}^{+ \infty}{xf(x)}dx E(X)=+xfxdx
    E ( X ) E(X) E(X) 又称为均值。

数学期望代表了随机变量取值的平均值,是一个重要的数字特征。数学期望具有如下性质:

  1. c c c 是常数,则 E ( c ) = c E(c) =c E(c)=c ;
  2. E ( a X + b Y ) = a E ( X ) + b E ( Y ) E(aX+bY) = aE(X) +bE(Y) E(aX+bY)=aE(X)+bE(Y) , 其中a, b为任意常数;
  3. X , Y X, Y X,Y 相互独立,则 E ( X Y ) = E ( X ) E ( Y ) E(XY) = E(X)E(Y) E(XY)=E(X)E(Y) ; (相互独立就是没有关系,不相互影响)。
2.方差
  • X X X 为随机变量,如果 $E{ [X-E(X)]^2} $ 存在,则称 $E{ [X-E(X)]^2} $ 为 X X X 的方差。记为 V a r ( X ) Var(X) Var(X) , 即:

V a r ( X ) = E { [ X − E ( X ) ] 2 } Var (X) =E\{ [X-E(X)]^2\} VarX=E{[XE(X)]2}

​ 并且称 $ \sqrt{Var(X)} $ 为 X X X 的标准差或均方差。

方差是用来描述随机变量取值相对于均值的离散程度的一个量,也是非常重要的数字特征。方差有如下性质:

  1. c c c 是常数,则 V a r ( c ) = 0 Var(c) =0 Var(c)=0 ;
  2. $Var(aX+b) = a^2E(X) $ , 其中a, b为任意常数;
  3. X , Y X, Y X,Y 相互独立,则 V a r ( X + Y ) = V a r ( X ) + V a r ( Y ) Var(X+Y) = Var(X) +Var(Y) Var(X+Y)=Var(X)+Var(Y)
(3)协方差和相关系数

协方差和相关系数都是描述随机变量 X X X 与随机变量 Y Y Y 之间的线性联系程度的数字量。

  • X , Y X, Y X,Y 为两个随机变量,称 $ E{ [X-E(X)] [Y-E(Y)]} $ 为 X X X Y Y Y 的协方差,记为 C o v ( X , Y ) Cov(X, Y) Cov(X,Y),即:
    C o v ( X , Y ) = E { [ X − E ( X ) ] [ Y − E ( Y ) ] } Cov(X, Y) = E\{ [X-E(X)] [Y-E(Y)]\} Cov(X,Y)=E{[XE(X)][YE(Y)]}
    协方差有如下性质:

    1. $Cov(X, Y) = Cov(Y, X) $ ;

    2. $Cov(aX+b,cY+d) =ac Cov( X,Y) $ ,其中, a , b , c , d a,b,c,d a,b,c,d 为任意常数;

    3. $Cov(X_1+X_2,Y) =Cov( X_1,Y) +Cov( X_2,Y) $ ;

    4. $Cov(X,Y) =E( X,Y) -E( X)E(Y) $ ; 当 X , Y X,Y X,Y 相互独立时,有 C o v ( X , Y ) = 0 Cov(X,Y) = 0 Cov(XY)=0;

    5. $|Cov(X,Y)| \le \sqrt {Var(X)} \sqrt {Var(Y)} $ ;

    6. $Cov(X,X) =Var( X) $ ;

  • 当 $ \sqrt {Var(X)} >0 ,\sqrt {Var(Y)} >0 $ 时,称
    ρ ( X , Y ) = C o v ( X , Y ) V a r ( X ) V a r ( Y ) \rho(X,Y) = \frac{Cov(X,Y)}{\sqrt {Var(X)} \sqrt {Var(Y)}} ρX,Y=Var(X) Var(Y) Cov(XY)
    X , Y X,Y X,Y 的相关系数,它是无纲量的量(也就是说没有单位,只是个代数值)。

  • 基本上我们都会用相关系数来衡量两个变量之间的相关程度。相关系数在-1到1之间,小于零表示负相关,大于零表示正相关。绝对值 ∣ ρ ( X , Y ) ∣ |\rho(X,Y)| ρX,Y 表示相关度的大小。越接近1,相关度越大。

# 阶乘
def factorial(n):
    if n == 0:
        return 1
    elif n <= 2:
        return n
    else:
        return n * factorial(n - 1)


# 排列计算
def arrangement(m, n):
    if m < n:
        return 0
    return factorial(m) // factorial(m - n)


# 组合计算
def combination(m, n):
    return arrangement(m, n) // factorial(n)


# 二项分布
# A = n重伯努利试验中A出现K次,P(A)
n = 10
k = 2
p = 0.5
p_A_k = combination(n, k) * (p ** k) * ((1 - p) ** (n - k))
# 样本空间 omega = { B_1: p_1, B_2: p_2, B_3: p_3, ...}

omega = {"B_1": 0.1,
         "B_2": 0.2,
         "B_3": 0.7,
         }

A = {"B_1": 0.1,
     "B_2": 0.1,
     "B_3": 0.1,
     }
# 贝叶斯公式
P_A = 0
for key, value in A.items():
    P_A += omega[key] * value
P_B_1_A = A["B_1"] * omega["B_1"] / P_A
# 协方差
D_1 = {"1": 0.1,
     "3": 0.2,
     "4": 0.7,
     }
D_2 = {"2": 0.2,
     "3": 0.3,
     "5": 0.5
     }
def expect(d):
    tem = 0
    for key, value in d.items():
        tem += int(key) * value
    return tem
def Cov_X_Y(X, Y):
    tem = 0
    for x in X:
        for y in Y:
                tem += (int(x) - expect(X)) * (int(y) - expect(Y))
    return tem
print(Cov_X_Y(D_1, D_2))
# 协方差相关系数
def Var(X):
    tem = X.copy()
    for x in X:
        tem[x] = (x - expect(X)) ** 2
    return expect(tem)
P_D1_D2 = Cov_X_Y(D_1, D_2) / (Var(D_1) * Var(D_2))

你可能感兴趣的:(Task1:随机事件与随机变量(1天))