【概率论】期中复习笔记(下):大数定律与中心极限定理

文章目录

  • 第五章 大数定律与中心极限定理
    • 1. 随机变量的收敛性
      • (1) 依概率收敛
      • (2) 依分布收敛
    • 2. 大数定律
      • (1) 马尔可夫不等式
      • (2) 切比雪夫不等式
      • (3) 切比雪夫大数定律
      • (4) 伯努利大数定律
      • (5) 辛钦大数定律
    • 3. 中心极限定理
      • (1) 独立同分布中心极限定理
      • (2) 棣莫弗-拉普拉斯中心极限定理
    • 补充——泊松大数定律
  • 整理
    • 大数定律
    • 中心极限定理
  • 参考数目

第五章 大数定律与中心极限定理

1. 随机变量的收敛性

(1) 依概率收敛

定义1 { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}是随机变量序列, X X X也是一个随机变量,若 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ X n − X ∣ ≥ ε } = 0 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\{|X_n-X|\ge\varepsilon\}=0 ε>0,nlimP{XnXε}=0则称随机变量序列 { X n } \{X_n\} {Xn}依概率收敛于 X X X,记作 ( p ) lim ⁡ n → ∞ X n = X (p)\lim\limits_{n\to\infty}X_n=X (p)nlimXn=X或者 X n → P X X_n\overset{P}{\to}X XnPX

依概率收敛表明:随机变量 X n X_n Xn X X X的绝对偏差不小于任意给定正数(即 ε \varepsilon ε)的概率随着 n n n增大而越来越接近于 0 0 0

上述定义也等价于 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ X n − X ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\{|X_n-X|<\varepsilon\}=1 ε>0,nlimP{XnX<ε}=1

特别地,当随机变量 X X X为单点分布,即 P { X = a } = 1 P\{X=a\}=1 P{X=a}=1,则称序列 X n X_n Xn依概率收敛于 a a a,即 X n → P a X_n\overset{P}{\to}a XnPa

依概率收敛于常数的随机变量序列的性质:
(1) ( p ) lim ⁡ n → ∞ X n = a , ( p ) lim ⁡ n → ∞ Y n = b , g ( x , y ) (p)\lim\limits_{n\to\infty}X_n=a,(p)\lim\limits_{n\to\infty}Y_n=b,g(x,y) (p)nlimXn=a,(p)nlimYn=b,g(x,y)在点 ( a , b ) (a,b) (a,b)处连续    ⟹    ( p ) lim ⁡ n → ∞ g ( X n , Y n ) = g ( a , b ) \implies(p)\lim\limits_{n\to\infty}g(X_n,Y_n)=g(a,b) (p)nlimg(Xn,Yn)=g(a,b)
(2) ( p ) lim ⁡ n → ∞ ( X n ± Y n ) = a ± b (p)\lim\limits_{n\to\infty}(X_n\pm Y_n)=a\pm b (p)nlim(Xn±Yn)=a±b
(3) ( p ) lim ⁡ n → ∞ X n Y n = a b (p)\lim\limits_{n\to\infty}X_nY_n=ab (p)nlimXnYn=ab
(4) ( p ) lim ⁡ n → ∞ X n Y n = a b   ( Y n ≠ 0 , b ≠ 0 ) (p)\lim\limits_{n\to\infty}\frac{X_n}{Y_n}=\frac{a}{b}\ (Y_n\ne 0,b\ne 0) (p)nlimYnXn=ba (Yn=0,b=0)

一般地,依概率收敛的随机变量序列也具有四则运算性质。

(2) 依分布收敛

定义2 { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}为随机变量序列,其对应的分布函数序列为 { F n ( x ) , n = 1 , 2 , ⋯   } \{F_n(x),n=1,2,\cdots\} {Fn(x),n=1,2,} X X X是另一随机变量,其分布函数为 F ( x ) F(x) F(x)。若对 F ( x ) F(x) F(x)的每个连续点 x x x,有 lim ⁡ n → ∞ F n ( x ) = F ( x ) \lim\limits_{n\to\infty}F_n(x)=F(x) nlimFn(x)=F(x),则称随机变量序列 { X n } \{X_n\} {Xn}依分布收敛于 X X X,记作 X n → d X X_n\overset{d}{\to}X XndX,或称分布函数序列 { F n ( x ) , n = 1 , 2 , ⋯   } \{F_n(x),n=1,2,\cdots\} {Fn(x),n=1,2,}弱收敛于 F ( x ) F(x) F(x),记作 F n ( x ) → w F ( x ) F_n(x)\overset{w}{\to}F(x) Fn(x)wF(x)

2. 大数定律

(1) 马尔可夫不等式

定理3(马尔可夫不等式) X X X为随机变量,若 E ( ∣ X ∣ r ) E(|X|^r) E(Xr)有限,其中 r > 0 r>0 r>0为实数,则 ∀ ε > 0 , P { ∣ X ∣ ≥ ε } ≤ E ( ∣ X ∣ r ) ε r \forall\varepsilon>0,P\{|X|\ge\varepsilon\}\le\frac{E(|X|^r)}{\varepsilon^r} ε>0,P{Xε}εrE(Xr)部分证明
X X X为连续型随机变量时,设 X X X的概率密度为 f ( x ) f(x) f(x),则 P { ∣ X ∣ ≥ ε } = ∫ ∣ x ∣ ≥ ε f ( x ) d x P\{|X|\ge\varepsilon\}=\int\limits_{|x|\ge\varepsilon}f(x)\text{d}x P{Xε}=xεf(x)dx因为在积分范围内 ∣ x ∣ ≥ ε |x|\ge\varepsilon xε,故 ∣ x ∣ r ε r ≥ 1 \frac{|x|^r}{\varepsilon^r}\ge1 εrxr1,于是 ∫ ∣ x ∣ ≥ ε f ( x ) d x ≤ ∫ ∣ x ∣ ≥ ε ∣ x ∣ r ε r f ( x ) d x \int\limits_{|x|\ge\varepsilon}f(x)\text{d}x\le\int\limits_{|x|\ge\varepsilon}\frac{|x|^r}{\varepsilon^r}f(x)\text{d}x xεf(x)dxxεεrxrf(x)dx其中 ε r \varepsilon^r εr为常数,提出来就得到 ∫ ∣ x ∣ ≥ ε ∣ x ∣ r ε r f ( x ) d x = 1 ε r ∫ ∣ x ∣ ≥ ε ∣ x ∣ r f ( x ) d x \int\limits_{|x|\ge\varepsilon}\frac{|x|^r}{\varepsilon^r}f(x)\text{d}x=\frac{1}{\varepsilon^r}\int\limits_{|x|\ge\varepsilon}|x|^rf(x)\text{d}x xεεrxrf(x)dx=εr1xεxrf(x)dx把积分范围扩大到 ( − ∞ , + ∞ ) (-\infty,+\infty) (,+),积分值也会变大,故 1 ε r ∫ ∣ x ∣ ≥ ε ∣ x ∣ r f ( x ) d x ≤ 1 ε r ∫ − ∞ + ∞ ∣ x ∣ r f ( x ) d x = E ( ∣ X ∣ r ) ε r \frac{1}{\varepsilon^r}\int\limits_{|x|\ge\varepsilon}|x|^rf(x)\text{d}x\le\frac{1}{\varepsilon^r}\int_{-\infty}^{+\infty}|x|^rf(x)\text{d}x=\frac{E(|X|^r)}{\varepsilon^r} εr1xεxrf(x)dxεr1+xrf(x)dx=εrE(Xr)综上, P { ∣ X ∣ ≥ ε } ≤ E ( ∣ X ∣ r ) ε r P\{|X|\ge\varepsilon\}\le\frac{E(|X|^r)}{\varepsilon^r} P{Xε}εrE(Xr)

X X X为离散型随机变量时,证明过程类似: P { ∣ X ∣ ≥ ε } = ∑ ∣ x i ∣ ≥ ε p i ≤ ∑ ∣ x i ∣ ≥ ε ∣ x ∣ r ε r p i ≤ ∑ i ∣ x ∣ r ε r p i = 1 ε r ∑ i ∣ x ∣ r p i = E ( ∣ X ∣ r ) ε r \begin{aligned}P\{|X|\ge\varepsilon\}&=\sum\limits_{|x_i|\ge\varepsilon}p_i\\ &\le\sum\limits_{|x_i|\ge\varepsilon}\frac{|x|^r}{\varepsilon^r}p_i\\ &\le\sum\limits_{i}\frac{|x|^r}{\varepsilon^r}p_i=\frac{1}{\varepsilon^r}\sum\limits_{i}|x|^rp_i\\ &=\frac{E(|X|^r)}{\varepsilon^r}\end{aligned} P{Xε}=xiεpixiεεrxrpiiεrxrpi=εr1ixrpi=εrE(Xr)其他情况的证明从略。∎

(2) 切比雪夫不等式

定理4(切比雪夫不等式) 若随机变量 X X X存在数学期望 E ( X ) E(X) E(X)和方差 D ( X ) D(X) D(X),则 ∀ ε > 0 \forall\varepsilon>0 ε>0 P { ∣ X − E ( X ) ∣ ≥ ε } ≤ D ( X ) ε 2 P\{|X-E(X)|\ge\varepsilon\}\le\frac{D(X)}{\varepsilon^2} P{XE(X)ε}ε2D(X)或等价地有 P { ∣ X − E ( X ) ∣ < ε } ≥ 1 − D ( X ) ε 2 P\{|X-E(X)|<\varepsilon\}\ge1-\frac{D(X)}{\varepsilon^2} P{XE(X)<ε}1ε2D(X)证明:在马尔可夫不等式中以 X − E ( X ) X-E(X) XE(X) X X X并令 r = 2 r=2 r=2即可。∎

(3) 切比雪夫大数定律

定理5(切比雪夫大数定律) { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}是相互独立的随机变量序列,且分别存在数学期望 E ( X k ) E(X_k) E(Xk)和方差 D ( X k )   ( k = 1 , 2 , ⋯   ) D(X_k)\ (k=1,2,\cdots) D(Xk) (k=1,2,)。若存在常数 C C C,使得 ∀ k = 1 , 2 , ⋯ \forall k=1,2,\cdots k=1,2,都有 D ( X k ) ≤ C D(X_k)\le C D(Xk)C(即序列 { D ( X k ) } \{D(X_k)\} {D(Xk)}有界),则 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − 1 n ∑ k = 1 n E ( X k ) ∣ ≤ ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^n X_k-\frac{1}{n}\sum\limits_{k=1}^n E(X_k)\right|\le\varepsilon\right\}=1 ε>0,nlimP{ n1k=1nXkn1k=1nE(Xk) ε}=1证明:令 Y n = 1 n ∑ k = 1 n X k Y_n=\frac{1}{n}\sum\limits_{k=1}^nX_k Yn=n1k=1nXk,则由切比雪夫不等式可得下面的不等式 1 ≥ P { ∣ Y n − E ( X n ) ∣ < ε } ≥ 1 − D ( Y n ) ε 2 ≥ 1 − C n ε 2 1\ge P\{|Y_n-E(X_n)|<\varepsilon\}\ge 1-\frac{D(Y_n)}{\varepsilon^2}\ge 1-\frac{C}{n\varepsilon^2} 1P{YnE(Xn)<ε}1ε2D(Yn)1nε2C其中第一个 ≥ \ge 是显然的(概率的定义),第二个 ≥ \ge 由切比雪夫不等式的第二种形式得出,第三个 ≥ \ge C C C的定义得出。
那么,令 n → ∞ n\to\infty n,由数列极限的夹逼准则知 1 ≥ lim ⁡ n → ∞ P { ∣ Y n − E ( X n ) ∣ < ε } ≥ lim ⁡ n → ∞ 1 − C n ε 2 = 1 1\ge\lim\limits_{n\to\infty}P\{|Y_n-E(X_n)|<\varepsilon\}\ge\lim\limits_{n\to\infty}1-\frac{C}{n\varepsilon^2}=1 1nlimP{YnE(Xn)<ε}nlim1nε2C=1 lim ⁡ n → ∞ P { ∣ Y n − E ( X n ) ∣ < ε } = 1 \lim\limits_{n\to\infty}P\{|Y_n-E(X_n)|<\varepsilon\}=1 nlimP{YnE(Xn)<ε}=1注意到 E ( Y n ) = E ( 1 n ∑ k = 1 n X k ) = 1 n ∑ k = 1 n E ( X k ) E(Y_n)=E\left(\frac{1}{n}\sum\limits_{k=1}^n X_k\right)=\frac{1}{n}\sum\limits_{k=1}^n E(X_k) E(Yn)=E(n1k=1nXk)=n1k=1nE(Xk),把 Y n Y_n Yn E ( Y n ) E(Y_n) E(Yn)的表达式代入上式即证明了该定理。∎

推论6 { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}是相互独立的随机变量序列,且存在相同的数学期望 E ( X k ) = μ E(X_k)=\mu E(Xk)=μ和方差 D ( X k ) = σ 2   ( k = 1 , 2 , ⋯   ) D(X_k)=\sigma^2\ (k=1,2,\cdots) D(Xk)=σ2 (k=1,2,),则 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^nX_k-\mu\right|<\varepsilon\right\}=1 ε>0,nlimP{ n1k=1nXkμ <ε}=1这表明,对于一个概率分布未知的随机变量 X X X,为了估算 E ( X ) E(X) E(X)我们可以做 n n n重观测试验,第 k k k次试验结果为 X k X_k Xk,每个 X k X_k Xk是独立同分布的,那么当 n n n充分大时, ∀ ε > 0 , P { ∣ 1 n ∑ k = 1 n X k − μ ∣ < ε } \forall\varepsilon>0,P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^nX_k-\mu\right|<\varepsilon\right\} ε>0,P{ n1k=1nXkμ <ε}会越来越接近 1 1 1,故 E ( X ) E(X) E(X)可以由这 n n n次试验结果的算术平均值估计。

(4) 伯努利大数定律

定理7(伯努利大数定律) n A n_A nA n n n次独立重复试验中事件 A A A发生的次数, p p p是事件 A A A在每次试验发生的概率,则 ∀ ε > 0 \forall\varepsilon>0 ε>0 lim ⁡ n → ∞ P { ∣ n A n − p ∣ < ε } = 1 \lim\limits_{n\to\infty}P\left\{\left|\frac{n_A}{n}-p\right|<\varepsilon\right\}=1 nlimP{ nnAp <ε}=1 lim ⁡ n → ∞ P { ∣ n A n − p ∣ ≥ ε } = 0 \lim\limits_{n\to\infty}P\left\{\left|\frac{n_A}{n}-p\right|\ge\varepsilon\right\}=0 nlimP{ nnAp ε}=0证明:引入随机变量 X k = { 1 , 第 k 次试验中 A 发生 0 , 第 k 次试验中 A 不发生 X_k=\begin{cases}1,&\text{第}k\text{次试验中}A\text{发生}\\0,&\text{第}k\text{次试验中}A\text{不发生}\end{cases} Xk={1,0,k次试验中A发生k次试验中A不发生 k = 1 , 2 , ⋯ k=1,2,\cdots k=1,2,,显然 n A = X 1 + X 2 + ⋯ + X n n_A=X_1+X_2+\cdots+X_n nA=X1+X2++Xn。又显然 X 1 , X 2 , ⋯   , X n X_1,X_2,\cdots,X_n X1,X2,,Xn是相互独立的,且 E ( X k ) = p E(X_k)=p E(Xk)=p D ( X k ) = p ( 1 − p )   ( k = 1 , 2 , ⋯   ) D(X_k)=p(1-p)\ (k=1,2,\cdots) D(Xk)=p(1p) (k=1,2,)。根据推论6,得 lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − p ∣ < ε } = 1 \lim\limits_{n\to\infty}P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^nX_k-p\right|<\varepsilon\right\}=1 nlimP{ n1k=1nXkp <ε}=1 lim ⁡ n → ∞ P { ∣ n A n − p ∣ < ε } = 1 \lim\limits_{n\to\infty}P\left\{\left|\frac{n_A}{n}-p\right|<\varepsilon\right\}=1 nlimP{ nnAp <ε}=1

此定律表明,当试验次数很大时,便可以用事件发生的频率近似替代事件发生的概率。

(5) 辛钦大数定律

定理8(辛钦大数定律) { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}是独立同分布的随机变量序列,且 E ( X k ) = μ   ( k = 1 , 2 , ⋯   ) E(X_k)=\mu\ (k=1,2,\cdots) E(Xk)=μ (k=1,2,)存在,则 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − μ ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^n X_k-\mu\right|<\varepsilon\right\}=1 ε>0,nlimP{ n1k=1nXkμ <ε}=1 1 n ∑ k = 1 n X k → P μ \frac{1}{n}\sum\limits_{k=1}^n X_k\overset{P}{\to}\mu n1k=1nXkPμ

辛钦大数定律取消了切比雪夫大数定律对方差的苛刻要求,而以“独立同分布”作为补偿。

3. 中心极限定理

(1) 独立同分布中心极限定理

定理9(独立同分布中心极限定理) { X n , n = 1 , 2 , ⋯   } \{X_n,n=1,2,\cdots\} {Xn,n=1,2,}是独立同分布的随机变量序列,且有有限的数学期望和方差: E ( X k ) = μ E(X_k)=\mu E(Xk)=μ D ( X k ) = σ 2 ≠ 0   ( k = 1 , 2 , ⋯   ) D(X_k)=\sigma^2\ne0\ (k=1,2,\cdots) D(Xk)=σ2=0 (k=1,2,),则随机变量 Y n = ∑ k = 1 n X k − E ( ∑ k = 1 n X k ) D ( ∑ k = 1 n X k ) = ∑ k = 1 n X k − n μ n σ Y_n=\frac{\sum\limits_{k=1}^n X_k-E\left(\sum\limits_{k=1}^n X_k\right)}{\sqrt{D\left(\sum\limits_{k=1}^n X_k\right)}}=\frac{\sum\limits_{k=1}^n X_k-n\mu}{\sqrt{n}\sigma} Yn=D(k=1nXk) k=1nXkE(k=1nXk)=n σk=1nXknμ的分布函数 F n ( x ) F_n(x) Fn(x)对任意实数 x x x,都有 lim ⁡ n → ∞ F n ( x ) = lim ⁡ n → ∞ P { ∑ k = 1 n X k − n μ n σ ≤ x } = ∫ − ∞ x 1 2 π e − t 2 2 d t = Φ ( x ) \lim\limits_{n\to\infty} F_n(x)=\lim\limits_{n\to\infty} P\left\{\frac{\sum\limits_{k=1}^n X_k-n\mu}{\sqrt{n}\sigma}\le x\right\}=\int_{-\infty}^x \frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}\text{d}t=\Phi(x) nlimFn(x)=nlimP n σk=1nXknμx =x2π 1e2t2dt=Φ(x)由此定理可知,当 n n n很大时,以下关系近似成立:
(1) Y n ~ N ( 0 , 1 ) Y_n\text{\large\textasciitilde}N(0,1) Yn~N(0,1)
(2) ∑ k = 1 n X k ~ N ( n μ , n σ 2 ) \sum\limits_{k=1}^n X_k\text{\large\textasciitilde}N(n\mu,n\sigma^2) k=1nXk~N(nμ,nσ2)
(3) X ‾ = 1 n ∑ k = 1 n X k ~ N ( μ , σ 2 n ) \overline{X}=\frac{1}{n}\sum\limits_{k=1}^n X_k\text{\large\textasciitilde}N\left(\mu,\frac{\sigma^2}{n}\right) X=n1k=1nXk~N(μ,nσ2)

这篇文章中的一段文字概括地十分形象:
在这里插入图片描述

(2) 棣莫弗-拉普拉斯中心极限定理

定理10(棣莫弗-拉普拉斯中心极限定理) 设随机变量 η n   ( n = 1 , 2 , ⋯   ) \eta_n\ (n=1,2,\cdots) ηn (n=1,2,)服从参数为 n , p   ( 0 < p < 1 ) n,p\ (0n,p (0<p<1)的二项分布,则对于任意区间 ( a , b ] (a,b] (a,b],恒有 lim ⁡ n → ∞ P { a < η n − n p n p ( 1 − p ) ≤ b } = ∫ a b 1 2 π e − t 2 2 d t = Φ ( b ) − Φ ( a ) \lim\limits_{n\to\infty}P\left\{a<\frac{\eta_n-np}{\sqrt{np(1-p)}}\le b\right\}=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}\text{d}t=\Phi(b)-\Phi(a) nlimP{a<np(1p) ηnnpb}=ab2π 1e2t2dt=Φ(b)Φ(a)证明:将 η n \eta_n ηn分解为 n n n个相互独立且服从(0-1)分布的随机变量 X 1 , X 2 , ⋯   , X n X_1,X_2,\cdots,X_n X1,X2,,Xn之和,即 η n = X 1 + X 2 + ⋯ + X n \eta_n=X_1+X_2+\cdots+X_n ηn=X1+X2++Xn,其中 X k ~ B ( 1 , p )   ( k = 1 , 2 , ⋯   ) X_k\text{\large\textasciitilde}B(1,p)\ (k=1,2,\cdots) Xk~B(1,p) (k=1,2,)。由于 E ( X k ) = p , D ( X k ) = p ( 1 − p ) E(X_k)=p,D(X_k)=p(1-p) E(Xk)=p,D(Xk)=p(1p),故由定理9(独立同分布中心极限定理)有 lim ⁡ n → ∞ P { η n − n p n p ( 1 − p ) ≤ x } = lim ⁡ n → ∞ P { ∑ k = 1 n X k − n p n p ( 1 − p ) ≤ x } = Φ ( x ) \lim\limits_{n\to\infty}P\left\{\frac{\eta_n-np}{\sqrt{np(1-p)}}\le x\right\}=\lim\limits_{n\to\infty}P\left\{\frac{\sum\limits_{k=1}^n X_k-np}{\sqrt{np(1-p)}}\le x\right\}=\Phi(x) nlimP{np(1p) ηnnpx}=nlimP np(1p) k=1nXknpx =Φ(x)于是对于任意区间 ( a , b ] (a,b] (a,b] lim ⁡ n → ∞ P { a < η n − n p n p ( 1 − p ) ≤ b } = ∫ a b 1 2 π e − t 2 2 d t \lim\limits_{n\to\infty}P\left\{a<\frac{\eta_n-np}{\sqrt{np(1-p)}}\le b\right\}=\int_a^b\frac{1}{\sqrt{2\pi}}e^{-\frac{t^2}{2}}\text{d}t nlimP{a<np(1p) ηnnpb}=ab2π 1e2t2dt

这个定理表明,二项分布的极限分布是正态分布。

补充——泊松大数定律

定理11(泊松大数定律) 若事件 A A A在第 k k k次试验中发生的概率为 p k   ( k = 1 , 2 , ⋯   , n , ⋯   ) p_k\ (k=1,2,\cdots,n,\cdots) pk (k=1,2,,n,)且各次试验是独立进行的, m m m表示 n n n次试验中事件 A A A发生的次数,则 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ m n − 1 n ∑ k = 1 n p k ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{m}{n}-\frac{1}{n}\sum\limits_{k=1}^n p_k\right|<\varepsilon\right\}=1 ε>0,nlimP{ nmn1k=1npk <ε}=1证明:引入随机变量 X k = { 1 , 第 k 次试验中 A 发生 0 , 第 k 次试验中 A 不发生 X_k=\begin{cases}1,&\text{第}k\text{次试验中}A\text{发生}\\0,&\text{第}k\text{次试验中}A\text{不发生}\end{cases} Xk={1,0,k次试验中A发生k次试验中A不发生 k = 1 , 2 , ⋯ k=1,2,\cdots k=1,2,,显然 m = X 1 + X 2 + ⋯ + X n m=X_1+X_2+\cdots+X_n m=X1+X2++Xn P { X = 1 } = p k P\{X=1\}=p_k P{X=1}=pk E ( X k ) = p k E(X_k)=p_k E(Xk)=pk D ( X k ) = p k ( 1 − p k ) D(X_k)=p_k(1-p_k) D(Xk)=pk(1pk)有界。则由定理5(切比雪夫大数定律)有 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ 1 n ∑ k = 1 n X k − 1 n ∑ k = 1 n E ( X k ) ∣ ≤ ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{1}{n}\sum\limits_{k=1}^n X_k-\frac{1}{n}\sum\limits_{k=1}^n E(X_k)\right|\le\varepsilon\right\}=1 ε>0,nlimP{ n1k=1nXkn1k=1nE(Xk) ε}=1 m = ∑ k = 1 n X k m=\sum\limits_{k=1}^n X_k m=k=1nXk E ( X k ) = p k E(X_k)=p_k E(Xk)=pk代入得 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ m n − 1 n ∑ k = 1 n p k ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{\left|\frac{m}{n}-\frac{1}{n}\sum\limits_{k=1}^n p_k\right|<\varepsilon\right\}=1 ε>0,nlimP{ nmn1k=1npk <ε}=1证毕。∎

整理

大数定律

设大数定律的内容是 ∀ ε > 0 , lim ⁡ n → ∞ P { ∣ A − B ∣ < ε } = 1 \forall\varepsilon>0,\lim\limits_{n\to\infty}P\left\{|A-B|<\varepsilon\right\}=1 ε>0,nlimP{AB<ε}=1并令 X ‾ = 1 n ∑ k = 1 n X k \overline{X}=\frac{1}{n}\sum\limits_{k=1}^n X_k X=n1k=1nXk E ( X ) ‾ = 1 n ∑ k = 1 n E ( X k ) \overline{E(X)}=\frac{1}{n}\sum\limits_{k=1}^n E(X_k) E(X)=n1k=1nE(Xk)
那么有下面的表格:

大数定律 条件 A A A B B B
切比雪夫大数定律 相互独立、 E ( X k ) E(X_k) E(Xk)存在、 D ( X k ) D(X_k) D(Xk)有界 X ‾ \overline{X} X E ( X ) ‾ \overline{E(X)} E(X)
伯努利大数定律 n n n次独立重复试验(各 X k X_k Xk独立同分布)、事件 A A A发生概率为 p p p X ‾ = n A n \overline{X}=\frac{n_A}{n} X=nnA E ( X k ) = p E(X_k)=p E(Xk)=p
辛钦大数定律 X k X_k Xk独立同分布、期望 E ( X k ) = μ E(X_k)=\mu E(Xk)=μ存在 X ‾ \overline{X} X E ( X k ) = μ E(X_k)=\mu E(Xk)=μ
泊松大数定律 相互独立、事件 A A A在第 k k k次试验中发生的概率为 p k p_k pk X ‾ = m n \overline{X}=\frac{m}{n} X=nm E ( X ) ‾ = 1 n ∑ k = 1 n p k \overline{E(X)}=\frac{1}{n}\sum\limits_{k=1}^n p_k E(X)=n1k=1npk

中心极限定理

注意 Z = X − μ σ ~ N ( 0 , 1 )    ⟹    X ~ N ( μ , σ 2 ) Z=\frac{X-\mu}{\sigma}\text{\large\textasciitilde}N(0,1)\implies X\text{\large\textasciitilde}N(\mu,\sigma^2) Z=σXμ~N(0,1)X~N(μ,σ2)

中心极限定理 条件 结论(当 n n n足够大时近似成立)
独立同分布中心极限定理 有有限的数学期望 E ( X k ) = μ E(X_k)=\mu E(Xk)=μ和方差 D ( X k ) = σ 2 ≠ 0 D(X_k)=\sigma^2\ne0 D(Xk)=σ2=0 X ‾ ~ N ( μ , σ 2 n ) ,   ∑ k = 1 n X k ~ N ( n μ , n σ 2 ) \overline{X}\text{\large\textasciitilde}N\left(\mu,\frac{\sigma^2}{n}\right),\ \sum\limits_{k=1}^n X_k\text{\large\textasciitilde}N\left(n\mu,n\sigma^2\right) X~N(μ,nσ2), k=1nXk~N(nμ,nσ2)
棣莫弗-拉普拉斯中心极限定理 η n ~ B ( n , p ) \eta_n\text{\large\textasciitilde}B(n,p) ηn~B(n,p) X ‾ ~ N ( p , p ( 1 − p ) n ) ,   η n ~ N ( n p , n p ( 1 − p ) ) \overline{X}\text{\large\textasciitilde}N\left(p,\frac{p(1-p)}{n}\right),\ \eta_n\text{\large\textasciitilde}N(np,np(1-p)) X~N(p,np(1p)), ηn~N(np,np(1p))

参考数目

《概率论与数理统计》施雨等编

你可能感兴趣的:(概率论,概率论,数学,学习,经验分享)