常用离散型随机变量的概率分布表(附概率和为1、期望、方差的推导与证明)

常用连续型随机变量的内容在这里(CSDN对文章长度设了限制,我只能分成两篇博客来发布)。

常用离散型随机变量的概率分布速查表

随机变量 记号 分布律 期望 方差
0-1分布 X ∼ B ( 1 , n ) X\sim B(1,n) XB(1,n) P ( X = 1 ) = p P ( X = 0 ) = 1 − p ,   ( 0 < p < 1 ) \left.\begin{array}{lc} P(X=1)=p \\ P(X=0)=1-p \end{array}\right.,\space(0P(X=1)=pP(X=0)=1p, (0<p<1) p p p p ( 1 − p ) p(1-p) p(1p)
二项分布 X ∼ B ( n , p ) X\sim B(n,p) XB(n,p) P ( X = k ) = C n k p k ( 1 − p ) n − k ,   ( k = 0 , 1 , ⋯   , n ) P(X=k)=C_{n}^{k}p^{k}(1-p)^{n-k},\space (k=0,1,\cdots,n) P(X=k)=Cnkpk(1p)nk, (k=0,1,,n) n p np np n p ( 1 − p ) np(1-p) np(1p)
超几何分布 X ∼ H ( n , M , N ) X\sim H(n,M,N) XH(n,M,N) P ( X = k ) = C M k C N − M n − k C N n ,   ( k = 0 , 1 , ⋯   , m i n { n , M } ) P(X=k)=\frac{C_{M}^{k}C_{N-M}^{n-k}}{C_{N}^{n}},\space (k=0,1,\cdots,min\{n,M\}) P(X=k)=CNnCMkCNMnk, (k=0,1,,min{n,M}) n M N \frac{nM}{N} NnM n M ( N − n ) ( N − M ) N 2 ( N − 1 ) \frac{nM(N-n)(N-M)}{N^2(N-1)} N2(N1)nM(Nn)(NM)
泊松分布 X ∼ P ( λ ) X\sim P(\lambda) XP(λ) P ( X = k ) = λ k k ! e − λ ,   ( k = 0 , 1 , 2 , ⋯   ) P(X=k)=\frac{\lambda^k}{k!}e^{-\lambda},\space (k=0,1,2,\cdots) P(X=k)=k!λkeλ, (k=0,1,2,) λ \lambda λ λ \lambda λ
几何分布 X ∼ g ( p ) X\sim g(p) Xg(p) P ( X = k ) = ( 1 − p ) k − 1 p ,   ( k = 1 , 2 , ⋯   ) P(X=k)=(1-p)^{k-1}p,\space (k=1,2,\cdots) P(X=k)=(1p)k1p, (k=1,2,) 1 p \frac{1}{p} p1 1 − p p 2 \frac{1-p}{p^2} p21p

文章目录

    • 常用离散型随机变量的概率分布速查表
    • 常用离散型随机变量的期望与方差
      • 0-1分布
      • 二项分布
      • 超几何分布
      • 泊松分布
      • 几何分布

常用离散型随机变量的期望与方差

0-1分布

分布律
P ( X = 1 ) = p P ( X = 0 ) = 1 − p ,   ( 0 < p < 1 )   。 \left.\begin{array}{lc} P(X=1)=p \\ P(X=0)=1-p \end{array}\right. ,\space (0P(X=1)=pP(X=0)=1p, (0<p<1)

易证 P ( X = 0 ) + P ( X = 1 ) = 1 P(X=0)+P(X=1)=1 P(X=0)+P(X=1)=1

数学期望
E ( X ) = 1 × P ( X = 1 ) + 0 × P ( X = 0 ) = p   。 E(X) = 1\times P(X=1)+0\times P(X=0) = p \thinspace。 E(X)=1×P(X=1)+0×P(X=0)=p

方差
V a r ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = p ( 1 − p )   。 Var(X) = E(X^2)-(E(X))^2 = p(1-p) \thinspace。 Var(X)=E(X2)(E(X))2=p(1p)

二项分布

X X X n n n次独立重复试验中成功的次数,成功概率为 p p p

分布律
P ( X = k ) = C n k p k ( 1 − p ) n − k ,   ( k = 0 , 1 , ⋯   , n )   。 P(X=k) = C_{n}^{k}p^{k}(1-p)^{n-k} ,\space (k=0,1,\cdots,n) \thinspace。 P(X=k)=Cnkpk(1p)nk, (k=0,1,,n)

运用二项式定理,易证 ∑ k = 0 ∞ P ( X = k ) = 1 \sum\limits_{k=0}^{\infty}P(X=k)=1 k=0P(X=k)=1

数学期望

X i = { 1 第 i 次 试 验 成 功 0 o t h e r w i s e ,   ( i = 1 , 2 , ⋯   , n ) X_i=\left\{\begin{array}{cc} 1 & 第i次试验成功 \\ 0 & otherwise \end{array}\right.,\space (i=1,2,\cdots,n) Xi={10iotherwise, (i=1,2,,n),则 X i X_i Xi服从0-1分布且有 X = ∑ i = 1 n X i X=\sum\limits_{i=1}^{n}X_i X=i=1nXi。于是
E ( X ) = E ( ∑ i = 1 n X i ) = ∑ i = 1 n E ( X i ) = n p   。 E(X) = E(\sum\limits_{i=1}^{n}X_i) = \sum\limits_{i=1}^{n}E(X_i) = np \thinspace。 E(X)=E(i=1nXi)=i=1nE(Xi)=np

方差

X 1 , X 2 , ⋯   , X n X_1,X_2,\cdots,X_n X1,X2,,Xn两两独立,因此
V a r ( X ) = V a r ( ∑ i = 1 n X i ) = ∑ i = 1 n V a r ( X i ) = n p ( 1 − p )   。 Var(X) = Var(\sum\limits_{i=1}^{n}X_i) = \sum\limits_{i=1}^{n}Var(X_i) = np(1-p) \thinspace。 Var(X)=Var(i=1nXi)=i=1nVar(Xi)=np(1p)

超几何分布

N N N件产品中含 M M M件次品,其余为正品。从中任意不放回地取出 n n n件,抽到次品数为 X X X

分布律
P ( X = k ) = C M k C N − M n − k C N n ,   ( k = 0 , 1 , ⋯   , m i n { n , M } )   。 P(X=k) = \frac{C_{M}^{k}C_{N-M}^{n-k}}{C_{N}^{n}} ,\space (k=0,1,\cdots,min\{n,M\}) \thinspace。 P(X=k)=CNnCMkCNMnk, (k=0,1,,min{n,M})

运用范德蒙德恒等式,易证 ∑ k = 0 ∞ P ( X = k ) = 1 \sum\limits_{k=0}^{\infty}P(X=k)=1 k=0P(X=k)=1

数学期望

X i = { 1 第 i 件 次 品 被 抽 到 0 o t h e r w i s e ,   ( i = 1 , 2 , ⋯   , M ) X_i=\left\{\begin{array}{cc} 1 & 第i件次品被抽到 \\ 0 & otherwise \end{array}\right.,\space (i=1,2,\cdots,M) Xi={10iotherwise, (i=1,2,,M),那么
P ( X i = 1 ) = C 1 1 C N − 1 n − 1 C N n = n N   , P(X_i=1) = \frac{C_1^1C_{N-1}^{n-1}}{C_N^n} = \frac{n}{N} \thinspace, P(Xi=1)=CNnC11CN1n1=Nn E ( X i ) = 1 × P ( X i = 1 ) + 0 × P ( X i = 0 ) = n N   。 E(X_i) = 1\times P(X_i=1)+0\times P(X_i=0) = \frac{n}{N} \thinspace。 E(Xi)=1×P(Xi=1)+0×P(Xi=0)=Nn

再由 X = ∑ i = 1 M X i X=\sum\limits_{i=1}^{M}X_i X=i=1MXi可以得到
E ( X ) = E ( ∑ i = 1 M X i ) = ∑ i = 1 M E ( X i ) = n M N   。 E(X) = E(\sum\limits_{i=1}^{M}X_i) = \sum\limits_{i=1}^{M}E(X_i) = \frac{nM}{N} \thinspace。 E(X)=E(i=1MXi)=i=1ME(Xi)=NnM

方差

X 1 , X 2 , ⋯   , X n X_1,X_2,\cdots,X_n X1,X2,,Xn两两不独立,不能使用 V a r ( ∑ i = 1 n X i ) = ∑ i = 1 n V a r ( X i ) Var(\sum\limits_{i=1}^{n}X_i)=\sum\limits_{i=1}^{n}Var(X_i) Var(i=1nXi)=i=1nVar(Xi)

Y Y Y服从超几何分布 H ( n − 1 , M − 1 , N − 1 ) H(n-1,M-1,N-1) H(n1,M1,N1),则 E ( Y ) = ( n − 1 ) ( M − 1 ) N − 1 E(Y)=\frac{(n-1)(M-1)}{N-1} E(Y)=N1(n1)(M1)。先计算
E ( X 2 ) = ∑ k = 0 m i n { n , M } k 2 C M k C N − M n − k C N n = ∑ k = 1 m i n { n , M } k ( k − 1 ) C M k C N − M n − k C N n + ∑ k = 0 m i n { n , M } k C M k C N − M n − k C N n = ∑ k = 1 m i n { n , M } M ( k − 1 ) C M − 1 k − 1 C N − M n − k C N n + E ( X ) = n M N ∑ k = 1 m i n { n , M } ( k − 1 ) C M − 1 k − 1 C ( N − 1 ) − ( M − 1 ) ( n − 1 ) − ( k − 1 ) C N − 1 n − 1 + E ( X ) = n M N ∑ k = 0 m i n { n − 1 , M − 1 } k C M − 1 k C ( N − 1 ) − ( M − 1 ) ( n − 1 ) − k C N − 1 n − 1 + E ( X ) = n M N E ( Y ) + E ( X ) = n M N ⋅ ( n − 1 ) ( M − 1 ) N − 1 + n M N   。 \begin{aligned} E(X^2) &= \sum\limits_{k=0}^{min\{n,M\}}\frac{k^2C_{M}^{k}C_{N-M}^{n-k}}{C_{N}^{n}} \\ &= \sum\limits_{k=1}^{min\{n,M\}}\frac{k(k-1)C_{M}^{k}C_{N-M}^{n-k}}{C_{N}^{n}} + \sum\limits_{k=0}^{min\{n,M\}}\frac{kC_{M}^{k}C_{N-M}^{n-k}}{C_{N}^{n}} \\ &= \sum\limits_{k=1}^{min\{n,M\}}\frac{M(k-1)C_{M-1}^{k-1}C_{N-M}^{n-k}}{C_{N}^{n}} + E(X) \\ &= \frac{nM}{N}\sum\limits_{k=1}^{min\{n,M\}}\frac{(k-1)C_{M-1}^{k-1}C_{(N-1)-(M-1)}^{(n-1)-(k-1)}}{C_{N-1}^{n-1}} + E(X) \\ &= \frac{nM}{N}\sum\limits_{k=0}^{min\{n-1,M-1\}}\frac{kC_{M-1}^{k}C_{(N-1)-(M-1)}^{(n-1)-k}}{C_{N-1}^{n-1}} + E(X) \\ &= \frac{nM}{N}E(Y) + E(X) \\ &= \frac{nM}{N}\cdot\frac{(n-1)(M-1)}{N-1} + \frac{nM}{N} \thinspace。 \end{aligned} E(X2)=k=0min{n,M}CNnk2CMkCNMnk=k=1min{n,M}CNnk(k1)CMkCNMnk+k=0min{n,M}CNnkCMkCNMnk=k=1min{n,M}CNnM(k1)CM1k1CNMnk+E(X)=NnMk=1min{n,M}CN1n1(k1)CM1k1C(N1)(M1)(n1)(k1)+E(X)=NnMk=0min{n1,M1}CN1n1kCM1kC(N1)(M1)(n1)k+E(X)=NnME(Y)+E(X)=NnMN1(n1)(M1)+NnM由此得到
V a r ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = n M N ⋅ ( n − 1 ) ( M − 1 ) N − 1 + n M N − ( n M N ) 2 = n M ( N − n ) ( N − M ) N 2 ( N − 1 )   。 Var(X) = E(X^2)-(E(X))^2 = \frac{nM}{N}\cdot\frac{(n-1)(M-1)}{N-1} + \frac{nM}{N}-(\frac{nM}{N})^2 = \frac{nM(N-n)(N-M)}{N^2(N-1)} \thinspace。 Var(X)=E(X2)(E(X))2=NnMN1(n1)(M1)+NnM(NnM)2=N2(N1)nM(Nn)(NM)

泊松分布

分布律
P ( X = k ) = λ k k ! e − λ ,   ( k = 0 , 1 , 2 , ⋯   )   。 P(X=k) = \frac{\lambda^k}{k!}e^{-\lambda},\space (k=0,1,2,\cdots) \thinspace。 P(X=k)=k!λkeλ, (k=0,1,2,)

证明 ∑ k = 0 ∞ P ( X = k ) = 1 \sum\limits_{k=0}^{\infty}P(X=k)=1 k=0P(X=k)=1

运用泰勒公式 f ( x ) = ∑ k = 0 ∞ f ( k ) ( x 0 ) k ! ( x − x 0 ) k f(x)=\sum\limits_{k=0}^{\infty}\frac{f^{(k)}(x_0)}{k!}(x-x_0)^{k} f(x)=k=0k!f(k)(x0)(xx0)k,有以下两种证法。

f ( x ) = e x , x 0 = − λ f(x)=e^x, x_0=-\lambda f(x)=ex,x0=λ,可得
∑ k = 0 ∞ P ( X = k ) = ∑ k = 0 ∞ e − λ k ! ( 0 − ( − λ ) ) k = f ( 0 ) = 1   。 \sum\limits_{k=0}^{\infty}P(X=k) = \sum\limits_{k=0}^{\infty}\frac{e^{-\lambda}}{k!}(0-(-\lambda))^k = f(0) = 1 \thinspace。 k=0P(X=k)=k=0k!eλ(0(λ))k=f(0)=1
f ( x ) = e x , x 0 = 0 f(x)=e^x, x_0=0 f(x)=ex,x0=0,同样可得
∑ k = 0 ∞ P ( X = k ) = e − λ ∑ k = 0 ∞ 1 k ! ( λ − 0 ) k = e − λ f ( λ ) = 1   。 \sum\limits_{k=0}^{\infty}P(X=k) = e^{-\lambda}\sum\limits_{k=0}^{\infty}\frac{1}{k!}(\lambda-0)^k = e^{-\lambda}f(\lambda) = 1 \thinspace。 k=0P(X=k)=eλk=0k!1(λ0)k=eλf(λ)=1

数学期望
E ( X ) = ∑ k = 0 ∞ k λ k k ! e − λ = λ ∑ k = 1 ∞ λ k − 1 ( k − 1 ) ! e − λ = λ   。 E(X) = \sum\limits_{k=0}^{\infty}k\frac{\lambda^k}{k!}e^{-\lambda} = \lambda\sum\limits_{k=1}^{\infty}\frac{\lambda^{k-1}}{(k-1)!}e^{-\lambda} = \lambda \thinspace。 E(X)=k=0kk!λkeλ=λk=1(k1)!λk1eλ=λ

方差
V a r ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = ∑ k = 0 ∞ k 2 λ k k ! e − λ − ( E ( X ) ) 2 = ∑ k = 1 ∞ k ( k − 1 ) λ k k ! e − λ + ∑ k = 0 ∞ k λ k k ! e − λ − ( E ( X ) ) 2 = λ 2 ∑ k = 2 ∞ λ k − 2 ( k − 2 ) ! e − λ + E ( X ) − ( E ( X ) ) 2 = λ 2 ∑ k = 0 ∞ λ k k ! e − λ + E ( X ) − ( E ( X ) ) 2 = λ 2 ∑ k = 0 ∞ P ( X = k ) + λ − λ 2 = λ   。 \begin{aligned} Var(X) &= E(X^2)-(E(X))^2 \\ &= \sum\limits_{k=0}^{\infty}k^2\frac{\lambda^k}{k!}e^{-\lambda}-(E(X))^2 \\ &= \sum\limits_{k=1}^{\infty}k(k-1)\frac{\lambda^k}{k!}e^{-\lambda}+\sum\limits_{k=0}^{\infty}k\frac{\lambda^k}{k!}e^{-\lambda}-(E(X))^2 \\ &= \lambda^2\sum\limits_{k=2}^{\infty}\frac{\lambda^{k-2}}{(k-2)!}e^{-\lambda}+E(X)-(E(X))^2 \\ &= \lambda^2\sum\limits_{k=0}^{\infty}\frac{\lambda^k}{k!}e^{-\lambda}+E(X)-(E(X))^2 \\ &= \lambda^2\sum\limits_{k=0}^{\infty}P(X=k) + \lambda - \lambda^2 \\ &= \lambda \thinspace。 \end{aligned} Var(X)=E(X2)(E(X))2=k=0k2k!λkeλ(E(X))2=k=1k(k1)k!λkeλ+k=0kk!λkeλ(E(X))2=λ2k=2(k2)!λk2eλ+E(X)(E(X))2=λ2k=0k!λkeλ+E(X)(E(X))2=λ2k=0P(X=k)+λλ2=λ

几何分布

分布律
P ( X = k ) = ( 1 − p ) k − 1 p ,   ( k = 1 , 2 , ⋯   )   。 P(X=k) = (1-p)^{k-1}p,\space (k=1,2,\cdots) \thinspace。 P(X=k)=(1p)k1p, (k=1,2,)

证明 ∑ k = 0 ∞ P ( X = k ) = 1 \sum\limits_{k=0}^{\infty}P(X=k)=1 k=0P(X=k)=1

∑ k = 1 ∞ P ( X = k ) = 1 − p = q p ∑ k = 1 ∞ q k − 1 = p 1 − q = 1   。 \sum\limits_{k=1}^{\infty}P(X=k) \overset{1-p=q}{=} p\sum\limits_{k=1}^{\infty}q^{k-1} = \frac{p}{1-q} = 1 \thinspace。 k=1P(X=k)=1p=qpk=1qk1=1qp=1

数学期望
   E ( X ) = ∑ k = 1 ∞ k p ( 1 − p ) k − 1 = 1 − p = q p ∑ k = 1 ∞ k q k − 1 = p ∑ k = 0 ∞ ( k + 1 ) q k ⇒ ( 1 − q ) E ( X ) = p ( 1 − q ) ∑ k = 0 ∞ ( k + 1 ) q k = p ( ∑ k = 0 ∞ ( k + 1 ) q k − ∑ k = 1 ∞ k q k ) = p ∑ k = 0 ∞ q k = p 1 − q = 1 ⇒ E ( X ) = 1 1 − q = 1 p   。 \begin{aligned} &\quad\space\space E(X) = \sum\limits_{k=1}^{\infty}kp(1-p)^{k-1} \overset{1-p=q}{=} p\sum\limits_{k=1}^{\infty}kq^{k-1} = p\sum\limits_{k=0}^{\infty}(k+1)q^k \\ &\Rightarrow (1-q)E(X) = p(1-q)\sum\limits_{k=0}^{\infty}(k+1)q^k = p(\sum\limits_{k=0}^{\infty}(k+1)q^k-\sum\limits_{k=1}^{\infty}kq^k) = p\sum\limits_{k=0}^{\infty}q^k = \frac{p}{1-q} = 1 \\ &\Rightarrow E(X) = \frac{1}{1-q} = \frac{1}{p} \thinspace。 \end{aligned}   E(X)=k=1kp(1p)k1=1p=qpk=1kqk1=pk=0(k+1)qk(1q)E(X)=p(1q)k=0(k+1)qk=p(k=0(k+1)qkk=1kqk)=pk=0qk=1qp=1E(X)=1q1=p1

方差
E ( X 2 )      =      ∑ k = 1 ∞ k 2 ( 1 − p ) k − 1 p = 1 − p = q p ∑ k = 2 ∞ k ( k − 1 ) q k − 1 + p ∑ k = 1 ∞ k q k − 1      =      2 p ∑ k = 2 ∞ C k 2 q k − 1 + E ( X )   。 \begin{aligned} E(X^2) &\space\space\,=\space\space\, \sum\limits_{k=1}^{\infty}k^2(1-p)^{k-1}p \\ &\overset{1-p=q}{=} p\sum\limits_{k=2}^{\infty}k(k-1)q^{k-1}+p\sum\limits_{k=1}^{\infty}kq^{k-1} \\ &\space\space\,=\space\space\, 2p\sum\limits_{k=2}^{\infty}C_k^2q^{k-1}+E(X) \thinspace。 \end{aligned} E(X2)  =  k=1k2(1p)k1p=1p=qpk=2k(k1)qk1+pk=1kqk1  =  2pk=2Ck2qk1+E(X)由于 C k 2 − C k − 1 2 = k − 1 C_{k}^2-C_{k-1}^2=k-1 Ck2Ck12=k1,使用错位相减计算
∑ k = 2 ∞ C k 2 q k − 1 = 1 1 − q ( ∑ k = 2 ∞ C k 2 q k − 1 − ∑ k = 3 ∞ C k − 1 2 q k − 1 ) = 1 1 − q ∑ k = 1 ∞ k q k = q = 1 − p 1 − p p 2 E ( X ) = 1 − p p 3   。 \sum\limits_{k=2}^{\infty}C_k^2q^{k-1} = \frac{1}{1-q}(\sum\limits_{k=2}^{\infty}C_k^2q^{k-1}-\sum\limits_{k=3}^{\infty}C_{k-1}^2q^{k-1}) = \frac{1}{1-q}\sum\limits_{k=1}^{\infty}kq^k \overset{q=1-p}{=} \frac{1-p}{p^2}E(X) = \frac{1-p}{p^3} \thinspace。 k=2Ck2qk1=1q1(k=2Ck2qk1k=3Ck12qk1)=1q1k=1kqk=q=1pp21pE(X)=p31p从而得到
V a r ( X ) = E ( X 2 ) − ( E ( X ) ) 2 = 2 p ⋅ 1 − p p 3 + E ( X ) − ( E ( X ) ) 2 = 1 − p p 2   。 \begin{aligned} Var(X) &= E(X^2)-(E(X))^2 \\ &= 2p\cdot\frac{1-p}{p^3}+E(X)-(E(X))^2 \\ &= \frac{1-p}{p^2} \thinspace。 \end{aligned} Var(X)=E(X2)(E(X))2=2pp31p+E(X)(E(X))2=p21p

你可能感兴趣的:(数学笔记,概率论)