概率论与数理统计复习总结2

概率论与数理统计复习总结,仅供笔者复习使用,参考教材:

  • 《概率论与数理统计》/ 荣腾中主编. — 第 2 版. 高等教育出版社
  • 《2024高途考研数学——概率基础精讲》王喆

概率论与数理统计实际上是两个互补的分支:概率论已知随机变量及其概率分布 的基础上去描述随机现象的统计规律、挖掘随机变量的数字特征与数学性质、计算随机事件的发生概率;数理统计 则是通过随机现象来研究其统计规律性,即通过收集、整理和分析随机变量的观测数据,对随机变量的性质和特征做出合理的推断或预测。

本文主要内容为:数理统计1;
概率论 部分见 概率论与数理统计复习总结1;
数理统计1 部分见 概率论与数理统计复习总结2;
数理统计2 部分见 概率论与数理统计复习总结3;

目录

  • 六. 数理统计的基本概念
    • 1. 总体和样本
    • 2. 样本的分布函数
    • 3. 统计量
    • 4. 抽样分布
      • 4.1 常见抽样分布
      • 4.2 抽样分布定理
    • 5. 分位数
  • 七. 参数估计
    • 1. 点估计
    • 2. 估计量的评价标准
    • 3. 区间估计
      • 3.1 置信区间
      • 3.2 单个正态总体的参数的置信区间

六. 数理统计的基本概念

数理统计通过研究如何有效地收集、整理和分析随机变量的观测数据,以对随机变量的性质h额特征做出合理的推断或预测。

1. 总体和样本

  • 总体:一个统计问题中的所有研究对象在某一属性上的取值的集合称,记为 X X X

  在总体所构成的取值集合中,不同数据出现的可能性不同。因此总体本质上是一个概率分布,其数量属性就是服从此概率分布的随机变量。

  • 个体:组成总体的每个元素;
  • 样本:从总体中随机抽取 n 个个体进行观测,称之为样本,记为 { X 1 , X 2 , ⋯   , X n } \{X_1, X_2, \cdots , X_n\} {X1,X2,,Xn},其观测值记为 { x 1 , x 2 , ⋯   , x n } \{x_1, x_2, \cdots , x_n\} {x1,x2,,xn}
  • 简单样本:如果样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 相互独立且每个随机变量与总体 X X X 有相同的概率分布,则称为简单样本;

2. 样本的分布函数

  • 样本的分布函数:样本中含有总体的信息,样本的随机规律性与总体的随机规律性关系密切。假设总体 X X X 的分布函数为 F ( x ) F(x) F(x) X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,则该样本的联合分布函数为:
    F ( x 1 , x 2 , ⋯   , x n ) = P { X 1 ≤ x 1 , X 2 ≤ x 2 , ⋯   , X n ≤ x n } = ∏ i = 1 n P ( X i ≤ x i ) = ∏ i = 1 n F ( x i ) F(x_1, x_2, \cdots , x_n) = P\{ X_1 \leq x_1, X_2 \leq x_2, \cdots,X_n \leq x_n\} = \prod_{i=1}^n P(X_i \leq x_i) = \prod_{i=1}^n F(x_i) F(x1,x2,,xn)=P{X1x1,X2x2,,Xnxn}=i=1nP(Xixi)=i=1nF(xi)

连续型随机变量的联合密度函数为
f ( x 1 , x 2 , ⋯   , x n ) = ∏ i = 1 n f X i ( x i ) = ∏ i = 1 n f ( x i ) f(x_1, x_2, \cdots , x_n) = \prod_{i=1}^n f_{X_i}(x_i) = \prod_{i=1}^n f(x_i) f(x1,x2,,xn)=i=1nfXi(xi)=i=1nf(xi)
离散型随机变量的联合分布律为
P { X 1 = x 1 , X 2 = x 2 , ⋯   , X n = x n } = ∏ i = 1 n P ( X i = x i ) = ∏ i = 1 n P ( X = x i ) P\{ X_1 = x_1, X_2 = x_2, \cdots,X_n = x_n\} = \prod_{i=1}^n P(X_i = x_i) = \prod_{i=1}^n P(X = x_i) P{X1=x1,X2=x2,,Xn=xn}=i=1nP(Xi=xi)=i=1nP(X=xi)

  • 经验分布函数:假设总体 X X X 的分布函数 F ( x ) F(x) F(x) 未知, x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是来自 X X X 的一组样本值。将 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn 按由小到大的顺序排序,其结果记为 x ( 1 ) < x ( 2 ) < ⋯ < x ( n ) x_{(1)}x(1)<x(2)<<x(n)。对任意给定的一个实数 x x x,根据频率与概率的关系,得到
    F ( x ) = P { X ⩽ x } = { 0 , x < x ( 1 ) , k n , x ( k ) ⩽ x < x ( k + 1 ) , ( k = 1 , 2 , ⋯   , n − 1 ) 1 , x ⩾ x ( n ) \begin{aligned} F(x) & =P\{X \leqslant x\} = \begin{cases}0, & xF(x)=P{Xx}= 0,nk,1,x<x(1),x(k)x<x(k+1),(k=1,2,,n1)xx(n)

  经验分布函数在 x ( k ) ⩽ x < x ( k + 1 ) x_{(k)} \leqslant xx(k)x<x(k+1) 时取 k n \frac{k}{n} nk 看似是均匀分布,但是 x ( k ) x_{(k)} x(k) x ( k + 1 ) x_{(k+1)} x(k+1) 之间并不等距,因此 X X X 并不是均匀分布的。显然 F n ( x ) F_n(x) Fn(x) x x x 的单调不减函数,且满足:
(1) 0 ⩽ F n ( x ) ⩽ 1 , x ∈ R 0 \leqslant F_n(x) \leqslant 1, x \in \mathbf{R} 0Fn(x)1,xR
(2) F n ( + ∞ ) = 1 , F n ( − ∞ ) = 0 F_n(+\infty)=1, F_n(-\infty)=0 Fn(+)=1,Fn()=0
(3) F n ( x + 0 ) = F n ( x ) , x ∈ R F_n(x+0)=F_n(x), x \in \mathbf{R} Fn(x+0)=Fn(x),xR
  其实经验分布函数就是一个用样本观测值构造的、用于估计理论分布 F ( x ) F(x) F(x) 的分布函数,它是一个不含未知参数的只关于当前样本的函数。

3. 统计量

样本来自总体,样本值中包含了总体各方面的信息。但这些信息较为分散,甚至杂乱无章。为了将这些分散在样本中的有关总体的信息挖掘出来用于对总体进行推断,需要对样本信息进行加工处理。最常见的加工方法是针对不同的问题,构造不同的样本的函数来反映总体不同的特征,样本的函数通常被称为统计量

  • 统计量:设 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,若关于样本的函数 T ( x 1 , x 2 , ⋯   , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 中不含任何未知参数,则称 T T T 为统计量;

  • 样本矩统计量:设 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,常见的样本矩统计量如下;

    • 样本均值: X ˉ = 1 n ∑ i = 1 n X i \bar{X}=\frac{1}{n} \sum_{i=1}^n X_i Xˉ=n1i=1nXi
    • 样本方差: S 2 = 1 n − 1 ∑ i = 1 n ( X i − X ˉ ) 2 S^2=\frac{1}{n-1} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2 S2=n11i=1n(XiXˉ)2
    • 样本标准差: S = S 2 = 1 n − 1 ∑ i = 1 n ( X i − X ˉ ) 2 S=\sqrt{S^2}=\sqrt{\frac{1}{n-1} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2} S=S2 =n11i=1n(XiXˉ)2
    • 样本 k k k 阶原点矩: M k = 1 n ∑ i = 1 n X i k , k = 1 , 2 , ⋯ M_k=\frac{1}{n} \sum_{i=1}^n X_i^k, k=1,2, \cdots Mk=n1i=1nXik,k=1,2,
    • 样本 k k k 阶中心矩: M k ∗ = 1 n ∑ i = 1 n ( X i − X ˉ ) k , k = 2 , 3 , ⋯ M_k^*=\frac{1}{n} \sum_{i=1}^n\left(X_i-\bar{X}\right)^k, k=2,3, \cdots Mk=n1i=1n(XiXˉ)k,k=2,3,

      显然,样本 k k k 阶原点矩和样本均值、样本 k k k 阶中心矩和样本方差也有以下等式关系:
    M 1 = X ˉ , S 2 = n n − 1 M 2 ∗ , M 2 ∗ = 1 n ∑ i = 1 n X i 2 − X ˉ 2 M_1=\bar{X}, \quad S^2=\frac{n}{n-1} M_2^*, \quad M_2^*=\frac{1}{n} \sum_{i=1}^n X_i^2-\bar{X}^2 M1=Xˉ,S2=n1nM2,M2=n1i=1nXi2Xˉ2

      样本矩统计量都是样本的函数,只与当前这一组样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 有关,与总体 X X X 无关。但当样本组合的数量不断增多趋于无穷,即取无数组样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 时,样本矩统计量会呈现出与总体 X X X 相关的统计规律:
    E X ˉ = E X , D X ˉ = 1 n D X , E M 2 ∗ = n − 1 n D X , E S 2 = D X E\bar{X}=EX, \quad D\bar{X}=\frac{1}{n} DX, \quad EM_2^*=\frac{n-1}{n} DX, \quad ES^2=DX EXˉ=EX,DXˉ=n1DX,EM2=nn1DX,ES2=DX
      除此之外,还有以下性质:
    (1) ∑ i = 1 n ( X i − X ˉ ) = 0 \sum_{i=1}^n(X_i-\bar{X})=0 i=1n(XiXˉ)=0
    (2)当 n → + ∞ n \rightarrow+\infty n+ 时, X ˉ ⟶ P E X \bar{X} \stackrel{P}{\longrightarrow} EX XˉPEX
    (3)对任意实数 x x x,有 ∑ i = 1 n ( X i − X ˉ ) 2 ⩽ ∑ i = 1 n ( X i − x ) 2 \sum_{i=1}^n(X_i-\bar{X})^2 \leqslant \sum_{i=1}^n(X_i-x)^2 i=1n(XiXˉ)2i=1n(Xix)2

  • 顺序统计量:设 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 是来自总体 X X X 的样本,对给定的一组样本观测值 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn,按从小到大的顺序排列。用 x ( k ) , k = 1 , 2 , ⋯   , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 表示大小位置在第 k k k 位的数,这样就有 x ( 1 ) ≤ x ( 2 ) ≤ ⋯ ≤ x ( n ) x_{(1)} ≤ x_{(2)} ≤ \cdots ≤ x_{(n)} x(1)x(2)x(n)。当样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 的观测值随机变化时, x ( k ) , k = 1 , 2 , ⋯   , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 的取值也随之而变化,且具有随机性。这样, x ( k ) , k = 1 , 2 , ⋯   , n x_{(k)}, k = 1, 2, \cdots, n x(k),k=1,2,,n 的全部取值就对应一个随机变量,记为 X ( k ) , k = 1 , 2 , ⋯   , n X_{(k)}, k = 1, 2, \cdots, n X(k),k=1,2,,n 。它显然是一个统计量,我们称 X ( 1 ) , X ( 2 ) , ⋯   , X ( n ) X_{(1)}, X_{(2)}, \cdots, X_{(n)} X(1),X(2),,X(n) 为样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots , X_n X1,X2,,Xn 的顺序统计量。特别地,称 X ( 1 ) = m i n { X 1 , X 2 , ⋯   , X n } X_{(1)} = min \{X_1, X_2, \cdots, X_n\} X(1)=min{X1,X2,,Xn} 为最小顺序统计量, X ( n ) = m a x { X 1 , X 2 , ⋯   , X n } X_{(n)} = max \{X_1, X_2, \cdots, X_n\} X(n)=max{X1,X2,,Xn} 为最大顺序统计量;

4. 抽样分布

通过样本构造函数可以得到统计量,但为了更精确地刻画总体,还想确定统计量的分布。统计量的分布称为抽样分布,本节介绍几种常见的抽样分布以及常见统计量的分布情况。

4.1 常见抽样分布

  • χ 2 \chi^2 χ2 分布:设 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn n n n 个相互独立且都服从标准正态分布 N ( 0 , 1 ) N(0, 1) N(0,1) 的随机变量,记 χ 2 = ∑ i = 1 n X i 2 \chi^2 = \sum_{i=1}^n X_i^2 χ2=i=1nXi2,则称统计量 χ 2 \chi^2 χ2 服从自由度为 n n n χ 2 \chi^2 χ2 分布,记为 χ 2 ∼ χ 2 ( n ) \chi^2 \sim \chi^2(n) χ2χ2(n)。可以证明, χ 2 \chi^2 χ2 分布的密度函数为:
    f ( x ) = { 1 2 n 2 Γ ( n 2 ) x n 2 − 1 e − x 2 , x > 0 , 0 , x ⩽ 0 f(x)= \begin{cases}\frac{1}{2^{\frac{n}{2}} \Gamma\left(\frac{n}{2}\right)} x^{\frac{n}{2}-1} \mathrm{e}^{-\frac{x}{2}}, & x>0, \\ 0, & x \leqslant 0\end{cases} f(x)={22nΓ(2n)1x2n1e2x,0,x>0,x0
    其中 Γ ( α ) = ∫ 0 + ∞ x α − 1 e − x   d x \Gamma(\alpha)=\int_0^{+\infty} x^{\alpha-1} \mathrm{e}^{-x} \mathrm{~d} x Γ(α)=0+xα1ex dx f ( x ) f(x) f(x) 的曲线如图所示,它是一个只取非负值的偏态分布:
    概率论与数理统计复习总结2_第1张图片
    χ 2 \chi^2 χ2 分布具有如下两个重要性质:
    (1)设 χ 2 ∼ χ 2 ( n ) \chi^2 \sim \chi^2(n) χ2χ2(n),则 E χ 2 = n , D χ 2 = 2 n E \chi^2=n, D \chi^2=2 n Eχ2=n,Dχ2=2n
    (2)设 χ 1 2 ∼ χ 2 ( n 1 ) \chi_1^2 \sim \chi^2(n_1) χ12χ2(n1) χ 2 2 ∼ χ 2 ( n 2 ) \chi_2^2 \sim \chi^2(n_2) χ22χ2(n2),且 χ 1 2 \chi_1^2 χ12 χ 2 2 \chi_2^2 χ22 相互独立,则 χ 1 2 + χ 2 2 ∼ \chi_1^2+\chi_2^2 \sim χ12+χ22 χ 2 ( n 1 + n 2 ) \chi^2\left(n_1+n_2\right) χ2(n1+n2)

  • t t t 分布:设 X ∼ N ( 0 , 1 ) X \sim N(0,1) XN(0,1) Y ∼ χ 2 ( n ) Y \sim \chi^2(n) Yχ2(n),且 X X X Y Y Y 相互独立,记 T = X Y / n T=\frac{X}{\sqrt{Y / n}} T=Y/n X。则称 T T T 的分布为自由度为 n n n t t t 分布,记为 T ∼ t ( n ) T \sim t(n) Tt(n)。可以证明, T T T 的密度函数为:
    f ( x ) = Γ ( n + 1 2 ) n π Γ ( n 2 ) ( 1 + x 2 n ) − n + 1 2 , x ∈ R f(x)=\frac{\Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n \pi} \Gamma\left(\frac{n}{2}\right)}\left(1+\frac{x^2}{n}\right)^{- \frac{n+1}{2}}, x \in \mathbf{R} f(x)= Γ(2n)Γ(2n+1)(1+nx2)2n+1,xR
    f ( x ) f(x) f(x) 的曲线如图所示,易见 f ( x ) f(x) f(x) 是一个偶函数:
    概率论与数理统计复习总结2_第2张图片
    t t t 分布有如下性质:
    (1) f ( x ) f(x) f(x) 的图形关于 y y y 轴对称,当 n > 1 n>1 n>1 时,ET = 0 =0 =0
    (2)当 n > 2 n>2 n>2 时, D T = n n − 2 D T=\frac{n}{n-2} DT=n2n
    (3)当 n = 1 n=1 n=1 时, T T T 的密度函数为 f ( x ) = 1 π ⋅ 1 1 + x 2 , x ∈ R f(x)=\frac{1}{\pi} \cdot \frac{1}{1+x^2}, x \in \mathbf{R} f(x)=π11+x21,xR
    (4)当 n → + ∞ n \rightarrow+\infty n+ 时, f ( x ) → 1 2 π e − x 2 2 , x ∈ R f(x) \rightarrow \frac{1}{\sqrt{2 \pi}} \mathrm{e}^{-\frac{x^2}{2}}, x \in \mathbf{R} f(x)2π 1e2x2,xR。这说明当自由度 n n n 充分大时, T T T 近似服从标准正态分布;

  • F F F 分布:设 X ∼ χ 2 ( m ) X \sim \chi^2(m) Xχ2(m) Y ∼ χ 2 ( n ) Y \sim \chi^2(n) Yχ2(n),且 X X X Y Y Y 独立。记 F = X / m Y / n F=\frac{X / m}{Y / n} F=Y/nX/m,则称 F F F 的分布为第一自由度是 m m m,第二自由度是 n n n F F F 分布,记为 F ∼ F ( m , n ) F \sim F(m, n) FF(m,n)。可以证明, F F F 的密度函数为:
    f ( x ) = { Γ ( m + n 2 ) Γ ( m 2 ) Γ ( n 2 ) ( m n ) m 2 x m 2 − 1 ( 1 + m x n ) − n + m 2 , x > 0 , 0 , x ⩽ 0 f(x)= \begin{cases}\frac{\Gamma\left(\frac{m+n}{2}\right)}{\Gamma\left(\frac{m}{2}\right) \Gamma\left(\frac{n}{2}\right)}\left(\frac{m}{n}\right)^{\frac{m}{2}} x^{\frac{m}{2}-1}\left(1+\frac{m x}{n}\right)^{-\frac{n+m}{2}}, & x>0, \\ 0, & x \leqslant 0\end{cases} f(x)= Γ(2m)Γ(2n)Γ(2m+n)(nm)2mx2m1(1+nmx)2n+m,0,x>0,x0
    f ( x ) f(x) f(x) 的曲线如图所示:
    概率论与数理统计复习总结2_第3张图片
    易证, F F F 分布具有如下性质:
    (1)当 F ∼ F ( m , n ) F \sim F(m, n) FF(m,n) 时, 1 F ∼ F ( n , m ) \frac{1}{F} \sim F(n, m) F1F(n,m)
    (2)当 T ∼ t ( n ) T \sim t(n) Tt(n) 时, T 2 ∼ F ( 1 , n ) T^2 \sim F(1, n) T2F(1,n)

4.2 抽样分布定理

  • X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 为来自总体 X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^2\right) XN(μ,σ2) 的样本, X ˉ , S 2 \bar{X}, S^2 Xˉ,S2 分别为样本均值和样本方差,则
    (1) X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N\left(\mu, \frac{\sigma^2}{n}\right) XˉN(μ,nσ2) X ˉ − μ σ n ∼ N ( 0 , 1 ) \frac{\bar{X}-\mu}{\sigma} \sqrt{n} \sim N(0,1) σXˉμn N(0,1)
    (2) ( n − 1 ) S 2 σ 2 = 1 σ 2 ∑ i = 1 n ( X i − X ˉ ) 2 ∼ χ 2 ( n − 1 ) \frac{(n-1) S^2}{\sigma^2}=\frac{1}{\sigma^2} \sum_{i=1}^n\left(X_i-\bar{X}\right)^2 \sim \chi^2(n-1) σ2(n1)S2=σ21i=1n(XiXˉ)2χ2(n1)
    (3) X ˉ \bar{X} Xˉ S 2 S^2 S2 相互独立;
  • X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 为来自总体 X ∼ N ( μ , σ 2 ) X \sim N\left(\mu, \sigma^2\right) XN(μ,σ2) 的样本, X ˉ , S 2 \bar{X}, S^2 Xˉ,S2 分别为样本均值和样本方差,则
    (1) X ˉ − μ S n ∼ t ( n − 1 ) \frac{\bar{X}-\mu}{S} \sqrt{n} \sim t(n-1) SXˉμn t(n1)
    (2) E S 2 = σ 2 E S^2=\sigma^2 ES2=σ2 D S 2 = 2 σ 4 n − 1 D S^2=\frac{2 \sigma^4}{n-1} DS2=n12σ4
  • X 1 , X 2 , ⋯   , X m X_1, X_2, \cdots, X_m X1,X2,,Xm 为来自总体 X ∼ N ( μ 1 , σ 1 2 ) X \sim N\left(\mu_1, \sigma_1^2\right) XN(μ1,σ12) 的样本, Y 1 , Y 2 Y_1, Y_2 Y1,Y2, ⋯   , Y n \cdots, Y_n ,Yn 为来自总体 Y ∼ N ( μ 2 , σ 2 2 ) Y \sim N\left(\mu_2, \sigma_2^2\right) YN(μ2,σ22) 的样本,且两个样本相互独立。令
    X ˉ = 1 m ∑ i = 1 m X i , Y ˉ = 1 n ∑ j = 1 n Y j S X 2 = 1 m − 1 ∑ i = 1 m ( X i − X ˉ ) 2 , S Y 2 = 1 n − 1 ∑ j = 1 n ( Y j − Y ˉ ) 2 \begin{gathered} \bar{X}=\frac{1}{m} \sum_{i=1}^m X_i, \bar{Y}=\frac{1}{n} \sum_{j=1}^n Y_j \\ S_X^2=\frac{1}{m-1} \sum_{i=1}^m\left(X_i-\bar{X}\right)^2, S_Y^2=\frac{1}{n-1} \sum_{j=1}^n\left(Y_j-\bar{Y}\right)^2 \end{gathered} Xˉ=m1i=1mXi,Yˉ=n1j=1nYjSX2=m11i=1m(XiXˉ)2,SY2=n11j=1n(YjYˉ)2

    (1) F = S x 2 / S Y 2 σ 1 2 / σ 2 2 ∼ F ( m − 1 , n − 1 ) F=\frac{S_x^2 / S_Y^2}{\sigma_1^2 / \sigma_2^2} \sim F(m-1, n-1) F=σ12/σ22Sx2/SY2F(m1,n1)
    (2)当 σ 1 2 = σ 2 2 = σ 2 \sigma_1^2=\sigma_2^2=\sigma^2 σ12=σ22=σ2 时,
    T = ( X ˉ − Y ˉ ) − ( μ 1 − μ 2 ) S w 1 n + 1 m ∼ t ( m + n − 2 ) T=\frac{(\bar{X}-\bar{Y})-\left(\mu_1-\mu_2\right)}{S_w \sqrt{\frac{1}{n}+\frac{1}{m}}} \sim t(m+n-2) T=Swn1+m1 (XˉYˉ)(μ1μ2)t(m+n2)
    其中 S w 2 = ( m − 1 ) S X 2 + ( n − 1 ) S Y 2 m + n − 2 S_w^2=\frac{(m-1) S_X^2+(n-1) S_Y^2}{m+n-2} Sw2=m+n2(m1)SX2+(n1)SY2.

5. 分位数

在概率论中,如果已知连续型随机变量 X X X 的密度函数 f ( x ) f(x) f(x),可以计算概率 P { X ⩽ x 0 } = ∫ − ∞ x 0 f ( x ) d x P\left\{X \leqslant x_0\right\}=\int_{-\infty}^{x_0} f(x) \mathrm{d} x P{Xx0}=x0f(x)dx;而在统计推断中,遇到的问题常常是一个反问题,即已知概率 p 0 = P { X ⩽ x 0 } p_0=P\left\{X \leqslant x_0\right\} p0=P{Xx0} x 0 x_0 x0,称 x 0 x_0 x0 p 0 p_0 p0 分位数。分位数又叫分位点或临界值,它在区间估计、假设检验等统计推断中起着重要的作用。

  • 分位数:设 X X X 是连续型随机变量,分布函数为 F ( x ) F(x) F(x),密度函数为 f ( x ) f(x) f(x)。对给定的概率 p p p,如有实数 v p v_p vp,使得
    F ( v p ) = P { X ⩽ v p } = ∫ − ∞ v p f ( x ) d x = p F\left(v_p\right)=P\left\{X \leqslant v_p\right\}=\int_{-\infty}^{v_p} f(x) \mathrm{d} x=p F(vp)=P{Xvp}=vpf(x)dx=p
    则称 v p v_p vp 为随机变量 X X X 的(下侧) p p p 分位数。如图显示了分位数 v p v_p vp 与密度函数的关系:
    概率论与数理统计复习总结2_第4张图片

  • 分位数的性质:将标准正态分布、 χ 2 \chi^2 χ2 分布、 t t t 分布、 F F F 分布的分位数分别记为 u p u_p up t p ( n ) t_p(n) tp(n) χ p 2 ( n ) \chi_p^2(n) χp2(n) F p ( m , n ) F_p(m, n) Fp(m,n),它们有如下性质:
    (1)由标准正态分布的对称性,易得 u 0.5 = 0 u_{0.5}=0 u0.5=0 − u p = u 1 − p , 0 < p < 1 -u_p=u_{1-p}, 0up=u1p,0<p<1。此性质如图所示:
    概率论与数理统计复习总结2_第5张图片
    在进行手工计算时,可以通过查标准正态分布函数表以及利用相关性质来获得分位数的值,如: u 0.95 = 1.65 , u 0.975 = 1.96 , u 0.05 = − u 0.95 = − 1.65 u_{0.95}=1.65, u_{0.975}=1.96, u_{0.05}=-u_{0.95}=-1.65 u0.95=1.65,u0.975=1.96,u0.05=u0.95=1.65
    (2)由 t t t 分布的对称性易得 t 0.5 ( n ) = 0 t_{0.5}(n)=0 t0.5(n)=0 − t p ( n ) = t 1 − p ( n ) , 0 < p < 1 -t_p(n)=t_{1-p}(n), 0tp(n)=t1p(n),0<p<1。由于当 n → + ∞ n \rightarrow+\infty n+ 时, t t t 分布趋于标准正态分布,所以 n n n 充分大时有 t p ( n ) = u p t_p(n)=u_p tp(n)=up。在进行手工计算时,可以直接通过查 t t t 分位数表以及利用相关性质得到 t t t 分位数的值,如: t 0.975 ( 12 ) = 2.179 , t 0.05 ( 10 ) = − t 0.95 ( 10 ) = − 1.812 , t 0.95 ( 50 ) ≈ u 0.95 = 1.65 t_{0.975}(12)=2.179, t_{0.05}(10)=-t_{0.95}(10)=-1.812, t_{0.95}(50) \approx u_{0.95}=1.65 t0.975(12)=2.179,t0.05(10)=t0.95(10)=1.812,t0.95(50)u0.95=1.65
    (3)关于 χ 2 \chi^2 χ2 分布的分位数,当 n n n 充分大 ( n > 45 ) (n>45) (n>45) 时,有近似计算公式
    χ p 2 ( n ) ≈ 1 2 ( u p + 2 n − 1 ) 2 \chi_p^2(n) \approx \frac{1}{2}\left(u_p+\sqrt{2 n-1}\right)^2 χp2(n)21(up+2n1 )2
    n n n 不够大时,可直接查 χ 2 \chi^2 χ2 分布的分位数表,例: χ 0.95 2 ( 10 ) = 18.31 , χ 0.975 2 ( 12 ) = 23.34 \chi_{0.95}^2(10)=18.31, \chi_{0.975}^2(12)=23.34 χ0.952(10)=18.31,χ0.9752(12)=23.34

七. 参数估计

前一章介绍了使用未知分布的样本构造统计量来近似描述总体的分布情况。然而,现实中更常见的是已知样本服从的分布但不知道分布的具体参数,可以通过多次试验进行采样得到样本,计算样本规律得到分布的参数,称之为参数估计。本章主要介绍点估计和区间估计,以及评价估计优劣的标准。

1. 点估计

设总体 X X X 的分布形式已知, θ \theta θ 是其未知参数, X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是来自总体 X X X 的样本, x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是样本值。点估计的任务是构造一个适当的统计量 θ ^ = T ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}= T(X_1, X_2, \cdots, X_n) θ^=T(X1,X2,,Xn),使其样本值 T ( x 1 , x 2 , ⋯   , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 有理由作为未知参数 θ \theta θ 的估计值。这时,称统计量 θ ^ = T ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}=T(X_1, X_2, \cdots, X_n) θ^=T(X1,X2,,Xn) θ \theta θ 的点估计量,它的观测值 T ( x 1 , x 2 , ⋯   , x n ) T(x_1, x_2, \cdots, x_n) T(x1,x2,,xn) 称为 θ \theta θ 的点估计值,仍用 θ ^ \hat{\theta} θ^ 表示。点估计的常用方法有矩估计法、最大似然估计法、最小二乘估计法等。

  • 矩估计法:由辛钦大数定律知,对来自总体 X X X 的样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn,当总体 X X X 的前 k k k 阶原点矩 E X l ( l = 1 , 2 , ⋯   , k ) E X^l(l=1,2, \cdots, k) EXl(l=1,2,,k) 存在时,有
    M l = 1 n ∑ i = 1 n X i l ⟶ P E X l ( n → + ∞ , l = 1 , 2 , ⋯   , k ) M_l=\frac{1}{n} \sum_{i=1}^n X_i^l \stackrel{P}{\longrightarrow} E X^l \quad(n \rightarrow+\infty, l=1,2, \cdots, k) Ml=n1i=1nXilPEXl(n+,l=1,2,,k)
    因此,对总体 X X X l l l 阶原点矩 E X l ( l = 1 , 2 , ⋯   , k ) E X^l(l=1,2, \cdots, k) EXl(l=1,2,,k) 可用样本的 l l l 阶原点矩 M l M_l Ml 的样本值估计,即
    E ^ X l = M l = 1 n ∑ i = 1 n X i l , l = 1 , 2 , ⋯   , k \hat{E} X^l=M_l=\frac{1}{n} \sum_{i=1}^n X_i^l, \quad l=1,2, \cdots, k E^Xl=Ml=n1i=1nXil,l=1,2,,k
    同理,总体的 l l l 阶中心矩也可以用样本的 l l l 阶中心矩估计,即
    E ^ ( X − E X ) l = M i ∗ = 1 n ∑ i = 1 n ( X i − X ˉ ) l , l = 1 , 2 , ⋯   , k \hat{E}(X-E X)^l=M_i^*=\frac{1}{n} \sum_{i=1}^n\left(X_i-\bar{X}\right)^l, l=1,2, \cdots, k E^(XEX)l=Mi=n1i=1n(XiXˉ)l,l=1,2,,k

  矩估计法使用样本的矩估计模型参数,例题如下:
概率论与数理统计复习总结2_第6张图片
  矩估计法直观、简便,且在总体矩存在的情况下求它们的矩估计量 不需要知道总体的分布,这些都是矩估计法的优点。但是矩估计法也存在明显的不足:首先,矩估计法要求总体矩存在,而有些总体的矩是不存在的,这时就不能使用矩估计法,如柯西分布不存在数学期望;其次,矩估计法 未能充分利用总体分布所提供的信息,个别情形可能出现以偏概全的情况,因此不能保证它有优良的性质。因此实际应用中更常使用最大似然估计法,最大似然估计法克服了矩估计法的上述两个不足,不要求矩的存在性,且可充分利用总体分布的信息。

  • 最大似然估计法:未知参数的最大似然估计值就是参数空间中让样本取得观测值的概率最大的值。对给定的样本观测值 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn,有似然函数
    L ( θ 1 , θ 2 , ⋯   , θ k ; x 1 , x 2 , ⋯   , x n ) = { ∏ i = 1 n P { X = x i } ,  当总体  X  是离散型时, ∏ i = 1 n f ( x i ) ,  当总体  X  是连续型时  \begin{aligned} L(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n)=\left\{\begin{array}{l} \prod_{i=1}^n P\{X=x_i\}, & \text { 当总体 } X \text { 是离散型时,} \\ \prod_{i=1}^n f(x_i), & \text { 当总体 } X \text { 是连续型时 } \end{array} \right. \end{aligned} L(θ1,θ2,,θk;x1,x2,,xn)={i=1nP{X=xi},i=1nf(xi), 当总体 X 是离散型时, 当总体 X 是连续型时 
    似然函数反映了样本 X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 取得观测值 x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn 的概率。最大似然估计法就是求使 L ( θ 1 , θ 2 , ⋯   , θ k ; x 1 , x 2 , ⋯   , x n ) L(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n) L(θ1,θ2,,θk;x1,x2,,xn) 达到最大值时的未知参数,即 max ⁡ ( θ 1 , θ 2 , ⋯   , θ k ) ∈ θ L ( θ 1 , θ 2 , ⋯   , θ k ; x 1 , x 2 , ⋯   , x n ) \max _{\left(\theta_1, \theta_2, \cdots, \theta_k\right) \in \theta} L\left(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n\right) max(θ1,θ2,,θk)θL(θ1,θ2,,θk;x1,x2,,xn)。为了保留更高的计算精度,一般会对似然函数做对数处理,即
    max ⁡ ( θ 1 , θ 2 , ⋯   , θ k ) ∈ θ ln ⁡ L ( θ 1 , θ 2 , ⋯   , θ k ; x 1 , x 2 , ⋯   , x n ) \max _{\left(\theta_1, \theta_2, \cdots, \theta_k\right) \in \theta} \ln L\left(\theta_1, \theta_2, \cdots, \theta_k ; x_1, x_2, \cdots, x_n\right) (θ1,θ2,,θk)θmaxlnL(θ1,θ2,,θk;x1,x2,,xn)

2. 估计量的评价标准

对于总体的一个未知参数,使用点估计的不同方法可以得到不同的估计量,因此需要一些指标进行评价。

  • 无偏性:设总体为 X X X θ \theta θ 是末知参数, θ ∈ Θ \theta \in \Theta θΘ,假设 θ ^ n = θ ^ ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}_n=\hat{\theta}\left(X_1, X_2, \cdots, X_n\right) θ^n=θ^(X1,X2,,Xn) θ \theta θ 的一个估计。如果对任意 θ ∈ Θ \theta \in \Theta θΘ 均有 E ( θ ^ n − θ ) = 0 E\left(\hat{\theta}_n-\theta\right)=0 E(θ^nθ)=0,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的无偏估计。如果对任意 θ ∈ Θ \theta \in \Theta θΘ 均有 lim ⁡ n → + ∞ E ( θ ^ n − θ ) = 0 \lim _{n \rightarrow+\infty} E\left(\hat{\theta}_n-\theta\right)=0 limn+E(θ^nθ)=0,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的渐近无偏估计。在工程实际中 E ( θ ^ n − θ ) E\left(\hat{\theta}_n-\theta\right) E(θ^nθ) 常称为以 θ ^ n \hat{\theta}_n θ^n 估计 θ \theta θ 的系统误差,无偏估计实际上就是系统误差为 0 的估计;

  因为 E ( θ ^ n − θ ) = 0 E\left(\hat{\theta}_n-\theta\right)=0 E(θ^nθ)=0 等价于 E θ ^ n = θ E \hat{\theta}_n=\theta Eθ^n=θ,所以 lim ⁡ n → + ∞ E ( θ ^ n − θ ) = 0 \lim _{n \rightarrow+\infty} E\left(\hat{\theta}_n-\theta\right)=0 limn+E(θ^nθ)=0 等价于 lim ⁡ n → + ∞ E θ ^ n = \lim _{n \rightarrow+\infty} E \hat{\theta}_n= limn+Eθ^n= θ \theta θ。因此样本的 k k k 阶原点矩 M k = 1 n ∑ i = 1 n X i k M_k=\frac{1}{n} \sum_{i=1}^n X_i^k Mk=n1i=1nXik 是总体 k k k 阶原点矩 E X k E X^k EXk 的无偏估计,样本方差 S 2 S^2 S2 是总体方差 D X DX DX 的无偏估计,样本二阶中心矩 M 2 ∗ M_2^* M2 是总体方差 D X DX DX 的渐近无偏估计。

  • 有效性:设 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2 都是未知参数 θ \theta θ 的无偏估计,如果 D θ ^ 1 < D θ ^ 2 D\hat{\theta}_1 < D\hat{\theta}_2 Dθ^1<Dθ^2,则称 θ ^ 1 \hat{\theta}_1 θ^1 θ ^ 2 \hat{\theta}_2 θ^2 有效;
    • 最小方差无偏估计:设 θ ^ ∗ \hat{\theta}^* θ^ 是末知参数 θ \theta θ 的无偏估计,如果对 θ \theta θ 的任一无偏估计 θ ^ \hat{\theta} θ^,都有 D θ ^ ∗ ⩽ D θ ^ D \hat{\theta}^* \leqslant D \hat{\theta} Dθ^Dθ^,则称 θ ^ ∗ \hat{\theta}^* θ^ θ \theta θ 的最小方差无偏估计或最优无偏估计;
    • 均方误差:在求估计值与参数真值之间的平均偏差时为了避免正负偏差值相抵消的效应,均方误差采用了平方偏差,即 MSE ⁡ ( θ ^ , θ ) = E ( θ ^ − θ ) 2 \operatorname{MSE}(\hat{\theta}, \theta)=E(\hat{\theta}-\theta)^2 MSE(θ^,θ)=E(θ^θ)2

      均方误差具有很好的数学性质,可以证明
    MSE ⁡ ( θ ^ , θ ) = D θ ^ + ( E θ ^ − θ ) 2 \operatorname{MSE}(\hat{\theta}, \theta)=D \hat{\theta}+(E \hat{\theta}-\theta)^2 MSE(θ^,θ)=Dθ^+(Eθ^θ)2
    显然,如果 θ ^ \hat{\theta} θ^ θ \theta θ 的无偏估计,则 MSE ⁡ ( θ ^ , θ ) = D θ ^ \operatorname{MSE}(\hat{\theta}, \theta)=D \hat{\theta} MSE(θ^,θ)=Dθ^,即均方误差越小越好的标准等价于方差越小越好的标准,这时均方误差最小的评价标准和有效性标准是一致的。

  无偏性与有效性都需要样本容量 n n n 固定为前提,如果想要随着样本容量 n n n 的增大, θ ^ \hat{\theta} θ^ 的估计值越来越接近真值 θ \theta θ,就需要引入相合性标准。

  • 相合性:设 θ ^ n \hat{\theta}_n θ^n 是未知参数 θ \theta θ 的估计量,如果当样本容量 n → + ∞ n \rightarrow+\infty n+ 时, θ ^ n \hat{\theta}_n θ^n 依概率收敛于 θ \theta θ,即 θ ^ n ⟶ P n → + ∞ θ \hat{\theta}_n \underset{n \rightarrow+\infty}{\stackrel{P}{\longrightarrow}} \theta θ^nn+Pθ,则称 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的相合估计或一致估计;

  相合性的定义不方便判断一个估计量是否是相合估计,往往使用以下定理进行判断:
θ ^ n \hat{\theta}_n θ^n 是末知参数 θ \theta θ 的一个点估计量,如果 lim ⁡ n → + ∞ E θ ^ n = θ \lim _{n \rightarrow+\infty} E \hat{\theta}_n=\theta limn+Eθ^n=θ lim ⁡ n → + ∞ D θ ^ n = 0 \lim _{n \rightarrow+\infty} D \hat{\theta}_n=0 limn+Dθ^n=0,则 θ ^ n \hat{\theta}_n θ^n θ \theta θ 的相合估计。

3. 区间估计

点估计通过估计量的观测值来估计未知参数的真值,但这个估计值仅仅是未知参数真值的一个近似,与真值之间难免存在误差。因此,在一些实际应用中,需要知道估计值的误差,即真值所在的范围,于是引入了区间估计。区间估计以区间的形式给出了估计值的范围和可信程度,分别称为置信区间和置信度。

3.1 置信区间

设总体 X X X 的分布形式已知, θ \theta θ 是其未知参数, X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是来自总体 X X X 的样本, x 1 , x 2 , ⋯   , x n x_1, x_2, \cdots, x_n x1,x2,,xn 是样本值。有界区间的估计需要构造两个适当的统计量 θ ^ 1 = T 1 ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}_1=T_1(X_1, X_2, \cdots, X_n) θ^1=T1(X1,X2,,Xn) θ ^ 2 = T 2 ( X 1 , X 2 , ⋯   , X n ) \hat{\theta}_2=T_2(X_1, X_2, \cdots, X_n) θ^2=T2(X1,X2,,Xn),它们构成一个随机区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2),并用它们的样本值 θ ^ 1 = T 1 ( x 1 , x 2 , ⋯   , x n ) \hat{\theta}_1=T_1(x_1, x_2, \cdots, x_n) θ^1=T1(x1,x2,,xn) θ ^ 2 = T 2 ( x 1 , x 2 , ⋯   , x n ) \hat{\theta}_2=T_2(x_1, x_2, \cdots, x_n) θ^2=T2(x1,x2,,xn) 所构成的区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2) 来表示未知参数 θ \theta θ 的估计范围。随机区间 ( θ ^ 1 , θ ^ 2 ) (\hat{\theta}_1, \hat{\theta}_2) (θ^1,θ^2) 包含未知参数 θ \theta θ 的概率称为置信度 α \alpha α。区间估计要尽可能保证较大的置信度 α \alpha α 和较小的区间长度 ∣ θ ^ 2 − θ ^ 1 ∣ |\hat{\theta}_2-\hat{\theta}_1| θ^2θ^1

  • 置信区间:设总体 X X X 的分布函数为 F ( x , θ ) F(x, \theta) F(x,θ) θ \theta θ 为末知参数, X 1 , X 2 , ⋯   , X n X_1, X_2, \cdots, X_n X1,X2,,Xn 是总体 X X X 的样本。对于给定值 α ( 0 < α < 1 ) \alpha(0<\alpha<1) α(0<α<1),如果存在两个统计量 T 1 = T 1 ( X 1 , X 2 , ⋯   , X n ) T_1=T_1\left(X_1, X_2, \cdots, X_n\right) T1=T1(X1,X2,,Xn) T 2 = T 2 ( X 1 , X 2 , ⋯   , X n ) T_2=T_2\left(X_1, X_2, \cdots, X_n\right) T2=T2(X1,X2,,Xn) 满足
    P { T 1 < θ < T 2 } = 1 − α P\left\{T_1<\thetaP{T1<θ<T2}=1α
    则称随机区间 ( T 1 , T 2 ) \left(T_1, T_2\right) (T1,T2) 为末知参数 θ \theta θ 的一个置信度为 1 − α 1-\alpha 1α 的置信区间, T 1 T_1 T1 T 2 T_2 T2 分别称为置信下限和置信上限;

  从置信区间的定义可以看出,对总体的一个末知参数,可以得到很多不同的置信区间,当然我们希望得到最好的置信区间。评价置信区间好坏的标准主要有两个:一个是估计精度,可用置信区间 ( T 1 , T 2 ) \left(T_1, T_2\right) (T1,T2) 的区间长度 T 2 − T 1 T_2-T_1 T2T1 来刻画,区间长度 T 2 − T 1 T_2-T_1 T2T1 越小,估计精度越高,置信区间越好。由于 T 1 , T 2 T_1, T_2 T1,T2 是随机变量,所以 T 2 − T 1 T_2-T_1 T2T1 也是随机变量,因此可用 E ( T 2 − T 1 ) E\left(T_2-T_1\right) E(T2T1) 近似代替置信区间的估计精度;另一个是置信度,用概率 P { T 1 < θ < T 2 } = 1 − α P\left\{T_1<\thetaP{T1<θ<T2}=1α 来表示, 1 − α 1-\alpha 1α 越大,置信度越高。
  不过,置信区间的估计精度和置信度是相互制约的:当样本容量 n n n 固定时,精度和置信度不能同时提高。20 世纪 30 年代,美国统计学家奈曼 (Neyman) 提出了现今广泛接受的原则:先保证对置信度的要求,在此条件下尽可能地提高精度,即先根据实际问题选定 α \alpha α 的值( α \alpha α 常取 0.1 , 0.05 , 0.01 0.1,0.05,0.01 0.1,0.05,0.01),然后再去确定置信下限 T 1 T_1 T1 和置信上限 T 2 T_2 T2

3.2 单个正态总体的参数的置信区间

  • 参数 μ \mu μ 的置信区间:
    • σ 2 \sigma^2 σ2 已知时:由于 U = X ˉ − μ σ n ∼ N ( 0 , 1 ) U=\frac{\bar{X}-\mu}{\sigma} \sqrt{n} \sim N(0,1) U=σXˉμn N(0,1),所以 1 − α = P { X ˉ − C 1 < μ < X ˉ + C 2 } = P { − C 2 σ n < U < C 1 σ n } 1-\alpha=P\left\{\bar{X}-C_1<\mu<\bar{X}+C_2\right\}=P\left\{-\frac{C_2}{\sigma} \sqrt{n}1α=P{XˉC1<μ<Xˉ+C2}=P{σC2n <U<σC1n }
      因此参数 μ \mu μ 的置信度为 1 − α 1-\alpha 1α 的置信区间是 ( X ˉ − σ n u 1 − a 2 , X ˉ + σ n u 1 − a 2 ) \left(\bar{X}-\frac{\sigma}{\sqrt{n}} u_{1-\frac{a}{2}}, \quad \bar{X}+\frac{\sigma}{\sqrt{n}} u_{1-\frac{a}{2}}\right) (Xˉn σu12a,Xˉ+n σu12a)
    • σ 2 \sigma^2 σ2 未知时:由于 T = X ˉ − μ S n ∼ t ( n − 1 ) T=\frac{\bar{X}-\mu}{S} \sqrt{n} \sim t(n-1) T=SXˉμn t(n1),因此参数 μ \mu μ 的置信度 为 1 − α 1-\alpha 1α 的置信区间是
      ( X ˉ − S n t 1 − a 2 ( n − 1 ) , X ˉ + S n t 1 − a 2 ( n − 1 ) ) \left(\bar{X}-\frac{S}{\sqrt{n}} t_{1-\frac{a}{2}}(n-1), \bar{X}+\frac{S}{\sqrt{n}} t_{1-\frac{a}{2}}(n-1)\right) (Xˉn St12a(n1),Xˉ+n St12a(n1))
  • 参数 σ 2 \sigma^2 σ2 的置信区间:
    • μ \mu μ 已知时:令 S 1 2 = 1 n ∑ i = 1 n ( X i − μ ) 2 S_1^2=\frac{1}{n} \sum_{i=1}^n\left(X_i-\mu\right)^2 S12=n1i=1n(Xiμ)2,则由 χ 2 = n S 1 2 σ 2 ∼ χ 2 ( n ) \chi^2=\frac{n S_1^2}{\sigma^2} \sim \chi^2(n) χ2=σ2nS12χ2(n),可推导出方差 σ 2 \sigma^2 σ2 的置信度为 1 − α 1-\alpha 1α 的置信区间为
      ( n S 1 2 χ 1 − a 2 2 ( n ) , n S 1 2 χ a 2 2 ( n ) ) \left(\frac{n S_1^2}{\chi_{1-\frac{a}{2}}^2(n)}, \frac{n S_1^2}{\chi_{\frac{a}{2}}^2(n)}\right) (χ12a2(n)nS12,χ2a2(n)nS12)
    • μ \mu μ 未知时:根据抽样分布定理,有 χ 2 = ( n − 1 ) S 2 σ 2 ∼ χ 2 ( n − 1 ) \chi^2=\frac{(n-1) S^2}{\sigma^2} \sim \chi^2(n-1) χ2=σ2(n1)S2χ2(n1),所以对给定的置信度 1 − α 1-\alpha 1α,有
      1 − α = P { χ α 2 2 ( n − 1 ) < ( n − 1 ) S 2 σ 2 < χ 1 − a 2 2 ( n − 1 ) } = P { ( n − 1 ) S 2 χ 1 − a 2 2 ( n − 1 ) < σ 2 < ( n − 1 ) S 2 χ a 2 2 ( n − 1 ) } 1-\alpha=P\left\{\chi_{\frac{\alpha}{2}}^2(n-1)<\frac{(n-1) S^2}{\sigma^2}<\chi_{1-\frac{a}{2}}^2(n-1)\right\}=P\left\{\frac{(n-1) S^2}{\chi_{1-\frac{a}{2}}^2(n-1)}<\sigma^2<\frac{(n-1) S^2}{\chi_{\frac{a}{2}}^2(n-1)}\right\} 1α=P{χ2α2(n1)<σ2(n1)S2<χ12a2(n1)}=P{χ12a2(n1)(n1)S2<σ2<χ2a2(n1)(n1)S2}
      因此方差 σ 2 \sigma^2 σ2 的置信度为 1 − α 1-\alpha 1α 的置信区间为
      ( ( n − 1 ) S 2 χ 1 − a 2 2 ( n − 1 ) , ( n − 1 ) S 2 χ α 2 2 ( n − 1 ) ) \left(\frac{(n-1) S^2}{\chi_{1-\frac{a}{2}}^2(n-1)}, \frac{(n-1) S^2}{\chi_{\frac{\alpha}{2}}^2(n-1)}\right) (χ12a2(n1)(n1)S2,χ2α2(n1)(n1)S2)

你可能感兴趣的:(基础知识,概率论)