估计量
,通常记为 θ ^ = θ ^ ( X 1 , X 2 , . . . , X n ) \hat{\theta}=\hat{\theta}(X_1,X_2,...,X_n) θ^=θ^(X1,X2,...,Xn)估计值
点估计
问题基本思想:
理解
基本思想
似然函数
L ( θ ) L(\theta) L(θ),即最大似然估计值
,而相应的统计量 θ ^ ( X 1 , X 2 , . . . , X n ) \hat{\theta}(X_1,X_2,...,X_n) θ^(X1,X2,...,Xn) 称为参数 θ \theta θ 的 最大似然统计量
求参数最大似然估计量的步骤
写出样本的似然函数
L ( θ ) = L ( x 1 , x 2 , . . . , x n ; θ 1 , θ 2 , . . . , θ k ) = { ∏ i = 1 n p ( x i ; θ 1 , θ 2 , . . . , θ k ) X 是 离 散 型 随 机 变 量 ∏ i = 1 n f ( x i ; θ 1 , θ 2 , . . . , θ k ) X 是 连 续 型 随 机 变 量 L(\theta) = L(x_1,x_2,...,x_n;\theta_1,\theta_2,...,\theta_k)= \left\{ \begin{aligned} &\prod\limits_{i=1}^np(x_i;\theta_1,\theta_2,...,\theta_k) &X是离散型随机变量\\ &\prod\limits_{i=1}^nf(x_i;\theta_1,\theta_2,...,\theta_k) &X是连续型随机变量\\ \end{aligned} \right. L(θ)=L(x1,x2,...,xn;θ1,θ2,...,θk)=⎩⎪⎪⎪⎪⎨⎪⎪⎪⎪⎧i=1∏np(xi;θ1,θ2,...,θk)i=1∏nf(xi;θ1,θ2,...,θk)X是离散型随机变量X是连续型随机变量
注意:
对数似然函数
如果 p ( x i ; θ 1 , θ 2 , . . . , θ k ) p(x_i;\theta_1,\theta_2,...,\theta_k) p(xi;θ1,θ2,...,θk) 或 f ( x i ; θ 1 , θ 2 , . . . , θ k ) f(x_i;\theta_1,\theta_2,...,\theta_k) f(xi;θ1,θ2,...,θk) 关于 θ i ( i = 1 , 2 , . . . , k ) \theta_i(i=1,2,...,k) θi(i=1,2,...,k) 可微。则令
∂ L ( θ ) ∂ θ i = 0 或 ∂ l n L ( θ ) ∂ θ i = 0 \frac{\partial L(\theta)}{\partial\theta_i}=0 或 \frac{\partial lnL(\theta)}{\partial\theta_i}=0 ∂θi∂L(θ)=0或∂θi∂lnL(θ)=0
由于 L ( θ ) L(\theta) L(θ) 是连乘形式,又 l n x lnx lnx 是 x x x 的单调增函数,因此 L ( θ ) L(\theta) L(θ) 和 l n L ( θ ) lnL(\theta) lnL(θ) 在同一 θ \theta θ 取极值,所以通常使用解对数似然方程组 ∂ l n L ( θ ) ∂ θ i = 0 \frac{\partial lnL(\theta)}{\partial\theta_i} = 0 ∂θi∂lnL(θ)=0 的方法,求得 θ i \theta_i θi 的最大似然估计量 θ ^ = θ ^ ( X 1 , X 2 , . . . , X n ) ( i = 1 , 2 , . . . , k ) \hat{\theta} = \hat{\theta}(X_1,X_2,...,X_n)(i=1,2,...,k) θ^=θ^(X1,X2,...,Xn)(i=1,2,...,k)
若 p ( x i ; θ 1 , θ 2 , . . . , θ k ) p(x_i;\theta_1,\theta_2,...,\theta_k) p(xi;θ1,θ2,...,θk) 或 f ( x i ; θ 1 , θ 2 , . . . , θ k ) f(x_i;\theta_1,\theta_2,...,\theta_k) f(xi;θ1,θ2,...,θk) 不可微,或似然方程组无解,则应由定义用其他方法求得 θ ^ \hat{\theta} θ^,例如当 L ( θ ) L(\theta) L(θ) 为 θ \theta θ 的单调函数时, θ ^ \hat{\theta} θ^ 为 θ \theta θ 取值的上限或下限
对于可微和不可微两种情况,可以参考
极大似然估计详解 这篇文章最后估计正态分布和均匀分布参数的两个例子。
理解
注
置信区间
, θ ^ 1 \hat{\theta}_1 θ^1 和 θ ^ 2 \hat{\theta}_2 θ^2 分别称为 θ \theta θ 的双侧置信区间的 置信下限
和置信上限
, 1 − α 1-\alpha 1−α 称为 置信度
或置信水平
, α \alpha α 称为 显著性水平
参数区间估计
问题总体 X X X 的指标是一个确定性数,比如某批灯泡的寿命期望 μ \mu μ 和方差 σ \sigma σ 都是常数
从总体中抽取简单随机样本 ( X 1 , X 2 , … , X n ) (X_1,X_2,…,X_n) (X1,X2,…,Xn) ,其寿命均值 X ˉ \bar{X} Xˉ 和 μ \mu μ 是什么关系呢?没有关系!每一个样本的均值 X ˉ \bar{X} Xˉ 都会或多或少地偏离 μ \mu μ ,事实上,对于寿命这种连续型随机变量,有 P ( X ˉ = μ ) = 0 P(\bar{X}=\mu)=0 P(Xˉ=μ)=0,上面矩估计也说了这个问题
尽管如此,由于样本满足 X i ∼ i . i . d X X_i\stackrel{i.i.d}{\sim}X Xi∼i.i.dX,我们可以肯定 X ˉ \bar{X} Xˉ 离 μ \mu μ 相距不远,形式化一点,可以描述为 X ˉ \bar{X} Xˉ 和 μ \mu μ 的距离 ≥ \geq ≥ 某一小量 △ \bigtriangleup △ 的概率为另一小量 α \alpha α,即
P ( ∣ X ˉ − μ ∣ < △ ) = 1 − α P ( ∣ X ˉ − μ ∣ ≥ △ ) = α \begin{aligned} & P(|\bar{X}-\mu|<\bigtriangleup) = 1-\alpha \\ & P(|\bar{X}-\mu|\geq\bigtriangleup) = \alpha \end{aligned} P(∣Xˉ−μ∣<△)=1−αP(∣Xˉ−μ∣≥△)=α
α \alpha α 称为显著性水平,一般取0.025、0.05、0.01等小数; 1 − α 1-\alpha 1−α 称为置信度/置信水平
根据中心极限定理,对于独立同分布的随机变量序列 { X i } \{X_i\} {Xi}(可以看作样本),无论 X i X_i Xi 服从什么分布,其和式在大样本条件下都会服从正态分布,即
∑ i = 1 n X i ∼ n → ∞ N ( n μ , n σ 2 ) ∑ i = 1 n X i − n μ n σ ∼ n → ∞ N ( 0 , 1 ) \sum\limits_{i=1}^nX_i \stackrel{n\to\infin}{\sim} N(n\mu,n\sigma^2) \\ \frac{\sum\limits_{i=1}^nX_i-n\mu}{\sqrt{n}\sigma}\stackrel{n\to\infin}{\sim}N(0,1) i=1∑nXi∼n→∞N(nμ,nσ2)nσi=1∑nXi−nμ∼n→∞N(0,1)
因此下面我们只分析正态总体的参数估计和假设检验问题
σ \sigma σ 已知时:
先解 △ \bigtriangleup △, 由于 X ∼ N ( μ , σ 2 ) X\sim N(\mu,\sigma^2) X∼N(μ,σ2),有 X ˉ ∼ N ( μ , σ 2 n ) \bar{X} \sim N(\mu,\frac{\sigma^2}{n}) Xˉ∼N(μ,nσ2),标准化得
X ˉ − μ σ / n ∼ N ( 0 , 1 ) \frac{\bar{X}-\mu}{\sigma/\sqrt{n}} \sim N(0,1)\\ σ/nXˉ−μ∼N(0,1)
把 X ˉ − μ σ / n \frac{\bar{X}-\mu}{\sigma/\sqrt{n}} σ/nXˉ−μ 记作随机变量 Z Z Z,以概率形式描述置信区间
P ( ∣ Z ∣ < △ σ / n ) = 1 − α P(|Z|<\frac{\bigtriangleup}{\sigma/\sqrt{n}}) = 1-\alpha P(∣Z∣<σ/n△)=1−α
对应到标准正态分布的概率密度图像上,有
于是可以如下解出 △ \bigtriangleup △ ( Z α 2 Z_{\frac{\alpha}{2}} Z2α 的值可以通过查标准正态分布上 α \alpha α分位数表得到)
△ σ / n = Z α 2 △ = Z α 2 σ n \frac{\bigtriangleup}{\sigma/\sqrt{n}} = Z_{\frac{\alpha}{2}} \\ \bigtriangleup = Z_{\frac{\alpha}{2}} \frac{\sigma}{\sqrt{n}} σ/n△=Z2α△=Z2αnσ
得到 △ \bigtriangleup △ 后,给定置信度 1 − α 1-\alpha 1−α,就有置信区间 ( X ˉ − △ , X ˉ + △ ) (\bar{X} -\bigtriangleup,\bar{X} +\bigtriangleup) (Xˉ−△,Xˉ+△),即
P ( X ˉ − △ < μ < X ˉ + △ ) = 1 − α P(\bar{X} -\bigtriangleup <\mu< \bar{X}+\bigtriangleup) = 1-\alpha P(Xˉ−△<μ<Xˉ+△)=1−α
σ \sigma σ 未知时:
使用样本方差 S S S 代替 σ \sigma σ,根据常用结论(见上篇文章)
n ( X ˉ − μ ) S ∼ t ( n − 1 ) \frac{\sqrt{n}(\bar{X}-\mu)}{S} \sim t(n-1) Sn(Xˉ−μ)∼t(n−1)
把 X ˉ − μ S / n \frac{\bar{X}-\mu}{S/\sqrt{n}} S/nXˉ−μ 记为 t t t,有
P ( ∣ t ∣ < △ S / n ) = 1 − α P(|t|<\frac{\bigtriangleup}{S/\sqrt{n}}) = 1-\alpha P(∣t∣<S/n△)=1−α
同理对应到 t t t 分布的概率密度图像上,以概率形式描述置信区间
于是可以如下解出 △ \bigtriangleup △ ( t α 2 ( n − 1 ) t_{\frac{\alpha}{2}}(n-1) t2α(n−1) 的值可以通过查 t t t 分布上 α \alpha α分位数表得到)
△ = t α 2 ( n − 1 ) S n \bigtriangleup = t_{\frac{\alpha}{2}}(n-1)\frac{S}{\sqrt{n}} △=t2α(n−1)nS
同理,给定置信度 1 − α 1-\alpha 1−α,就有置信区间 ( X ˉ − △ , X ˉ + △ ) (\bar{X} -\bigtriangleup,\bar{X} +\bigtriangleup) (Xˉ−△,Xˉ+△)
关于总体(分布中的未知参数,分布的类型、特征、相关性,独立性…)的每一种论断(“看法”)称为统计假设。然后根据样本观察数据或试验结果所提供的信息去推断(检验)这个“看法”(即假设)是否成立,这类统计推断问题称为统计假设检验问题,简称为 假设检验
。
参数假设
。简单假设
。原假设/基本假设/零假设
,记为 H 0 H_0 H0,将其否定的陈述(假设)称为 对立假设/备择假设
,记为 H 1 H_1 H1。对原假设 H 0 H_0 H0 作出否定或不否定的推断,通常称为对 H 0 H_0 H0 作 显著性检验
。对这些假设进行检验的基本思想是采用带有概率性质的反证法,即 ”小概率原理“,也即 “概率很接近于0的事件在一次试验或观察中认为它不会发生”,若发生了则拒绝原假设 H H H。小概率事件中 “小概率” 的值没有统一规定,通常是根据实际问题的要求,规定一个界限 α ( 0 < α < 1 ) \alpha(0<\alpha<1) α(0<α<1) 当一个事件的概率不大于 α \alpha α 时,即认为它是小概率事件。在假设检验问题中, α \alpha α 也称为显著性水平,通常取0.1、0.05、0.01等。
在假设检验中,由拒绝原假设 H 0 H_0 H0 的全体样本点所组成的集合 C C C 称为 否定域/拒绝域
, C C C 的补集 C ∗ C^* C∗ 称为 H 0 H_0 H0 的 接受域
。
如果 H 0 H_0 H0 的否定域形式为 C = { ( x 1 , x 2 , . . . , x n ) ∣ T > λ 2 或 T < λ 1 } C=\{(x_1,x_2,...,x_n)|T>\lambda_2或T<\lambda_1\} C={(x1,x2,...,xn)∣T>λ2或T<λ1},即否定域位于接受域两侧,则称这种检验为 双边检验
。如果 H 0 H_0 H0 的否定域形式为 C = { ( x 1 , x 2 , . . . , x n ) ∣ T > λ } C=\{(x_1,x_2,...,x_n)|T>\lambda\} C={(x1,x2,...,xn)∣T>λ} 或 C = { ( x 1 , x 2 , . . . , x n ) ∣ T < λ } C=\{(x_1,x_2,...,x_n)|T<\lambda\} C={(x1,x2,...,xn)∣T<λ},即否定域位于接受域的一侧,称这种检验为 右边检验
或左边检验
,统称 单边检验
假设检验其实是区间估计的一个应用,以总体分布参数期望 μ \mu μ 为例
在区间估计时,我们不知道真实 μ \mu μ,所以通过样本均值 X ˉ \bar{X} Xˉ 来估计 μ \mu μ。这个估计是概率形式的,给定一个 α \alpha α(显著性水平),我们就能肯定有 1 − α 1-\alpha 1−α 的概率(置信度)满足 X ˉ \bar{X} Xˉ 和 μ \mu μ 的距离小于 △ \bigtriangleup △,即
P ( ∣ X ˉ − μ ∣ < △ ) = 1 − α P(|\bar{X}-\mu|<\bigtriangleup) = 1-\alpha P(∣Xˉ−μ∣<△)=1−α
根据总体方差 σ \sigma σ 是否已知,有
△ = { Z α 2 σ n σ 已 知 , Z ∼ N ( 0 , 1 ) t α 2 ( n − 1 ) S n σ 未 知 , t ∼ t ( n − 1 ) \bigtriangleup= \left\{ \begin{aligned} &Z_{\frac{\alpha}{2}} \frac{\sigma}{\sqrt{n}} &\sigma已知,Z\sim N(0,1)\\ &t_{\frac{\alpha}{2}}(n-1)\frac{S}{\sqrt{n}}&\sigma未知,t\sim t(n-1) \end{aligned} \right. △=⎩⎪⎪⎨⎪⎪⎧Z2αnσt2α(n−1)nSσ已知,Z∼N(0,1)σ未知,t∼t(n−1)
在假设检验时,我们已经有了一个原假设 H 0 H_0 H0(比如 μ = μ 0 \mu=\mu_0 μ=μ0)以及备择假设 H 1 H_1 H1(比如 μ ≠ μ 0 \mu\neq\mu_0 μ=μ0)。从概率角度描述 H 0 H_0 H0,就是样本均值 X ˉ \bar{X} Xˉ 和 μ 0 \mu_0 μ0 的差距 ≥ \geq ≥ 小量 △ \bigtriangleup △ 的概率应该为一小量 α \alpha α(显著性水平),即
P ( ∣ X ˉ − μ 0 ∣ ≥ △ ) = α P(|\bar{X}-\mu_0|\geq \bigtriangleup) = \alpha P(∣Xˉ−μ0∣≥△)=α
同理解出
△ = { Z α 2 σ n σ 已 知 , Z ∼ N ( 0 , 1 ) t α 2 ( n − 1 ) S n σ 未 知 , t ∼ t ( n − 1 ) \bigtriangleup= \left\{ \begin{aligned} &Z_{\frac{\alpha}{2}} \frac{\sigma}{\sqrt{n}} &\sigma已知,Z\sim N(0,1)\\ &t_{\frac{\alpha}{2}}(n-1)\frac{S}{\sqrt{n}}&\sigma未知,t\sim t(n-1) \end{aligned} \right. △=⎩⎪⎪⎨⎪⎪⎧Z2αnσt2α(n−1)nSσ已知,Z∼N(0,1)σ未知,t∼t(n−1)
根据小概率原理,我们认为 ∣ X ˉ − μ 0 ∣ ≥ △ |\bar{X}-\mu_0|\geq \bigtriangleup ∣Xˉ−μ0∣≥△ 这件事不会发生,换句话说,一旦某个样本满足了 ∣ X ˉ − μ 0 ∣ ≥ △ |\bar{X}-\mu_0|\geq \bigtriangleup ∣Xˉ−μ0∣≥△ ,我们就拒绝原假设 H 0 H_0 H0,拒绝原假设的这个区间 ( − ∞ , − μ 0 − △ ] ∪ [ μ 0 + △ , + ∞ ) (-\infin,-\mu_0-\bigtriangleup]\cup [\mu_0+\bigtriangleup,+\infin) (−∞,−μ0−△]∪[μ0+△,+∞) 称为拒绝域,这是一种双边检验。当 H 1 H_1 H1 是 μ > μ 0 \mu>\mu_0 μ>μ0 或 μ < μ 0 \mu<\mu_0 μ<μ0 时成为单边检验,计算都类似