23清华应统

真题

一、(20分) 已知 X X X 服从 f ( x ) = c e − x 2 ( 1 + e − x 2 ) 2 , − ∞ < x < ∞ f(x)=c \frac{e^{-\frac{x}{2}}} {(1+e^{-\frac{x}{2}})^2}, -\inftyf(x)=c(1+e2x)2e2x,<x<.

(1) 求 c c c;
(2) 令 Y = X 3 Y=X^3 Y=X3,求 Y Y Y的密度函数.

二、(20分) 已知 X X X 的密度函数为 f ( x ; θ ) = 3 x 2 θ 3 , 0 < x < θ , f(x;\theta )=\frac{3x^2}{\theta ^3},0f(x;θ)=θ33x2,0<x<θ,
其中 θ \theta θ 的先验分布是 U ( 0 , 1 ) U(0,1) U(0,1). 求后验分布 π ( θ ∣ X = x ) \pi(\theta\vert X=x) π(θX=x).

三、(20分) 证明: T T T θ \theta θ 的无偏估计, 则 T ( x ) T(x) T(x) θ \theta θ的UMVUE的充要条件是对任意零的无偏估计 U U U,都有 E [ T U ] = 0. E[TU]=0. E[TU]=0.

四、(20分) 设 X i ∼ N ( μ , σ 2 ) X_i\sim \mathcal{N}(\mu,\sigma^2) XiN(μ,σ2), i = 1 , 2 , . . . , n i=1,2,...,n i=1,2,...,n, 其中 σ \sigma σ已知. 求如下假设检验问题的UMPT, 若UMPT不存在, 请说明理由.
(1) H 0 : μ = μ 0 v.s. H 1 : μ = μ 1 < μ 0 H_0:\mu = \mu_0 \quad \text{v.s.} \quad H_1:\mu = \mu_1 < \mu_0 H0:μ=μ0v.s.H1:μ=μ1<μ0.
(2) H 0 : μ = μ 0 v.s. H 1 : μ ≠ μ 0 H_0:\mu = \mu_0\quad \text{v.s.}\quad H_1:\mu \neq \mu_0 H0:μ=μ0v.s.H1:μ=μ0.

五、(40分) X 1 , X 2 , . . . , X n ∼ P ( λ ) X_1,X_2,...,X_n\sim \mathcal{P}(\lambda) X1,X2,...,XnP(λ), 并且彼此独立.
(1)求 λ \lambda λ的最大似然估计 λ n ^ \hat{\lambda_n} λn^
(2)判断 λ ^ n + 1 n \hat{\lambda}_n+\frac{1}{\sqrt{n}} λ^n+n 1是否为 λ \lambda λ的相合估计.
(3)求 n ( λ ^ n − λ ) \sqrt{n}(\hat{\lambda}_n - \lambda) n (λ^nλ)的极限分布.
(4)求 n ( λ ^ n 2 − λ 2 ) \sqrt{n}(\hat{\lambda}_n^2 - \lambda^2) n (λ^n2λ2)的极限分布.

六、(30分) 有回归模型
y i = β x i + e i , 1 ≤ i ≤ n y_i = \beta x_i + e_i,\quad 1\leq i \leq n yi=βxi+ei,1in
1 ≤ i ≤ n 1 1 \leq i \leq n_1 1in1 时, e i ∼ N ( 0 , σ 1 2 ) e_i\sim \mathcal{N}(0,\sigma_1^2) eiN(0,σ12), 当 n 1 + 1 ≤ i ≤ n n_1+1\leq i \leq n n1+1in 时, e i ∼ N ( 0 , σ 2 2 ) e_i\sim \mathcal{N}(0,\sigma_2^2) eiN(0,σ22).
(1) 求 β \beta β 的最小二乘估计及其分布.
(2) 求 β \beta β 的最大似然估计及其分布, 比较其方差与最小二乘估计的方差.
(3) 若 e i e_i ei 的分布未知, 但已知其期望方差不变, 求 β \beta β 的无偏估计, 使其方差不大于 (1) 中估计量的方差.

解析

一、(20分) 已知 X X X 服从 f ( x ) = c e − x 2 ( 1 + e − x 2 ) 2 , − ∞ < x < ∞ f(x)=c \frac{e^{-\frac{x}{2}}} {(1+e^{-\frac{x}{2}})^2}, -\inftyf(x)=c(1+e2x)2e2x,<x<.

(1) 求 c c c;
(2) 令 Y = X 3 Y=X^3 Y=X3,求 Y Y Y的密度函数.

Solution:

(1) 积分得 ∫ − ∞ ∞ e − x 2 ( 1 + e − x 2 ) 2 = 2 ∫ 0 ∞ d x ( 1 + x ) 2 = 2 , \int_{-\infty}^\infty \frac{e^{-\frac{x}{2}}} {(1+e^{-\frac{x}{2}})^2} = 2\int_0^\infty \frac{dx}{(1+x)^2} = 2, (1+e2x)2e2x=20(1+x)2dx=2,
由密度函数的正则性, c = 1 2 c=\frac{1}{2} c=21.

(2) 用微分法, ∀ y ∈ R \forall y\in \mathbb{R} yR, P ( Y = y ) = P ( X = y 1 3 ) = f ( y 1 3 ) ∣ d d y y 1 3 ∣ = 1 6 y − 2 3 e − y 1 3 2 ( 1 + e − y 1 3 2 ) 2 d y . P(Y=y)=P(X=y^{\frac{1}{3}})=f(y^{\frac{1}{3}})\left| \frac{d}{dy}y^{\frac{1}{3}} \right|=\frac{1}{6}\frac{y^{-\frac{2}{3}}e^{-\frac{y^{\frac{1}{3}}}{2}}}{(1+e^{-\frac{y^{\frac{1}{3}}}{2}})^2}dy. P(Y=y)=P(X=y31)=f(y31) dydy31 =61(1+e2y31)2y32e2y31dy. 故密度函数是 f Y ( y ) = 1 6 y − 2 3 e − y 1 3 2 ( 1 + e − y 1 3 2 ) 2 , y ∈ R . f_Y(y)=\frac{1}{6}\frac{y^{-\frac{2}{3}}e^{-\frac{y^{\frac{1}{3}}}{2}}}{(1+e^{-\frac{y^{\frac{1}{3}}}{2}})^2},\quad y\in\mathbb{R}. fY(y)=61(1+e2y31)2y32e2y31,yR.

二、(20分) 已知 X X X 的密度函数为 f ( x ; θ ) = 3 x 2 θ 3 , 0 < x < θ , f(x;\theta )=\frac{3x^2}{\theta ^3},0f(x;θ)=θ33x2,0<x<θ,
其中 θ \theta θ 的先验分布是 U ( 0 , 1 ) U(0,1) U(0,1). 求后验分布 π ( θ ∣ X = x ) \pi(\theta\vert X=x) π(θX=x).

Solution: 利用条件分布理论, 有 π ( θ ∣ X = x ) ∝ f ( x ∣ θ ) π ( θ ) ∝ 1 θ 3 I { x < θ < 1 } , \pi(\theta\vert X=x) \propto f(x\vert \theta)\pi(\theta) \propto \frac{1}{\theta^3}I\{x<\theta<1\}, π(θX=x)f(xθ)π(θ)θ31I{x<θ<1}, 由正则性:
π ( θ ∣ X = x ) = 2 x 2 ( 1 − x 2 ) θ 3 , x < θ < 1. \pi(\theta\vert X=x)= \frac{2x^2}{(1-x^2)\theta^3},x<\theta<1. π(θX=x)=(1x2)θ32x2,x<θ<1.

三、(20分) 证明: T T T θ \theta θ 的无偏估计, 则 T ( x ) T(x) T(x) θ \theta θ的UMVUE的充要条件是对任意零的无偏估计 U U U,都有 E [ T U ] = 0. E[TU]=0. E[TU]=0.

Solution: [法一]: 对退化的零无偏估计, 显然 E [ T U ] = 0 E[TU]=0 E[TU]=0. 而对任一其他无偏估计 T ~ \tilde{T} T~ 都可写为
T ~ = T + U \tilde{T} = T+ U T~=T+U 的形式, 其中 U U U 是某非退化的零的无偏估计. 对每个 U U U, 可作标准化 V = U V a r ( U ) V= \frac{U}{\sqrt{Var(U)}} V=Var(U) U, 则有 T ~ = T + λ V \tilde{T} = T+\lambda V T~=T+λV, 其中 λ 2 = V a r ( U ) \lambda^2 =Var(U) λ2=Var(U).

W ( λ ) = V a r ( T + λ V ) W(\lambda) = Var(T+\lambda V) W(λ)=Var(T+λV), T T T 是UMVUE 意味着对任意 V V V, 都有
W ( λ ) W(\lambda) W(λ) λ = 0 \lambda = 0 λ=0 取最小值, 而 W ( λ ) = V a r ( T ) + 2 λ C o v ( T , V ) + λ 2 V a r ( V ) , W(\lambda) = Var(T) + 2\lambda Cov(T,V) + \lambda^2 Var(V), W(λ)=Var(T)+2λCov(T,V)+λ2Var(V), 求导有 W ′ ( λ ) = 2 C o v ( T , V ) + 2 λ , W ′ ′ ( λ ) = 2 > 0 , W'(\lambda) = 2Cov(T,V) + 2\lambda,\quad W''(\lambda) = 2>0, W(λ)=2Cov(T,V)+2λ,W′′(λ)=2>0, 对于二阶可导凸函数, 在 λ = 0 \lambda=0 λ=0 取极小值等价于
W ′ ( 0 ) = 0 W'(0)=0 W(0)=0, 即 C o v ( T , V ) = 0 Cov(T,V)=0 Cov(T,V)=0, 即 E [ T V ] = 0 E[TV]=0 E[TV]=0, E [ T U ] = 0 E[TU]=0 E[TU]=0.

[法二]: (1) 充分性. 若对任意0的无偏估计 U U U,均有 C o v ( T , U ) = 0. Cov(T,U)=0. Cov(T,U)=0.任取 θ \theta θ的无偏估计 T ^ , \hat{T}, T^,
ϕ = T ^ − T , \phi=\hat{T} - T, ϕ=T^T, ϕ \phi ϕ为0的无偏估计, V a r ( T ^ ) = V a r ( T + ϕ ) = V a r ( T ) + V a r ( ϕ ) ≥ V a r ( T ) Var(\hat{T}) = Var(T+\phi) = Var(T) + Var(\phi) \geq Var(T) Var(T^)=Var(T+ϕ)=Var(T)+Var(ϕ)Var(T) 即任意 θ \theta θ的无偏估计的方差均不小于 T T T的方差,
T T T θ \theta θ的UMVUE.

(2) 必要性: 若 T T T为UMVUE,假设存在 U 0 U_0 U0, s.t. C o v ( T , U 0 ) ≠ 0 Cov(T,U_0)\neq 0 Cov(T,U0)=0, 不妨设 C o v ( T , U 0 ) 0 Cov(T,U_0) 0 Cov(T,U0)0.则对任意 r r r, T + r U 0 T+rU_0 T+rU0仍然为 θ \theta θ的无偏估计,而 V a r ( T + r U 0 ) = V a r ( T ) + r 2 V a r ( U 0 ) + 2 r C o v ( T , U 0 ) , Var(T+rU_0) = Var(T) + r^2Var(U_0) +2rCov(T,U_0), Var(T+rU0)=Var(T)+r2Var(U0)+2rCov(T,U0), 2 C o v ( T , U 0 ) V a r ( U 0 ) < r < 0 \frac{2Cov(T,U_0)}{Var(U_0)}Var(U0)2Cov(T,U0)<r<0,
V a r ( T + r U 0 ) < V a r ( T ) Var(T+rU_0)Var(T+rU0)<Var(T), 与假设矛盾. 故对任意0的无偏估计 U U U, 均有 C o v ( T , U ) = 0. Cov(T,U)=0. Cov(T,U)=0.

四、(20分) 设 X i ∼ N ( μ , σ 2 ) X_i\sim \mathcal{N}(\mu,\sigma^2) XiN(μ,σ2), i = 1 , 2 , . . . , n i=1,2,...,n i=1,2,...,n, 其中 σ \sigma σ已知. 求如下假设检验问题的UMPT, 若UMPT不存在, 请说明理由.
(1) H 0 : μ = μ 0 v.s. H 1 : μ = μ 1 < μ 0 H_0:\mu = \mu_0 \quad \text{v.s.} \quad H_1:\mu = \mu_1 < \mu_0 H0:μ=μ0v.s.H1:μ=μ1<μ0.
(2) H 0 : μ = μ 0 v.s. H 1 : μ ≠ μ 0 H_0:\mu = \mu_0\quad \text{v.s.}\quad H_1:\mu \neq \mu_0 H0:μ=μ0v.s.H1:μ=μ0.

Solution:

(1) 记 X 1 , . . . , X n X_1,...,X_n X1,...,Xn 的联合密度函数为 f ( x 1 , . . . , x n ∣ μ ) f(x_1,...,x_n\vert \mu) f(x1,...,xnμ). 由N-P引理,拒绝域 W = { f ( x 1 , . . . , x n ; μ 1 ) f ( x 1 , . . . , x n ; μ 0 ) > c } = { ∑ i = 1 n X i < c 0 } W=\left\{ \frac{f(x_1,...,x_n;\mu _1)}{f(x_1,...,x_n;\mu _0)}>c \right\} =\left\{ \sum_{i=1}^n{X_i}W={f(x1,...,xn;μ0)f(x1,...,xn;μ1)>c}={i=1nXi<c0} 是UMPT.
考虑显著性水平为 α \alpha α的情形, 原假设下由于 ∑ i = 1 n X i n ∼ N ( μ 0 , σ 2 n ) \frac{\sum_{i=1}^n X_i}{n} \sim N(\mu_0,\frac{\sigma^2}{n}) ni=1nXiN(μ0,nσ2), 因此有 W = { X ˉ < − σ z 1 − α n + μ 0 } . W=\left\{ \bar{X}<-\sigma z_{1-\alpha}\sqrt{n}+\mu _0 \right\}. W={Xˉ<σz1αn +μ0}.

(2) 考虑 ∀ μ 1 < μ 0 , μ = μ 1 \forall \mu_1<\mu_0, \mu= \mu_1 μ1<μ0,μ=μ1作为备择假设, 由 (1) 可知,落入 W W W 时拒绝原假设在
μ 1 \mu_1 μ1 有最高的功效. 由N-P引理, 若 H 0 : μ = μ 0     v.s.     H 1 : μ ≠ μ 0 H_0:\mu = \mu_0\,\,\, \text{v.s.} \,\,\, H_1:\mu \neq \mu_0 H0:μ=μ0v.s.H1:μ=μ0 存在UMPT, 则其拒绝域与W仅在一个满足 ∫ A f ( x 1 , . . . , x n ∣ μ 0 ) = ∫ A f ( x 1 , . . . , x n ∣ μ 1 ) = 0 \int_Af(x_1,...,x_n\vert \mu_0)=\int_Af(x_1,...,x_n\vert \mu_1)=0 Af(x1,...,xnμ0)=Af(x1,...,xnμ1)=0 的A上不同.

易知, W ′ = { X ˉ > σ z 1 − α / n + μ 0 } W'=\{\bar{X}>\sigma z_{1-\alpha}/\sqrt{n}+\mu_0\} W={Xˉ>σz1α/n +μ0} 为右侧假设时的UMPT,
它在 μ 1 > μ 0 \mu_1>\mu_0 μ1>μ0 时有最高功效.

显然, 如果要在 μ ∈ R \mu \in R μR 上都有最高功效, 那它又要和 W W W 几乎处处相等, 又要和 W ′ W' W 几乎处处相等, 但 W W W
W ′ W' W 并非几乎处处相等, 故这是不可能做到的.

五、(40分) X 1 , X 2 , . . . , X n ∼ P ( λ ) X_1,X_2,...,X_n\sim \mathcal{P}(\lambda) X1,X2,...,XnP(λ), 并且彼此独立.
(1)求 λ \lambda λ的最大似然估计 λ n ^ \hat{\lambda_n} λn^
(2)判断 λ ^ n + 1 n \hat{\lambda}_n+\frac{1}{\sqrt{n}} λ^n+n 1是否为 λ \lambda λ的相合估计.
(3)求 n ( λ ^ n − λ ) \sqrt{n}(\hat{\lambda}_n - \lambda) n (λ^nλ)的极限分布.
(4)求 n ( λ ^ n 2 − λ 2 ) \sqrt{n}(\hat{\lambda}_n^2 - \lambda^2) n (λ^n2λ2)的极限分布.

Solution:

(1) 似然函数 L ( λ ∣ X 1 , . . . , X n ) = ∏ i = 1 n λ X i X i ! e − λ = e − n λ λ ∑ i = 1 n X i Π i = 1 n X i , L(\lambda\vert X_1,...,X_n) =\prod_{i=1}^n\frac{\lambda^{X_i}}{X_i!}e^{-\lambda} =e^{-n\lambda}\frac{\lambda^{\sum_{i=1}^nX_i}}{\Pi_{i=1}^nX_i}, L(λX1,...,Xn)=i=1nXi!λXieλ=eΠi=1nXiλi=1nXi, ∂ l n L ∂ λ = 0 \frac{\partial lnL}{\partial \lambda} = 0 λlnL=0, 得 λ ^ n = 1 n ∑ i = 1 n X i = : X ˉ . \hat{\lambda}_n= \frac{1}{n}\sum_{i=1}^nX_i=:\bar{X} . λ^n=n1i=1nXi=:Xˉ.

(2) 由Kolmogorov强大数律, X ˉ → E X 1 = λ \bar{X}\rightarrow \mathbb{E}X_1 = \lambda XˉEX1=λ, a.s., 故 λ ^ n → λ \hat{\lambda}_n \rightarrow \lambda λ^nλ, a.s… 即 λ ^ n \hat{\lambda}_n λ^n是强相合估计.

(3) 由Lindeberg-Levy中心极限定理,
∑ i = 1 n X i − n λ n λ → D N ( 0 , 1 ) , \frac{\sum_{i=1}^nX_i-n\lambda}{\sqrt{n\lambda}}\rightarrow_D \mathcal{N}(0,1), i=1nXiDN(0,1),
即: n ( λ ^ n − λ ) → D N ( 0 , λ ) . \sqrt{n}(\hat{\lambda}_n - \lambda)\rightarrow_D \mathcal{N}(0,\lambda). n (λ^nλ)DN(0,λ).

(4) 利用 Delta 方法, 令 g ( x ) = x 2 g(x) = x^2 g(x)=x2, 则有 g ′ ( x ) = 2 x g'(x) = 2x g(x)=2x, 故 n ( λ ^ n 2 − λ 2 ) → D 2 λ N ( 0 , λ ) = N ( 0 , 4 λ 3 ) . \sqrt{n} \left( \hat{\lambda}_n^2 - \lambda^2 \right) \xrightarrow{D} 2\lambda \mathcal{N}(0,\lambda) = \mathcal{N}(0,4\lambda^3). n (λ^n2λ2)D 2λN(0,λ)=N(0,4λ3).

六、(30分) 有回归模型
y i = β x i + e i , 1 ≤ i ≤ n y_i = \beta x_i + e_i,\quad 1\leq i \leq n yi=βxi+ei,1in
1 ≤ i ≤ n 1 1 \leq i \leq n_1 1in1 时, e i ∼ N ( 0 , σ 1 2 ) e_i\sim \mathcal{N}(0,\sigma_1^2) eiN(0,σ12), 当 n 1 + 1 ≤ i ≤ n n_1+1\leq i \leq n n1+1in 时, e i ∼ N ( 0 , σ 2 2 ) e_i\sim \mathcal{N}(0,\sigma_2^2) eiN(0,σ22).
(1) 求 β \beta β 的最小二乘估计及其分布.
(2) 求 β \beta β 的最大似然估计及其分布, 比较其方差与最小二乘估计的方差.
(3) 若 e i e_i ei 的分布未知, 但已知其期望方差不变, 求 β \beta β 的无偏估计, 使其方差不大于 (1) 中估计量的方差.

Solution: (1) 残差平方和 Q ( β ) = ∑ i = 1 n ( y i − β x i ) 2 , Q(\beta)= \sum_{i=1}^n(y_i-\beta x_i)^2, Q(β)=i=1n(yiβxi)2,
求导得 ∂ Q ∂ β = ∑ i = 1 n ( − 2 ) x i ( y i − β x i ) = 0 , \frac{\partial Q}{\partial \beta} = \sum_{i=1}^n (-2)x_i(y_i-\beta x_i) = 0, βQ=i=1n(2)xi(yiβxi)=0, β \beta β的最小二乘估计 β ^ 1 = ∑ i = 1 n x i y i ∑ i = 1 n x i 2 . \hat{\beta}_1 = \frac{\sum_{i=1}^nx_iy_i}{\sum_{i=1}^nx_i^2}. β^1=i=1nxi2i=1nxiyi.

(2) 似然函数 L ( β ) = ( 1 2 π σ 1 2 ) n 1 exp ⁡ { − 1 2 σ 1 2 ∑ i = 1 n 1 ( y i − β x i ) 2 } ( 1 2 π σ 2 2 ) n − n 1 exp ⁡ { ∑ i = n 1 + 1 n ( y i − β x i ) 2 } , L\left( \beta \right) =\left( \frac{1}{\sqrt{2\pi \sigma _{1}^{2}}} \right) ^{n_1}\exp \left\{ -\frac{1}{2\sigma _{1}^{2}}\sum_{i=1}^{n_1}{(}y_i-\beta x_i)^2 \right\} \left( \frac{1}{\sqrt{2\pi \sigma _{2}^{2}}} \right) ^{n-n_1}\exp \left\{ \sum_{i=n_1+1}^n{(}y_i-\beta x_i)^2 \right\} , L(β)=(2πσ12 1)n1exp{2σ121i=1n1(yiβxi)2}(2πσ22 1)nn1exp{i=n1+1n(yiβxi)2}, ∂ ln ⁡ L ∂ β = 0 \frac{\partial \ln L}{\partial \beta} = 0 βlnL=0, 得 β ^ 2 = σ 2 2 ∑ i = 1 n 1 x i y i + σ 1 2 ∑ i = n 1 + 1 n x i y i σ 2 2 ∑ i = 1 n 1 x i 2 + σ 1 2 ∑ i = n 1 + 1 n x i 2 . \hat{\beta}_2=\frac{\sigma _{2}^{2}\sum_{i=1}^{n_1}{x_i}y_i+\sigma _{1}^{2}\sum_{i=n_1+1}^n{x_i}y_i}{\sigma _{2}^{2}\sum_{i=1}^{n_1}{x_{i}^{2}}+\sigma _{1}^{2}\sum_{i=n_1+1}^n{x_{i}^{2}}}. β^2=σ22i=1n1xi2+σ12i=n1+1nxi2σ22i=1n1xiyi+σ12i=n1+1nxiyi. 注意到 y i ∼ N ( x i β , σ 1 2 ) , 1 ≤ i ≤ n 1 ; y i ∼ N ( x i β , σ 2 2 ) , n 1 + 1 ≤ i ≤ n . y_i\sim \mathcal{N}(x_i\beta, \sigma_1^2),1\leq i \leq n_1;y_i\sim \mathcal{N}(x_i\beta, \sigma_2^2),n_1+1\leq i \leq n. yiN(xiβ,σ12),1in1;yiN(xiβ,σ22),n1+1in. 由于诸 y i y_i yi彼此独立,
由正态分布的性质可知: β ^ 2 ∼ N ( β , σ 1 2 σ 2 2 σ 2 2 ∑ i = 1 n 1 x i 2 + σ 1 2 ∑ i = n 1 + 1 n x i 2 ) . \hat{\beta}_2\sim \mathcal{N} \left( \beta ,\frac{\sigma _{1}^{2}\sigma _{2}^{2}}{\sigma _{2}^{2}\sum_{i=1}^{n_1}{x_{i}^{2}}+\sigma _{1}^{2}\sum_{i=n_1+1}^n{x_{i}^{2}}} \right) . β^2N(β,σ22i=1n1xi2+σ12i=n1+1nxi2σ12σ22). V a r ( β ^ 1 ) = 1 ( ∑ i = 1 n x i 2 ) 2 ∑ i = 1 n x i 2 V a r ( y i ) = σ 1 2 ∑ i = 1 n 1 x i 2 + σ 2 2 ∑ i = n 1 + 1 n x i 2 ( ∑ i = 1 n x i 2 ) 2 . Var(\hat{\beta}_1)=\frac{1}{\left( \sum_{i=1}^n{x_{i}^{2}} \right) ^2}\sum_{i=1}^n{x_{i}^{2}}Var(y_i)=\frac{\sigma _{1}^{2}\sum_{i=1}^{n_1}{x_{i}^{2}}+\sigma _{2}^{2}\sum_{i=n_1+1}^n{x_{i}^{2}}}{\left( \sum_{i=1}^n{x_{i}^{2}} \right) ^2}. Var(β^1)=(i=1nxi2)21i=1nxi2Var(yi)=(i=1nxi2)2σ12i=1n1xi2+σ22i=n1+1nxi2.

A : = ∑ i = 1 n 1 x i 2 , B : = ∑ i = n 1 + 1 n x i 2 . A:=\sum_{i=1}^{n_1}x_i^2,B:=\sum_{i=n_1+1}^{n}x_i^2. A:=i=1n1xi2,B:=i=n1+1nxi2. 则: V a r ( β ^ 2 ) V a r ( β ^ 1 ) = ( A + B ) 2 ( A σ 1 2 + B σ 2 2 ) ( σ 1 2 A + σ 2 2 B ) . \frac{Var(\hat{\beta}_2)}{Var(\hat{\beta}_1)} = \frac{(A+B)^2} {(\frac{A}{\sigma_1^2}+\frac{B}{\sigma_2^2})(\sigma_1^2A+\sigma_2^2B)}. Var(β^1)Var(β^2)=(σ12A+σ22B)(σ12A+σ22B)(A+B)2. 由柯西不等式: ( A σ 1 2 + B σ 2 2 ) ( σ 1 2 A + σ 2 2 B ) ≥ ( A + B ) 2 , \left( \frac{A}{\sigma _{1}^{2}}+\frac{B}{\sigma _{2}^{2}} \right) \left( \sigma _{1}^{2}A+\sigma _{2}^{2}B \right) \ge (A+B)^2, (σ12A+σ22B)(σ12A+σ22B)(A+B)2, 当且仅当 σ 1 = σ 2 \sigma_1=\sigma_2 σ1=σ2时,等号成立. 即 V a r ( β ^ 2 ) ≤ V a r ( β ^ 1 ) . Var(\hat{\beta}_2)\leq Var(\hat{\beta}_1). Var(β^2)Var(β^1).

(3) 仍然可取第二问的估计量, 少了分布条件不影响求期望和方差.

你可能感兴趣的:(算法,概率论)