是一般用于大样本 (即 样本容量 大于30)平均值差异性检验的方法。
H 0 H_0 H0: 总体均值为 μ 0 \mu_0 μ0, 即 μ = μ 0 \mu = \mu_0 μ=μ0
Z = X ˉ − μ 0 σ 0 n Z = \frac{\bar{X}-\mu_0}{\frac{\sigma_0}{\sqrt{n}}} Z=nσ0Xˉ−μ0
其中, σ 0 \sigma_0 σ0为已知标准差
一般用 Π \Pi Π表示总体比率,用 p p p表示样本比率,关于总体比率的假设检验就是依据 p p p的抽样分布对 Π \Pi Π是否等于某个值所做的判断
H 0 H_0 H0: 总体比率为 Π 0 \Pi_0 Π0, 即 Π = Π 0 \Pi = \Pi_0 Π=Π0
Z = p − Π 0 Π 0 ( 1 − Π 0 ) n Z = \frac{p-\Pi_0}{\frac{\sqrt{\Pi_0(1-\Pi_0)}}{\sqrt{n}}} Z=nΠ0(1−Π0)p−Π0
H 0 H_0 H0: 总体比率差为 D 0 D_0 D0, 即 Π 1 − Π 2 = D 0 \Pi_1 - \Pi_2 = D_0 Π1−Π2=D0
Z = ( p 1 − p 2 ) − D 0 σ p 1 − p 2 Z = \frac{(p_1-p_2)-D_0}{\sigma_{p_1-p_2}} Z=σp1−p2(p1−p2)−D0
其中, σ p 1 − p 2 = Π 1 ( 1 − Π 1 ) n 1 + Π 2 ( 1 − Π 2 ) n 2 \sigma_{p_1-p_2} = \sqrt{\frac{\Pi_1(1-\Pi_1)}{n_1} + \frac{\Pi_2(1-\Pi_2)}{n_2}} σp1−p2=n1Π1(1−Π1)+n2Π2(1−Π2)
主要是比较均值
单总体t检验是检验一个样本平均数与一个已知的总体平均数的差异是否显著。当总体分布是正态分布,如总体标准差未知且样本容量小于30,那么样本平均数与总体平均数的离差统计量呈t分布。
H 0 H_0 H0: 总体均值为 μ 0 \mu_0 μ0, 即 μ = μ 0 \mu = \mu_0 μ=μ0
其中, X ˉ = ∑ i = 1 n x i n , s = ∑ i = 1 n ( x i − x ˉ ) 2 n \bar{X}=\frac{\sum_{i=1}^{n}x_i}{n},s = \sqrt{\frac{\sum_{i=1}^n(x_i-\bar{x})^2}{n}} Xˉ=n∑i=1nxi,s=n∑i=1n(xi−xˉ)2
然而当样本容量大于30, t分布渐近标准正态, 也可以采用Z检验统计量;
双总体t检验是检验两个样本平均数与其各自所代表的总体的差异是否显著。
各实验处理组之间毫无相关存在,即为独立样本
H 0 H_0 H0: 两个总体均值相等, 即 μ 1 = μ 2 \mu_1 = \mu_2 μ1=μ2
σ 1 2 、 σ 2 2 \sigma_1^2、 \sigma_2^2 σ12、σ22为两总体方差, n 1 , n 2 n_1, n_2 n1,n2为两样本容量
S 1 2 、 S 2 2 S_1^2、 S_2^2 S12、S22为两样本方差, n 1 , n 2 n_1, n_2 n1,n2为两样本容量
S 1 2 、 S 2 2 S_1^2、 S_2^2 S12、S22为两样本方差, n 1 , n 2 n_1, n_2 n1,n2为两样本容量
是对用于检验配对设计实验中成对定量数据是否存在差异性的统计方法
配对设计实验
原假设
H 0 H_0 H0: 两个总体均值之差为 μ 0 \mu_0 μ0, 即 X 1 − X 2 = μ 0 X_1 - X_2 = \mu_0 X1−X2=μ0
其中, d i = x 1 i − x 2 i ; d ˉ = ∑ i = 1 n d i n ; S d = ∑ i = 1 n ( d i − d ˉ ) 2 n − 1 d_i = x_{1i} - x_{2i}; \bar{d} = \frac{\sum_{i=1}^nd_i}{n}; S_d = \sqrt{\frac{\sum_{i=1}^{n}(d_i-\bar{d})^2}{n-1}} di=x1i−x2i;dˉ=n∑i=1ndi;Sd=n−1∑i=1n(di−dˉ)2
H 0 : ρ = 0 H_0: \rho = 0 H0:ρ=0
其中,n为样本量, r为样本的相关系数 r = c o v ( x , y ) σ ( x ) σ ( y ) r = \frac{cov(x,y)}{\sigma(x)\sigma(y)} r=σ(x)σ(y)cov(x,y)
方差齐性是方差分析和一些均数比较、t检验的重要前提,利用F检验进行方差齐性检验是最原始的,但对数据要求比较高。
样本来自两个独立的、服从正态分布的总体。
X 1 ∼ N ( μ 1 , σ 1 2 ) , X 2 ∼ N ( μ 2 , σ 2 2 ) X_1 \sim N(\mu_1, \sigma_1^2), X_2 \sim N(\mu_2, \sigma_2^2) X1∼N(μ1,σ12),X2∼N(μ2,σ22)
H 0 H_0 H0: 两个总体方差相等, 即 σ 1 2 = σ 2 2 \sigma_1^2 = \sigma_2^2 σ12=σ22
其中, S 1 = 1 n 1 − 1 ∑ i = 1 n ( X 1 i − X 1 ˉ ) S_1=\frac{1}{n_1-1}\sum_{i=1}^n(X_{1i} - \bar{X1}) S1=n1−11∑i=1n(X1i−X1ˉ)
F分布的定义: 两个卡方/n
之比 – F分布
S 1 2 σ 1 2 S 2 2 σ 2 2 ∼ F ( n 1 − 1 , n 2 − 1 ) \frac{\frac{S_1^2}{\sigma_1^2}}{\frac{S_2^2}{\sigma_2^2}}\sim F(n_1-1, n_2-1) σ22S22σ12S12∼F(n1−1,n2−1)
当 σ 1 = σ 2 \sigma_1 = \sigma_2 σ1=σ2时, 那么 S 1 2 S 2 2 ∼ F ( n 1 − 1 , n 2 − 1 ) \frac{S_1^2}{S_2^2}\sim F(n_1-1, n_2-1) S22S12∼F(n1−1,n2−1)
假设我们要研究一个因素对于一个指标的影响,试图比较这个因素内各个取值水平对于这个指标的影响是否相同。
每一水平的总体服从正态分布且各总体方差相等(所以要求先做方差齐性检验)
H 0 H_0 H0: 各个总体均值相等, 即 μ 1 = μ 2 = ⋯ = μ n \mu_1 = \mu_2 = \cdots = \mu_n μ1=μ2=⋯=μn
其中,SSA是组间平方和, SSE是组内平方和, (假设总共有m个样本,分为n个组(不一定均匀))
S S A = ∑ i = 1 n m i ( y i ⋅ ˉ − y ˉ ) 2 S S E = ∑ i = 1 n ∑ j = 1 m i ( y i j − y i ⋅ ˉ ) 2 SSA = \sum_{i=1}^{n}m_i(\bar{y_{i\cdot}} - \bar{y})^2\\ SSE = \sum_{i=1}^{n}\sum_{j=1}^{m_i}(y_{ij} - \bar{y_{i\cdot}})^2\\ SSA=i=1∑nmi(yi⋅ˉ−yˉ)2SSE=i=1∑nj=1∑mi(yij−yi⋅ˉ)2
而 d f 1 = n − 1 , d f 2 = m − n df_1 = n-1, df_2 = m-n df1=n−1,df2=m−n 因为SSE有n个已知参数就是每组的均值, 所以自由度是 m − n m-n m−n, SSA里面只有一个已知参数就是样本的均值 y ˉ \bar{y} yˉ, 所以自由度就是 n − 1 n-1 n−1
F分布的定义: 两个卡方/n
之比 核心关键是 S S A σ 2 、 S S E σ 2 \frac{SSA}{\sigma^2}、\frac{SSE}{\sigma^2} σ2SSA、σ2SSE就是卡方, 而前面假设方差相等
S S A ( n − 1 ) σ 2 S S E ( m − n ) σ 2 = S S A ( n − 1 ) S S E ( m − n ) ∼ F ( n − 1 , m − n ) \frac{\frac{SSA}{(n-1)\sigma^2}}{\frac{SSE}{(m-n)\sigma^2}} = \frac{\frac{SSA}{(n-1)}}{\frac{SSE}{( m-n)}}\sim F(n-1, m-n) (m−n)σ2SSE(n−1)σ2SSA=(m−n)SSE(n−1)SSA∼F(n−1,m−n)
线性回归方程的总变差也可以像方差分析一样分解:
总 离 差 平 方 和 = 回 归 平 方 和 + 残 差 平 方 和 S S T = S S R + S S E S S T = ∑ i = 1 m ( y i − y ˉ ) 2 S S R = ∑ i = 1 m ( y i ^ − y ˉ ) 2 S S E = ∑ i = 1 m u i ^ = ∑ i = 1 m ( y i − y i ^ ) 2 总离差平方和 = 回归平方和+残差平方和\\ SST = SSR+SSE\\ SST = \sum_{i=1}^{m}(y_i - \bar{y})^2\\ SSR = \sum_{i=1}^{m}(\hat{y_i} - \bar{y})^2\\ SSE = \sum_{i=1}^{m}\hat{u_i} = \sum_{i=1}^{m}(y_i - \hat{y_i})^2\\ 总离差平方和=回归平方和+残差平方和SST=SSR+SSESST=i=1∑m(yi−yˉ)2SSR=i=1∑m(yi^−yˉ)2SSE=i=1∑mui^=i=1∑m(yi−yi^)2
H 0 H_0 H0: 线性模型中的一组自变量(q个)对因变量没有影响 即 β 1 = β 2 = ⋯ = β q \beta_1 = \beta_2 = \cdots = \beta_q β1=β2=⋯=βq
其中, S S R r SSR_r SSRr为排除了原假设中的自变量构造的一个新的线性模型的 S S R SSR SSR,
S S R u r SSR_{ur} SSRur是原线性模型的 S S R SSR SSR, n是自变量个数
特别地, 如果 q = n q=n q=n
F = S S R n S S E m − n − 1 ∼ F ( n , m − n − 1 ) F = \frac{\frac{SSR}{n}}{\frac{SSE}{m-n-1}} \sim F(n,m-n-1) F=m−n−1SSEnSSR∼F(n,m−n−1)
H 0 H_0 H0: 方差为 σ 0 \sigma_0 σ0, 即 σ = σ 0 \sigma = \sigma_0 σ=σ0
统计样本的实际观测值与理论推断值之间的偏离程度,实际观测值与理论推断值之间的偏离程度就决定卡方值的大小,如果卡方值越大,二者偏差程度越大;反之,二者偏差越小;若两个值完全相等时,卡方值就为0,表明理论值完全符合。
H 0 H_0 H0: 总体服从某种分布, 理论值为 f e f_e fe
χ 2 = ∑ i = 1 n ( f i − f e ) 2 f e \chi^2 = \sum_{i=1}^{n} \frac{(f_i - f_e)^2}{f_e} χ2=i=1∑nfe(fi−fe)2
其中, n表示分类变量的个数, 卡方分布的自由度为 n − 1 n-1 n−1
用于两个或两个以上因素多项分类的计数资料分析,即研究两类变量之间(以列联表形式呈现)的关联性和依存性,或相关性、独立性、交互作用性。
H 0 H_0 H0: X与Y没有关系, 相互独立
假设有两个分类变量X和Y,它们的值域分别为{x1, x2}和{y1, y2},其样本频数列联表为
y 1 y_1 y1 | y 2 y_2 y2 | 总计 | |
---|---|---|---|
x 1 x_1 x1 | a | b | a+b |
x 2 x_2 x2 | c | d | c+d |
总计 | a+c | c+d | a+b+c+d |
χ 2 = n ( a d − b c ) 2 ( a + b ) ( c + d ) ( a + c ) ( b + d ) 自 由 度 d f = ( 行 数 − 1 ) ( 列 数 − 1 ) = 1 \chi^2 = \frac{n(ad-bc)^2}{(a+b)(c+d)(a+c)(b+d)}\\ 自由度df=(行数-1)(列数-1)=1 χ2=(a+b)(c+d)(a+c)(b+d)n(ad−bc)2自由度df=(行数−1)(列数−1)=1
主要是用来检验一组样本是否来自于某个概率分布
H 0 H_0 H0: 样本来自于P(分布)
D = max { ∣ S ( x i ) − F ( x i ) ∣ } 修 正 后 , D = max { ∣ S ( x i − 1 ) − F ( x i ) ∣ } D = \max\{|S(x_i) - F(x_i)|\}\\ 修正后, D = \max\{|S(x_{i-1}) - F(x_i)|\} D=max{∣S(xi)−F(xi)∣}修正后,D=max{∣S(xi−1)−F(xi)∣}
其中, S ( x i ) S(x_i) S(xi)为实际的累计概率, F ( x i ) F(x_i) F(xi)为理论的累计概率, max \max max表示差值样本中的最大绝对差值
在大样本下, 原假设成立时, n D \sqrt{n}D nD服从Kolmogorov-Smirnov分布
, 分布函数为
K ( x ) = ∑ j = − ∞ ∞ ( − 1 ) j e − 2 j 2 x 2 K(x) = \sum_{j=-\infty}^{\infty}(-1)^j e^{-2j^2x^2} K(x)=j=−∞∑∞(−1)je−2j2x2
首先, 将两个样本混合并且按照升序排序; 然后分别计算两样本秩的累计概率;最后根据两组累计概率差的绝对值, 得到累计概率绝对差的序列并得到D统计量
H 0 H_0 H0: 两组样本的总体的分布一样
D = max { ∣ S 1 ( x i ) − S 2 ( x i ) ∣ } D = \max\{|S_1(x_i) - S_2(x_i)|\}\\ D=max{∣S1(xi)−S2(xi)∣}
其中, S 1 ( x i ) S_1(x_i) S1(xi)是一组样本秩的累计概率
游程检验亦称“连贯检验”,是根据样本标志表现排列所形成的游程的多少进行判断的检验方法。
00110111000100100010
第一组的游程是5,第二组的游程是2,第三组的游程是11。
首先看零在这个序列中出现几次,假如有一个零,也算一次,一百个零连在一起也算一次,这个一次称作一个游程。查一查零共出现六次,所以有六个零的游程。其他以此类推。
如果序列为真随机序列,那么游程的总数应该不太多也不太少。如果游程的总数极少,就说明样本缺乏独立性,内部存在一定的趋势或者结构,这可能由于观察值间不独立,或者来自不同的总体。如果样本间存在大量游程,则可能有系统的短周期波动影响观察结果。同样认为序列非随机。
H 0 H_0 H0: 变量值出现是随机的
Z = r − μ r σ r Z = \frac{r-\mu_r}{\sigma_r} Z=σrr−μr
其中, r为游程数, μ r = 2 n 1 n 2 n 1 + n 2 ; σ r 2 = 2 n 1 n 2 ( 2 n 1 n 2 − n 1 − n 2 ) ( n 1 + n 2 ) 2 ( n 1 + n 2 − 1 ) \mu_r = \frac{2n_1n_2}{n_1 + n_2};\sigma_r^2 = \frac{2n_1n_2(2n_1n_2 - n_1 - n_2)}{(n_1 + n_2)^2(n_1 + n_2 -1)} μr=n1+n22n1n2;σr2=(n1+n2)2(n1+n2−1)2n1n2(2n1n2−n1−n2)
H 0 H_0 H0: 两组样本的总体的分布一样
首先, 将两样本混和并按升序排序。在变量值排序的同时, 对应的组标记值也会随之重新排列。 然后, 对组标记值序列按照前面讨论的计算游程的方式计算游程数, 如果两总体的分布存在较大差异, 那么基于组标记的游程数会相对比较少; 如果胡太医组标记的游程数比较大, 则应是两组样本值充分混合的结果, 两总体的分布不会存在显著差异.
Z = r − μ r σ r Z = \frac{r-\mu_r}{\sigma_r} Z=σrr−μr
H 0 H_0 H0: 两组样本的总体的分布一样(总体均值相等)
首先, 将两样本混和并按升序排序。分别对两个样本的秩求平均, 得到两个平均秩 W x m , W y n \frac{W_x}{m}, \frac{W_y}{n} mWx,nWy, W x , W y W_x, W_y Wx,Wy是秩和统计量。 然后计算U统计量
WilcoxonW
= min ( W x , W y ) \min(W_x, W_y) min(Wx,Wy), k为W对应秩和所在组的样本量在小样本下, U统计量服从曼-惠特尼分布, 大样本下, U统计量近似服从正态分布
Z = U − 1 2 m n 1 2 m n ( m + n + ) Z = \frac{U - \frac{1}{2}mn}{\sqrt{\frac{1}{2}mn(m+n+)}} Z=21mn(m+n+)U−21mn
注意
这个检验不像前面的一样的, 是统计量大于临界值才拒绝原假设, 而是统计量小于临界值就能拒绝原假设;
容易理解, 如果两个样本的均值差距较大, 那么他们的秩和差距也会大, 那么小的那个秩和统计量就会很小, 从而U统计量会很小, 从而更容易拒绝原假设;