回归——分层回归

1、作用

分层回归(层次回归)本质上是建立在回归分析基础上,区别在于分层回归可分为多层,用于研究两个或者多个回归模型之间的差异。分层回归将核心研究的变量放在最后一步进入模型,以考察在排除了其他变量的贡献的情况下,该变量对回归方程的贡献。如果变量仍然有明显的贡献,那么就可以做出该变量确实具有其他变量所不能替代的独特作用的结论。这种方法主要用于,当自变量之间有较高的相关,其中一个自变量的独特贡献难以确定的情况。例如,在研究学习疲倦感中,将性别、年龄、学历等(控制变量)放置在第一层,第二层放置工作压力(核心研究变量)。常用于中介作用或者调节作用研究。

​2、输入输出描述

输入:多层次的线性回归数据
输出:上一个层次与下一个层次的拟合变化情况,用于分析多加入的变量对自变量(Y)的影响程度。

3、案例示例

某高校随机抽取600名大学生,调查其身高、体重、胸围、体育成绩和肺呼量(Y)数据,控制身高、体重、体育成绩,分析胸围对肺呼量的影响程度。

回归——分层回归_第1张图片

4、建模步骤

 分层回归其实是对两个或多个回归模型进行比较。我们可以根据两个模型所解释的变异量的差异来比较所建立的两个模型。一个模型解释了越多的变异,则它对数据的拟合就越好。分层回归相对来说建模更具备专业意义的指导,通常将专业认为重要的变量放在最后一层,以确定在控制其他变量之后,该自变量的意义大小。我们运行分层回归的主要目的是分析是否有必要增加新的自变量,而不是进行预测,回归系数不是我们主要关注的结果。

你可能感兴趣的:(数学建模,回归,数据挖掘,人工智能,机器学习)