回归模型

一、概述:

  1. “回归”之所以叫回归

  • “回归”是由英国著名生物学家兼统计学家高尔顿(Galton)在研究人类遗传问题时提出来的。为了研究父代与子代身高的关系, 高尔顿搜集了1078对父亲及其儿子的身高数据。他发现这些数据的散点图大致呈直线状态,且发现了一个很有趣的现象—回归效应,即人类身高的分布相对稳定,不产生两极分化。(回归---返祖)

  2. 回归的概述

  • 回归分析(regression analysis)是基于观测数据建立变量间适当的依赖关系,以分析数据的内在规律,并可用于预报、控制等问题,是使应用及其广泛的数据分析方法之一。

   3. 回归的研究问题

  • 回归分析考虑建立可观测的因素变量 (x_{1},x_{2},\cdots,x_{p}) 与变量 y (因变量)之间的确定性或不确定性关系,即:
  •                                                Y=f(x_{1},x_{2},\cdots,x_{p})+\varepsilon \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \; \: \;\; (1)
  •                                    y=E(Y)=f(x_{1},x_{2},\cdots,x_{p})\; \; \; \; \; \; \; \; \; \; \; \; \; \; (2)

  • 其中 \varepsilonY 是随机变量,\varepsilon \sim N(0,\sigma ^{2})
  • 因变量 Y 的变化可由两部分解释:第一,由自变量引起的变化f(x_{1},x_{2},\cdots,x_{p}),第二,由其他随即因素引起的变化\varepsilon
  • 学习得回归模型,就是要建立起适当的f(x_{1},x_{2},\cdots,x_{p})来解释因变量 Y 的变化,并且要使不可解释的变化 \varepsilon 尽可能小。

二、回归模型

(链接待补充) 

你可能感兴趣的:(机器学习,数据挖掘算法,数据分析方法)