《机器学习模型思考》系列:线性回归模型的基本假设

/关注 长歌大腿 公众号,发送“机器学习”关键字,可获取包含机器学习(包含深度学习),统计概率,优化算法等系列文本与视频经典资料,如《ESL》《PRML》《MLAPP》等。/

文章来源《机器学习模型思考》系列:线性回归模型的基本假设 .

线性模型是众多模型的基准,是更大范围的广义线性模型如支持向量机SVM,逻辑回归等模型的基模型,是经常使用的非常重要的数学方法。但是大多数机器学习或者数学建模的书籍中都没有讲述该模型的适用条件,任何模型在应用时都有其适用范围,作为最广泛的线性模型也不例外。以下为线性模型使用的关于数据方面的假设条件:

经典假设:

  • 解释变量 X 是确定性变量,不是随机变量,而且在重复抽样中取固定值。
  • 随机干扰项零均值,同方差,无序列相关性。
  • 随机干扰项与解释变量之间不相关,即 C o v ( X i , μ i ) = 0 Cov(X_{i},\mu_{i})=0 Cov(Xi,μi)=0
  • 随机干扰项尽可能服从零均值,同方差,零协方差的正态分布。

暗假设:

  • 随样本容量无限增加,解释变量的样本方差趋于一个有限的常数。
  • 模型变量是正确有效设定的。

很短的语言描述,但是包含的信息量巨大,可以好好理解品品。当然使数据完全满足假设几乎不可能或很难证实,但是我们应有这样的一种假设意识,在使用线性模型时候,尽可能的使之向假设满足的条件靠近。

你可能感兴趣的:(机器学习)