统计知识5:总平方和、残差平方和、判定系数

总平方和SST(total sum of squares)

解释平方和SSE(explained sum of squares),也成模型平方和

残差平方和SSR(residual sum of squares),也称剩余平方和

普通最小二乘法OLS(ordinary least square


统计知识5:总平方和、残差平方和、判定系数_第1张图片


统计知识5:总平方和、残差平方和、判定系数_第2张图片

640?wx_fmt=png&wxfrom=5&wx_lazy=1

统计知识5:总平方和、残差平方和、判定系数_第3张图片

定义:

统计知识5:总平方和、残差平方和、判定系数_第4张图片

统计知识5:总平方和、残差平方和、判定系数_第5张图片

统计知识5:总平方和、残差平方和、判定系数_第6张图片

0?wx_fmt=png

拟合优度:

    迄今为止,我们还没有办法衡量自变量x究竟能多好的解释因变量y,如果能够计算出来一个数值,用以概况OLS回归线对数据的拟合得有多好,那就很清晰的评估。

    假定总平方和SST不为零(除非所有y都相等这样一个极端的情况),可以得到判定系数:

0?wx_fmt=png

    判定系数是解释变量与总变异之比,也可以说成是y的样本变异中被x解释的部分,占比越大解释的越多,因为SSE不可能大于SSR,所以判定系数的值总是介于0和1之间。

    若数据点都落在同一直线上,OLS回归就提供了数据的一个完美拟合,此时判定系数=1,一个接近于0的判定系数表名OLS给出了一个糟糕的拟合,因为。

0?wx_fmt=png



你可能感兴趣的:(统计知识5:总平方和、残差平方和、判定系数)