用python处理excel数据、求线性回归方程的r值_数据分析|回归分析(R&Python)

0X01 前言

变量之间关系可以分为两类:

函数关系:反映了事务之间某种确定性关系

相关关系:两个变量之间存在某种依存关系,但二者并不是一一对应的;反映了事务间不完全确定关系;相关系数(r)可以衡量这种相关关系。r的取值范围是[-1,1],r=1表示完全正相关!r=-1表示完全负相关!r=0表示完全不相关。

为什么要对相关系数进行显著性检验?

1)实际上完全没有关系的变量,在利用样本数据进行计算时也可能得到一个较大的相关系数值(尤其是时间序列数值)

2)当样本数较少,相关系数就很大。当样本量从100减少到40后,相关系数大概率会上升,但上升到多少,这个就不能保证了;取决于你的剔除数据原则,还有这组数据真的可能不存在相关性;改变两列数据的顺序,不会对相关系数,和散点图(拟合的函数曲线)造成影响;

对两列数据进行归一化处理,标准化处理,不会影响相关系数;

我们计算的相关系数是线性相关系数,只能反映两者是否具备线性关系。相关系数高是线性模型拟合程度高的前提;此外相关系数反映两个变量之间的相关性,多个变量之间的相关性可以通过复相关系数来衡量;

线性关系检验

回归系数检验

最小二乘法是一种数学优化技术,它通过最小化误差的平方和寻找数据的最佳函数匹配。

拟合优度:顾名思义,拟合优度就是衡量一个回归做的好不好的指标,定义为

我们期望回归平方和占比越大,那么我们的模型就越好;但是回归平方和<=总平方和; 的缺陷:新增加一个变量,

会加大;所以单独用

来评价模型的好坏并不靠谱

可以联想到P值,我们总是说P<0.05,能得出显著性的结论,我们拒绝H0,接受H1(往往我们对假设进行设计时,H1是我们想要支持的假设,H0是我们反对的假设。)

至于P<0.05的标准,则是统计学家们拍脑袋拍出来的。----人大著名统计学家吴喜之

针对

的缺陷:学者们提出了调整

由此可见,R方总是小于调整R方的且调整R方可能为负;并且只有R方趋近1时,调整R方才有出马的意义!

因此判断多重共线性也多了一个方法:

选择其中一个自变量将其作为因变量,重新拟合,求

;若

趋近1,则存在多重共线性!

多元线性回归

多重共线性:多重共线性与统计假设没有直接关联,但是对于解释多元回归的结果非常重要。相关系数反应两个变量之间的相关性;回归系数是假设其他变量不变,自变量变化一个单位,对因变量的影响,而存在多重共线性(变量之间相关系数很大),就会导致解释困难;比如y~x1+x2;x·1与x2存在多重共线性,当x1变化一个单位,x2不变,对y的影响;而x1与x2高度相关,就会解释没有意义。一元回归不存在多重共线性的问题;而多元线性回归要摒弃多重共线性的影响;所以要先对所有的变量进行相关系数分析,初步判定是否满足前提---多重共线性

时间序列数据会自发呈现完全共线性问题,所以我们用自回归分析方法;

出现多重共线性如何改善:

1、删除变量对去除多重共线性最为显著。

2、不想删除变量,可以对自变量进行降维(CPA主成分分析),主成分分析后的各主成分之间是正交的,所以一定是线性无关。

3、改善模型。

0X02 一元线性回归折后消耗y,下载量xExcel绘制方法:先绘制散点图--右键--添加趋势线

0X03 多元线性回归

电力系统中长期负荷的变化受到很多因素制约,这种制约关系难以定性描述,征对负荷影 响因素的复杂性和不确定性,即多变量和随机性,笔者将多元回归分析应用到中长期电力负 荷预测之中。因变量(y)为全社会用电量,自变量通常为影响电力负荷各种因素,比如经 济,人口,气候等等,本文选择以国民生产总值 GDP(x1)、全国人口(x2)为自变量,建 立回归方程。考虑到国内五年计划对预测的影响,选择 2001-2015 年的全社会用电量作为样 本。源数据

R语言

data<-read.table("c:/Users/baihua/Desktop/ols.csv",header=T,sep=",",nrows=15,encoding = "UTF-8")

newdata<-as.data.frame(data[,c("year","people","gdp","kw")])

fit<-lm(kw~gdp+people,data=newdata)

summary(fit)

回归方程为:

对线性回归方程进行如下假设检验:正态性检验、线性检验、独立性检验、同方差性检 验。

对线性模型进行检验发现该模型不满足同方差假设。同方差检验结果如图 1 所示

采用 R 软件包提供的 spreadLevelPlot()函数创建了一个添加最佳拟合曲线的散点图,展 示标准化残差绝对值与拟合值的关系。若满足同方差假设,图 1 中点的水平在最佳拟合曲线 周围应该呈水平随机分布,而图 1 显然不是,说明违反了同方差假设。 模型不符合同方差假设,通常可以对因变量进行 BOX-COX 变换:

利用 R 软件包提供的 powerTransform(),函数通过最大似然来估计出

,研究发现对因变 量进行对数变换,去除自变量 GDP (x1)后,拟合效果最好,且满足各种假设检验。

拟合结果如表 3 所示,模型整体解释能力如表 4 所示:

建立的回归方程:

常数项没有物理意义,只是一个常量调整项。人口的回归系数为 0.0001531,表示人口每 增加 1 万人,全社会用电量增加 1.000151 亿千瓦时,它的系数检验 P 值<0.05,表明在 0.05 的显著水平下是显著的。总体来看,人口解释了全社会用电量 98%的方差。对回归方程的 F 检验 p 值<0.05,表明预测变量人口有 95%以上的概率可以预测全社会用电量。

R 软件包中的 qqPlot(),提供了准确的正态假设检验方法,它画出了 n-p-1 个自由度下的 t 分布下的学生化残差图形,其中 n 是样本大小,p 是回归参数的数目(包括截距项)。如图 2 所示:

R 软件包中的 Durbin-Watson 检验的函数 durbinWatsonTest(),能够检验出误差的独立 性。经检验 P 值>0.05,不显著。说明误差项之间独立。

R 软件包中的 crPlots()函数绘制的成分残差图,可以检测出因变量与自变量之间是否非线 性关系,检测结果如图 所示:

R 软件包中的 spreadLevelPlot()函数创建了一个添加最佳拟合曲线的散点图,展示标准化 残差绝对值与拟合值的关系。若满足同方差假设,图 4 中点的水平在最佳拟合曲线周围应 该呈水平随机分布,结果表明符合同方差假设。

library(car)

qqPlot(fit,lables=row.names(newdata),id.method="identify",simulata=TRUE,main=" Q-Q Plot")

durbinWatsonTest(fit)

crPlots(fit)

spreadLevelPlot(fit)

ncvTest(fit)

##BOX-COX 确定因变量类型函数

summary(powerTransform(newdata$kw))

##第一种变换

fit<-lm(sqrt(kw)~gdp+people,data=newdata)

summary(fit) ###假设检验 ##第二种变换

fit<-lm(log(kw)~gdp+people,data=newdata)

summary(fit) ###假设检验

fit<-lm(log(kw)~gdp,data=newdata)

summary(fit) ##假设检验

fit<-lm(log(kw)~people,data=newdata)

summary(fit)

##假设检验

fit<-lm(log(kw)~(gdp/people),data=newdata)

summary(fit)

##假设检验

y.pre<-predict(fit)

##计算预测值

fit2<-exp(predict(fit))

Python回归

import numpy as np

import pandas as pd

data=pd.read_csv("C://Users//baihua//Desktop//vehicles.csv",encoding='utf-8')

df=pd.DataFrame(data)

df.columns=["code","date","y","x1","x2","x3","x4","x5","x6","x7"]

'''

思考:df=pd.DataFrame(data,columns=["code","date","y","x1","x2","x3","x4","x5","x6","x7"])

print(df)

出现NaN的原因:columns是取data中的列而不是重命名,可以调整列中的顺序但不可重命名!

'''

print(df)

df1=df.drop(["code","date"],axis=1) #中文字段名报错,需要修改为英文字段名

探索数据

做一个相关系数矩阵;

多元回归如何选择自变量?相关系数可以判断自变量是否可以预测因变量

补充:选择特征的角度很多:变量的预测能力,变量之间的相关性,变量的简单性(容易生成和使用),变量的强壮性(不容易被绕过),

变量在业务上的可解释性(被挑战时可以解释的通)等等。但是,其中最主要和最直接的衡量标准是变量的预测能力。

1、特征选择:特征发散,如果一个特征不发散,方差为0,说明样本在这个特征上基本没有差异,这个特征对于样本区分基本没用

2、特征选择:考虑特征与目标的相关性,优先选择与目标相关性高的特征!

3、根据方差选择特征:计算各个特征的方差,选择方差大于阈值的特征

4、单变量特征选择:计算每个特征与y的相关性;对于回归问题或分类问题可以采用卡方检验的方式对特征进行检测

5、皮尔逊相关系数(适用于回归问题即y连续),简单实用

6、基于模型的特征融合方法:主成分分析,聚类,支持向量机,随机森林都可以作为筛选特征的方法

'''

print(df1.corr())

print('---')

print(df1.cov())

print(df1.describe())

sklearn 调包实现

'''

多元回归的变量选择:

在变量较少的情况下,全子集回归都要优于逐步回归;

但若是变量较多,全子集回归就会很费时间;

变量的自动选择是对模型选择的一种辅助方法,而不是直接方法;

缺陷:只能选出模型拟合度最高的模型,但是该模型是不是有意义,我们还需要结合真实场景进行选择;甚至模型的重建。

'''

from sklearn.model_selection import train_test_split

import numpy as np

from sklearn import datasets,linear_model

import pandas as pd

y=df1.iloc[:,0]

x=df1.iloc[:,[1,2,3,4]]

# 训练数据

x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.25, random_state = 1)

regr = linear_model.LinearRegression()

regr.fit(x_train,y_train) #训练拟合参数

print('coefficients(b1,b2...):',regr.coef_)

print('intercept(b0):',regr.intercept_)

# 预测数据

y_pred = regr.predict(x_test)

print(y_pred)

# 查看模型得分

regr.score(x_test, y_test)

Out:

coefficients(b1,b2...): [-2.58276362e-04 9.39725239e-04 3.19754647e+00 1.03817588e+00]

intercept(b0): -15.518686092501014

[513.46916069 820.48073383 595.60053947 112.04429448 548.1450162

618.4632776 271.81001594 368.01305579 660.92674908 575.78325852

523.48195751 545.90176081 718.77749951 501.81849186 360.00269366

808.0881115 578.33083072]

Out[66]:

0.9981218281971582

最后,请关注我的数据分析专栏,已经超过1000+小伙伴关注啦数据分析​zhuanlan.zhihu.comv2-6245e09f8d1bf193db14ca39946f6d96_ipico.jpg

你可能感兴趣的:(求线性回归方程的r值)