R语言如何做多元线性回归?以例子说明?

举个例子:

一般人在身高相等的情况下,血压收缩压Y与体重X1和年龄X2有关,抽取13组成年人数据(如下图),构建Y与X1、X2的线性回归关系。






先创建一个数据框blood:
blood<-data.frame(
X1=c( 76,91.5,85.5,82.5,79,80.5,74.5,79,85,76.5,82,95,92.5),
X2=c( 50,20,20,30,30,50,60,50,40,55,40,40,20),
Y=c( 120,141,124,126,117,125,123,125,132,123,132,155,147)
)

拟合线性回归:
lm.sol<-lm(Y~X1+X2,data=blood)
提取模型计算结果
summary(lm.sol)


这里说一下含义:
1、在计算结果的第一部分(call)列出了相应的回归模型公式;
2、第二部分(Residuals)列出了残差的最小值点、1/4分位点、3/4分位点、最大值点;
3、第三方部分(Coefficients)Estimate表示回归方程参数的估计,std.Error表示回归参数的标准差,t value 为t值,Pr(>|t|)表示p值
说明一下:***表示极为显著,**表示高度显著,*表示显著,.表示不太显著,没有记号表示不显著
4、第四部分(Residual standard error)表示残差的标准差,(F-statistic)表示F的统计量

构建一个回归模型后,先看F统计量的p值,这是对整个模型的假设检验,原假设是各系数都为0,如果连这个p值都不显著,无法证明至少有一个自变量对因变量有显著性影响,这个模型便不成立。然后看Adjusted R2,每调整一次模型,应该力使它变大;Adjusted R2越大说明模型中相关的自变量对因变量可解释的变异比例越大,模型的预测性就越好。

通过上面的结果可以看出回归模型:Y=2.13656X1+0.40022X2-62.96336

我们根据得出的回归模型进行预测
例如:预测体重X1=100,年龄X2=40的血压值Y
newdata<-data.frame(X1=100,X2=40)
pre<-predict(lm.sol,newdata,interval="prediction",level=0.95)
pre

从结果可以预测值Y166.7011和预测值Y的区间[157.2417,176,1605]




读取文件数据时候:

1.data = read.csv("F://data.csv",header=FALSE)

Y=data[,1]

.

.

.





你可能感兴趣的:(R语言小记)