海藻!海藻!—R实战案例一(中)

上半部分:海藻!海藻!—R实战案例一(上)
本案例的目的是预测140个水样中7种海藻的出现频率,这部分是用多元线性回归模型和回归树模型分别进行预测。
首先进行多远线性回归,该模型给出一个有关目标变量,和解释变量关系的线性函数

#预测海藻a1出现的频率,.代表数据框中除了a1外的变量。
lm.a1<-lm(a1~.,data=clean.algae[,1:12])
summary(lm.a1)
海藻!海藻!—R实战案例一(中)_第1张图片

该模型解释的方差比例(R-squared)表明模型与数据的吻合度。越接近于1越好。此处为0.322,还不是很理想,所以需要精简回归模型。
首先用anova函数提供模型拟合的方差序贯分析。

anova(lm.a1)
海藻!海藻!—R实战案例一(中)_第2张图片

从图中可见,season对减少模型拟合误差的贡献最小,将其删除。然后再做一次线性回归模型。

lm2.a1<-update(lm.a1,.~.-season)
summary(lm2.a1)
anova(lm.a1,lm2.a1)

此处结果略,R平方是0.328,还是不理想。所以继续用anova对两个模型进行正式的比较,使用两个模型作为参数。

海藻!海藻!—R实战案例一(中)_第3张图片

尽管误差平方和减少了(-449),但显著性只有0.695,说明两个模型不同的可能性为30%,应该再次消元。使用step向后消元法。

final.lm<-step(lm.a1)
summary(final.lm)
海藻!海藻!—R实战案例一(中)_第4张图片
2.png

最后的R平方仍然不理想,说明在此案例,应用线性模型并不合适。


接下来运用另一种模型算法:回归树来预测。回归树是对某些解释变量分层次的逻辑测试,基于树的模型自动筛选相关的变量。

library(rpart)
rt.a1<-rpart(a1~.,data=algae[,1:12])
rt.a1
prettyTree(rt.a1)

prettyTree主要是可视化,图形如下:

海藻!海藻!—R实战案例一(中)_第5张图片

此外,可以用复杂度损失修剪的方法,估计树节点的参数值cp,以达到预测的准确性和树大小的折中。然后利用prune来剪枝。(这里我不是很理解,先这么看着吧)

printcp(rt.a1)
rt2.a1<-prune(rt.a1,cp=0.08)
rt2.a1
海藻!海藻!—R实战案例一(中)_第6张图片
海藻!海藻!—R实战案例一(中)_第7张图片

rpartXse函数是可以自动运行这个过程,但是得到的图形很奇怪。(下右图)

rt.a1<-rpartXse(a1~.,data=algae[,1:12])
海藻!海藻!—R实战案例一(中)_第8张图片
用rpartXse做出的回归树

snip.rpart函数是交互的对树进行修剪(结果上左图)

first.tree<-rpart(a1~.,data=algae[,1:12])
snip.rpart(first.tree,c(4,7))

或者采用直接点击的方式修剪。(不过好像点击了也没有什么变化...)

prettyTree(first.tree)
snip.rpart(first.tree)

简而言之,这部分主要讲了线性和回归树,回归树那里常用的语句还是rpart。看其他案例,大多数也只用rpart。虽然语句很简单,也几乎不用输入参数,但内中含义很复杂啊。
最后一部分讲模型的评价和选择~~~

第二部分完整代码如下,不好用的语句我直接废掉了:

#线性模型
lm.a1<-lm(a1~.,data=clean.algae[,1:12])
summary(lm.a1)
anova(lm.a1)

lm2.a1<-update(lm.a1,.~.-season)
summary(lm2.a1)
anova(lm.a1,lm2.a1)

final.lm<-step(lm.a1)
summary(final.lm)

#回归树
library(rpart)
rt.a1<-rpart(a1~.,data=algae[,1:12])
rt.a1
prettyTree(rt.a1)
printcp(rt.a1)

rt2.a1<-prune(rt.a1,cp=0.08)
rt2.a1

#rt.a1<-rpartXse(a1~.,data=algae[,1:12])

first.tree<-rpart(a1~.,data=algae[,1:12])
snip.rpart(first.tree,c(4,7))

#prettyTree(first.tree)
#snip.rpart(first.tree)

你可能感兴趣的:(海藻!海藻!—R实战案例一(中))