#第1步:工作目录和数据集的准备
setwd("C:/Users/IBM/Desktop/170222分类树建模/2.23建模")#设定当前的工作目录,重要!
audit2<-read.csv("model2.csv",header=T)
str(audit2) #转成字符串类型的
#第2步:做训练集和测试集
set.seed(1)
sub<-sample(1:nrow(audit2),round(nrow(audit2)*2/3))
length(sub) #24443
data_train<-audit2[sub,]#取2/3的数据做训练集
data_test<-audit2[-sub,]#取1/3的数据做测试集
dim(data_train)#训练集行数和列数24443 12
dim(data_test) #测试集的行数和列数12222 12
table(data_train$是否转化)
table(data_test$是否转化)
#第3步:用训练集建模,观察模型结果
tree.both<-rpart(as.factor(是否转化)~ .,data=data_train,method='class',minsplit=20,minbucket=150,cp=0.00017)
summary(tree.both)
tree.both$variable.importance
printcp(tree.both)
plotcp(tree.both,lwd=2)
#第4步:画决策树
#4.1画决策树第1种方法,画出来的树比较简单
plot(tree.both)
text(tree.both,use.n=T,all=T,cex=0.9)
#4.2画决策树第2种方法,画出来的树稍微好看些
library(rpart.plot)
rpart.plot(tree.both,branch=1,shadow.col="gray",box.col="green",border.col="blue",split.col="red",split.cex=1.2,main="决策树")
#第5步:剪枝
#我们使用具有最小交叉验证误差的cp来建立回归树
cp=tree.both$cptable[which.min(tree.both$cptable[,"xerror"]),"CP"]
cp #cp=0.00049
#第6步:剪枝之后的树再次画图
tree.both2<-prune(tree.both,cp=tree.both$cptable[which.min(tree.both$cptable[,"xerror"]),"CP"])
summary(tree.both2)
tree.both2$variable.importance
printcp(tree.both2)
plotcp(tree.both2,lwd=2)
library(rpart.plot)
rpart.plot(tree.both2,branch=1,shadow.col="gray",box.col="green",border.col="blue",split.col="red",split.cex=1.2,main="决策树")
#第7步:输出规则。剪枝后的决策树规则,从规则中再找规律
library(rattle)
asRules(tree.both2)
#第8步:在测试集上做预测
library(pROC)
pred.tree.both<-predict(tree.both,newdata=data_test)
#第9步:看模型的预测效果如何呀。正确的有多少,错误的有多少
predictScore<-data.frame(pred.tree.both)
rownames(predictScore) #看这个矩阵行的名字
colnames(predictScore)#看这个矩阵列的名字
predictScore$是否转化<-'ok' #在预测的矩阵后面多加一列‘是否转化’
predictScore[predictScore$FALSE.>predictScore$TRUE.,][,"是否转化"]=FALSE #如果false的概率大于true的概率,那么判断为false
predictScore[predictScore$FALSE.<=predictScore$TRUE.,][,"是否转化"]=TRUE
n<-table(data_test$是否转化,predictScore$是否转化)
n #看分布情况
percantage<-c(n[1,1]/sum(n[1,]),n[2,2]/sum(n[2,]))
percantage