各种分类算法的R语言实现

##
##该程序包括了KNN、SVM、朴素贝叶斯分类、人工神经网络、决策树、C5.0、随机森林、adaboost、bagging8种算法的实现
##

#Knn分类算法实现
setwd('H:\\object\\R\\data17_8_02')
library(xlsx)
library(MASS)
library(kknn)
library(class)

#归一化处理
normalize <- function(x){
  num <- x - min(x)
  denom <- max(x) - min(x)
  return(num/denom)
}
#读取数据
data<-read.xlsx("index_relieff_pearson_two.xlsx",1,header=TRUE,as.data.frame=TRUE)
#对数据进行归一化处理
iris_norm <-as.data.frame(lapply(data[,1:7], normalize))
summary(iris_norm)
dim(iris_norm)
data<-cbind(iris_norm,data[,8])
dim(data)
names(data)[8]='degree'

##支持向量机
library(e1071)
set.seed(5)
n=nrow(data)
idx<-sample(1:n,size=round(n/3),replace=F,prob=rep(1/n,n))
traindata=data[-idx,]
testdata=data[idx,]
mymodel<-svm(traindata$degree~.,data=traindata,method="C-classification",kernel="radial",cost=10,gamma=0.1)
#plot(mymodel,data,Petal.Width~Petal.Length,slice=list(Sepal.Width=3,Sepal.Length=4))
pre=predict(mymodel,testdata,type='class')
z0<-table(testdata$degree,pre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#朴素贝叶斯分类
library(e1071) #导入包e1071
mybeyes=naiveBayes(traindata$degree~.,traindata) #用训练集naiveBayes进行建模
pre.forest<-predict(mybeyes,testdata)
z0<-table(testdata$degree,pre.forest)#用测试集进行精度验证
#table(data$degree,predict(mybeyes,data))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

#人工神经网络
library(nnet) #导入包nnet
#用nnet进行建模,其中linout线性输出单元开关,decay表明权值是递减的,最大迭代次数是1000
mynnet=nnet(traindata$degree~.,linout=F,size=10,decay=0.001,maxit=100,trace=F,data=traindata)
mypre=predict(mynnet,testdata,type='class')
z0<-table(testdata$degree,mypre)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#决策树
library(party) #导入party包
myctree=ctree(traindata$degree~.,traindata)
pre.forest<-predict(myctree,traindata)
table(pre.forest,traindata$degree)
#myctree=ctree(data$degree~.,data)#用iris数据集建立模型
#table(data$degree,predict(myctree)) #分类结果表
#plot(myctree,type = "simple") 

#C5.0算法
library(C50)
set.seed(10)
summary(testdata)
train<-na.omit(traindata)
ls('package:C50')
tc<-C5.0Control(subset =F,CF=0.25,winnow=F,noGlobalPruning=F,minCases =10)
model <- C5.0(traindata$degree ~.,data=traindata,rules=F,control =tc)
pre.forest<-predict(model,traindata)
z0<-table(traindata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0
plot(model)
C5imp(model)


#随机森林
library(randomForest)
model.forest<-randomForest(traindata$degree~.,data = traindata)
pre.forest<-predict(model.forest,testdata)
z0<-table(testdata$degree,pre.forest)
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0


#n=nrow(iris)
#idx<-sample(1:n,size=round(n/3),replace=T,prob=rep(1/n,n))
#traindata=iris[-idx,]
#testdata=iris[idx,]
#model.forest<-randomForest(Species~.,data = traindata)
#pre.forest<-predict(model.forest,testdata)
#table(pre.forest,testdata$Species)

#K-最近邻算法
library(kknn)
summary(traindata)
summary(testdata)
myknn=kknn(traindata$degree~.,traindata,traindata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(traindata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

myknn=kknn(traindata$degree~.,traindata,testdata,distance=1,kernel="triangular",k=8)
fit<-fitted(myknn)
z0<-table(testdata$degree,predict(myknn))
z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
1-E0

pcol=as.character(as.numeric(testdata$degree))
plot(testdata[1:3],pch=pcol,col=c("green","red")[(testdata$degree!=predict(myknn))+1])


#adaboost分类算法的实现
library(adabag)
model_adaboost<-boosting(degree~.,data = traindata)
z0<-table(testdata[,17],predict(model_adaboost,testdata)$class)
z0#输出z0
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0

barplot(model_adaboost$importance)#画出变量重要性图
b<-errorevol(model_adaboost,testdata)#计算全体的误差演变
plot(b$error,type="l",main="AdaBoost error vs number of trees")#对误差演变进行画图
#上图可以得知,在第七次迭代后误差率就达到零了,实现预测零误差率


#bagging分类模型的建立
model_bagging<-bagging(degree~.,data=traindata)
z0<-table(testdata[,17],predict(model_bagging,testdata)$class)
z0#查看模型的预测结果
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算误差率
1-E0
barplot(model_bagging$importance)#画出变量重要性图

#对adaboosting和bagging模型做5折交叉验证,这里仅给出训练集和测试集的分类平均误差率
set.seed(1044)
samp<-c(sample(1:47,24),sample(48:230,24)) #进行随机抽样
#adaboosting分类模型
a<-boosting(degree~.,data=data[samp,]) #利用训练集建立adaboost分类模
z0<-table(data[samp,8],predict(a,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,8],predict(a,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1
#bagging分类模型
b=bagging(degree~.,data=data[samp,])  #利用训练集建立bagging分类模型
z0<-table(data[samp,6],predict(b,data[samp,])$class)#查看训练集的预测结果
z0
z1<-table(data[-samp,6],predict(b,data[-samp,])$class)#查看测试集的预测结果
z1
E0<-(sum(z0)-sum(diag(z0)))/sum(z0)#计算训练集误差率
E0
E1<-(sum(z1)-sum(diag(z1)))/sum(z1)#计算测试集误差率
E1


#线性判别分类
library(MASS)
#使用MASS包的lda函数实现线性判别。lda函数以Bayes判别思想为基础。
#当分类只有两种且总体服从多元正态分布条件下,Bayes判别与Fisher判别、距离判别是等价的。
#其中的prior参数表示先验概率
model1<-lda(data$degree~.,data=data,prior=c(1,1,1,1,1)/5)
#当不同类样本的协方差矩阵不同时,则应该使用二次判别
#这里将CV参数设置为T,是使用留一交叉检验(leave-one-out cross-validation),并自动生成预测值
table(data$degree,predict(model1)$class)

ld<-predict(model1)$x
p=ggplot(cbind(data,as.data.frame(ld)),aes(x=LD1,y=LD2))
p+geom_point(aes(colour=degree),alpha=0.8,size=3)

  

转载于:https://www.cnblogs.com/ltolstar/p/7417066.html

你可能感兴趣的:(各种分类算法的R语言实现)