朴素贝叶斯·浅辄

我们都知道有一类他们的人生轨迹是这样的:

      生物学  ||  生物信息学   ||   机器学习   ||   人工智能

看看
知道自己在什么位置了吧?
向贝叶斯靠近的第一步就是去了解他,然后就是安装R(当然Python也完全可以胜任)。
本文R代码已经亲测有效了。

来来来,坐坐坐,听王先生讲讲贝叶斯。

分类

主要内容:

  • 了解分类
  • 朴素贝叶斯分类(Naïve Bayes classifier)
  • ROC曲线
  • 随机森林分类R实现(Random Forest)

1 分类综述

分类是逻辑的基础

资料来源

  • 分类,是指按照种类、等级或性质分别归类。
根据特征判断类别
  • 帅气?性格?上进心?身高?-----嫁(YES/NO)

  • 体温?脸色?喉咙?咳嗽?--------感冒类型

  • 数学表达


    朴素贝叶斯·浅辄_第1张图片
    分类表达
  • 贝叶斯分类:以贝叶斯定理为基础
公式
朴素贝叶斯·浅辄_第2张图片
贝叶斯公式

2 朴素贝叶斯

朴素 : 各特征变量之间相互独立; 贝叶斯 : 分类思想依据贝叶斯公式

3 分类流程

朴素贝叶斯·浅辄_第3张图片
分类器步骤.png
朴素贝叶斯·浅辄_第4张图片
朴素贝叶斯.png
  • Laplace校准

    由于数据的稀疏性, 当某个类别下某个特征项划分没有出现时,就是产生这种现象,这会令分类器质量大大降低。为了解决这个问题,我们引入Laplace校准,它的思想非常简单,就是对没类别下所有划分的计数加1,这样如果训练样本集数量充分大时,并不会对结果产生影响,并且解决了上述频率为0的尴尬局面。

资料来源

.libPaths("E:/Rstudio/R_packages")
library(mlbench)
data(PimaIndiansDiabetes2)
#类变量必须是因子型变量

#数据探索和缺失值探索
data <- PimaIndiansDiabetes2
str(data)
sum(complete.cases(data))
table(data$diabetes)
prop.table(table(data$diabetes))

#数据准备
library(e1071)
ind <- sample(2,nrow(PimaIndiansDiabetes2),replace=TRUE,prob=c(0.7,0.3))
train <- data[ind == 1, ]
test <- data[ind == 2, ]

#分类器构建和应用
classifier <- naiveBayes(diabetes~., data = train, laplace=0.1)
#mean(train[train$diabetes=="neg", ]$age)
#sd(train[train$diabetes=="neg", ]$age)
pred1 <- predict(classifier, test)
pred2 <- predict(classifier, test, type = "raw")

#查看错误率
a <- table(test$diabetes, pred1)
(sum(a) - sum(diag(a)))/sum(a)
#b <- paste0(round((sum(a) - sum(diag(a)))*100/sum(a), 2), "%")

#模型评估1
library(gmodels)
CrossTable(test$diabetes, pred1, prop.r = F, prop.c=F, prop.t=T, prop.chisq = F)

#ROC曲线评估2
library(ROCR)
pred <- prediction(predictions = pred2[,2], labels = test$diabetes)
perf <- performance(pred, measure = "tpr", x.measure = "fpr")
plot(perf,main="ROC curve", col = "blue", lwd = 3)

#ROC曲线评估3
library(pROC)
pre <- predict(classifier, test, type = "raw")
modelroc <- roc(test$diabetes, pre[,1])
plot(modelroc, print.auc = T, auc.polygon=T, grid=c(0.1,0.1),
     grid.col=c("red", "red"), max.auc.polygon=T,
     auc.polygon.col="skyblue", print.thres=T)

4 ROC

ROC曲线(receiver operating characteristic)是一种对于灵敏度进行描述的功能图像。ROC曲线可以通过描述真阳性率(TPR)和假阳性率(FPR)来实现。由于是通过比较两个操作特征(TPR和FPR)作为标准,ROC曲线也叫做相关操作特征曲线。

朴素贝叶斯·浅辄_第5张图片
roc.png

针对预测值和真实值之间的关系,我们可以将样本分为四个部分,分别是:

​ 真正例(True Positive,TP):预测值和真实值都为1

​ 假正例(False Positive,FP):预测值为1,真实值为0

​ 真负例(True Negative,TN):预测值与真实值都为0

​ 假负例(False Negative,FN):预测值为0,真实值为1


朴素贝叶斯·浅辄_第6张图片
ROC_metrix.png

就着这个图大家在重温一下,曹先生的:假作真时真亦假,无为有处有还无

下面引入两个衡量分类的指标:

真阳性率(TPR): TPR = TP / P = TP / (TP+FN) ---------------灵敏度(sensitivity)

假阳性率(FPR): FPR = FP / N = FP / (FP + TN) -----------1-特异度(1-specificity)

朴素贝叶斯·浅辄_第7张图片
ROC1.png

不难看出,灵敏度与特异度是一张一弛,相互牵扯的。
准确度(ACC) :ACC = (TP + TN) / (P + N)
即:(猜对为阳性+猜对为阴性) / 总样本数

特征 (SPC) 或者真阴性率 :SPC = TN / N = TN / (FP + TN) = 1 - FPR

阳性预测值(PPV) :PPV = TP / (TP + FP)

阴性预测值(NPV) :NPV = TN / (TN + FN)

假发现率 (FDR) :FDR = FP / (FP + TP)


朴素贝叶斯·浅辄_第8张图片
ROC_AUC
  • 分类器-分馏器 类别因子-化学物质 特征变量-化学性质

5 应用

  • 文本过滤:垃圾短信分类、新闻内容分类、广告分类
  • 发酵异常;肠道健康;土壤类型;油田探测

6 随机森林分类

资料来源

.libPaths("E:/Rstudio/R_packages")
library(randomForest)
#数据清理:去除NA的观测样本
data1 <- data[complete.cases(data),]
str(data1)
#数据准备
ind1 <- sample(2,nrow(data1),replace=TRUE,prob=c(0.7,0.3))
train1 <- data1[ind1 == 1, ]
test1 <- data1[ind1 == 2, ]
#分类器构建和应用
rf <- randomForest(diabetes ~ ., data=train1, importance=TRUE,proximity=TRUE)
importance(rf) #变量重要性
varImpPlot(rf)
MDSplot(rf, fac=train1$diabetes, k=2)

rfpre <-  predict(rf, test1, type = "prob")
#分类器评价(ROC曲线)
rfroc <- roc(test1$diabetes, rfpre[,2])
plot(rfroc, print.auc = T, auc.polygon=T, grid=c(0.1,0.1),
     grid.col=c("red", "red"), max.auc.polygon=T,
     auc.polygon.col="skyblue", print.thres=F)

你可能感兴趣的:(朴素贝叶斯·浅辄)