贝叶斯分类算法是统计学中的一种概率分类方法,朴素贝叶斯分类是贝叶斯分类中最简单的一种。其分类原理就是利用贝叶斯公式根据某特征的先验概率计算出其后验概率,然后选择具有最大后验概率作为该特征所属的类。
之所以称之为“朴素”,是因为贝叶斯分类只做最原始、最简单的假设:所有的特征之间是相对独立的。
假设X有x1,x2,…xn个特征,P(x) = P(x1)P(x2)…P(xn)
假设有A,B两个事件,在B事件发生的条件下,A事件发生的概率。
P ( A ∣ B ) = P ( A B ) P ( A ) P(A|B)=\frac{P(AB)}{P(A)} P(A∣B)=P(A)P(AB)
考察在每一种情况下事件A发生的概率,计算A的概率。
P ( B ) = ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(B)=\sum_{i=1}^{n} P(A_{i} )P(B|A_{i} ) P(B)=i=1∑nP(Ai)P(B∣Ai)
公式表示若事件A1,A2,…,An构成一个完备事件组且都有正概率,则对任意一个事件B都有公式成立。
在事件A发生的条件下,考察每种情况出现的条件概率
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ∣ A ) P ( A ) + P ( B ∣ A ′ P ( A ′ ) ) P(A|B)=\frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A^{'} P(A^{'} ))} P(A∣B)=P(B∣A)P(A)+P(B∣A′P(A′))P(B∣A)P(A)
其中样本空间由A和A’组成。
由条件概率公式:
P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A)=\frac{P(AB)}{P(A)} P(B∣A)=P(A)P(AB)
可以推导出:
P ( A B ) = P ( B ∣ A ) P ( A ) P(AB)=P(B|A)P(A) P(AB)=P(B∣A)P(A)
同理可得:
P ( A B ) = P ( A ∣ B ) P ( B ) P(AB)=P(A|B)P(B) P(AB)=P(A∣B)P(B)
由于(5)和(6)相等:
P ( B ∣ A ) P ( A ) = P ( A ∣ B ) P ( B ) P(B|A)P(A)=P(A|B)P(B) P(B∣A)P(A)=P(A∣B)P(B)
可以推出贝叶斯公式:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
P(A):为先验概率,即在B事件发生之前,对A事件发生概率的预判。
P(A|B):为后验概率,即在B事件发生之后,对A事件发生概率的重新评估。
P(B|A)/P(B):为可能性函数,是一个调整因子,使得预估概率更加接近真实概率。
所以贝叶斯公式可以表示为:后验概率=先验概率 * 调整因子
如果调整因子>1,则表示先验概率被增强,事件A发生的可能性变大。
如果调整因子=1,则表示事件B对判断事件A发生的概率没有帮助。
如果调整因子<1,则表示先验概率被削弱,事件A发生的可能性变小。
y = a r g m a x P ( y ) ∏ i = 1 n P ( x i ∣ y ) y = argmaxP(y)\prod_{i=1}^{n} P(x_{i} |y) y=argmaxP(y)i=1∏nP(xi∣y)
已知某人的出行记录和气象记录,来预判这个人是否会出行。
天气 | 温度 | 湿度 | 风 | 是否出门 |
---|---|---|---|---|
雨天 | 热 | 高 | 有风 | 出门 |
晴天 | 凉 | 低 | 有风 | 出门 |
雨天 | 适中 | 低 | 无风 | 不出门 |
雨天 | 凉 | 高 | 有风 | 不出门 |
晴天 | 热 | 适中 | 无风 | 出门 |
晴天 | 热 | 高 | 有风 | 不出门 |
由上述表格可知,类别一共有两个:出门和不出门。特征一共有四个:天气、温度、湿度和风。
根据朴素贝叶斯模型:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(A∣B)=P(B)P(B∣A)P(A)
对朴素贝叶斯进行优化:
P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P(A|B)=P(B|A)P(A) P(A∣B)=P(B∣A)P(A)
将案例转换成分类任务的表达式:
P ( 类 别 ∣ 特 征 ) = P ( 类 别 ) P ( 特 征 ∣ 类 别 ) P(类别|特征)=P(类别){P(特征|类别)} P(类别∣特征)=P(类别)P(特征∣类别)
我们来预测一下在雨天、热、湿度高、无风的情况下,这个人是否出门。
通过(11)中的表达式可以得出:
P ( 出 门 ∣ 雨 天 / 热 / 高 / 无 风 ) = P ( 出 门 ) P ( 雨 天 ∣ 出 门 ) P ( 热 ∣ 出 门 ) P ( 高 ∣ 出 门 ) P ( 无 风 ∣ 出 门 ) P(出门|雨天/ 热/ 高/ 无风)=P(出门){P(雨天|出门)P(热|出门)P(高|出门)P(无风|出门)} P(出门∣雨天/热/高/无风)=P(出门)P(雨天∣出门)P(热∣出门)P(高∣出门)P(无风∣出门)
P ( 不 出 门 ∣ 雨 天 / 热 / 高 / 无 风 ) = P ( 不 出 门 ) P ( 雨 天 ∣ 不 出 门 ) P ( 热 ∣ 不 出 门 ) P ( 高 ∣ 不 出 门 ) P ( 无 风 ∣ 不 出 门 ) P(不出门|雨天/ 热/ 高/ 无风)=P(不出门){P(雨天|不出门)P(热|不出门)P(高|不出门)P(无风|不出门)} P(不出门∣雨天/热/高/无风)=P(不出门)P(雨天∣不出门)P(热∣不出门)P(高∣不出门)P(无风∣不出门)
根据表格可知:
P(出门)=0.5
P(不出门)=0.5
P(雨天|不出门)P(热|不出门)P(高|不出门)P(无风|不出门)=4/81
P(雨天|出门)P(热|出门)P(高|出门)P(无风|出门)=2/81
最终可得出:
P(出门|雨天/ 热/ 高/ 无风)=1/81
P(不出门|雨天/ 热/ 高/ 无风)=2/81
最大后验概率为:P(不出门|雨天/ 热/ 高/ 无风)
可以得出结论:在雨天、热、湿度高、无风的天气状况下,这个人不会出门。
在处理连续数据的分类时,我们通常选用高斯朴素贝叶斯算法。Gaussian NB就是先验概率为高斯分布的朴素贝叶斯。假设每一个特征的数据都服从高斯分布。
P ( X j = x j ∣ Y = C k ) = 1 2 π σ 2 e ( − ( x j − μ k ) 2 2 σ k 2 ) P(X_{j} =x_{j} |Y=C_{k} )=\frac{1}{\sqrt{2\pi \sigma ^{2} } } e^{(-\frac{(x_{j} -\mu _{k} )^{2} }{2\sigma _{k} ^{2} } )} P(Xj=xj∣Y=Ck)=2πσ21e(−2σk2(xj−μk)2)
其中,Ck是Y的第k个类别,μ和σ为训练集的均值和标准差。
多项式朴素贝叶斯就是先验概率为多项式分布的朴素贝叶斯。假设特征是由一个简单多项式分布生成的。多项式分布可以描述各种类型样本出现次数的概率,因此多项式朴素贝叶斯非常适合用于描述出现次数或者出现次数比例的特征。该模型常用于文本分类,特征值表示的是次数。公式如下:
P ( X j = x j l ∣ Y = C k ) = x j l + λ m k + n λ P(X_{j}=x_{jl} |Y=C_{k} )=\frac{x_{jl}+\lambda }{m_{k}+n\lambda } P(Xj=xjl∣Y=Ck)=mk+nλxjl+λ
其中,p(Xj=xjl|Y=Ck)是第k个类别的第j维特征的第l个取值的条件概率。mk是训练集中输出为第k类的样本个数。 n为数据的维度,λ是一个大于0的常数,当λ=1是,为拉普拉斯平滑。
伯努利朴素贝叶斯就是先验概率为伯努利分布的朴素贝叶斯。假设特征的先验概率为二元博独立分布。
P ( X j = x j l ∣ Y = C k ) = x j l + λ m k + 2 λ P(X_{j}=x_{jl} |Y=C_{k} )=\frac{x_{jl}+\lambda }{m_{k}+2\lambda } P(Xj=xjl∣Y=Ck)=mk+2λxjl+λ
在伯努利模型中,每个特征的取值只有True和False。在文本分类中,就是一个特征有没有出现在一个文档中。
在某个分类下, 为防止训练集中某个特征值和某个类别未同时出现过,导致预测概率为0。所以需要进行平滑处理 。当平滑系数为1时,为拉普拉斯平滑。
一般来说,如果样本特征的分布大部分是连续值,使用高斯朴素贝叶斯会比较好。
如果样本特征的分布大部分是多元离散值,使用多项式朴素贝叶斯比较合适。
如果样本特征是二元离散值或者很稀疏的多元离散值,应该使用伯努利朴素贝叶斯比较合适。
import numpy as np
import pandas as pd
import random
dataSet =pd.read_csv('iris.txt',header = None)
dataSet.head()
def randSplit(dataSet, rate):
l = list(dataSet.index) #提取出索引
random.shuffle(l) #随机打乱索引
dataSet.index = l #将打乱后的索引重新赋值给原数据集
n = dataSet.shape[0] #总行数
m = int(n * rate) #训练集的数量
train = dataSet.loc[range(m), :] #提取前m个记录作为训练集
test = dataSet.loc[range(m, n), :] #剩下的作为测试集
dataSet.index = range(dataSet.shape[0]) #更新原数据集的索引
test.index = range(test.shape[0]) #更新测试集的索引
return train, test
def gnb_classify(train,test):
labels = train.iloc[:,-1].value_counts().index #提取训练集的标签种类
mean =[] #存放每个类别的均值
std =[] #存放每个类别的方差
result = [] #存放测试集的预测结果
for i in labels:
item = train.loc[train.iloc[:,-1]==i,:] #分别提取出每一种类别
m = item.iloc[:,:-1].mean() #当前类别的平均值
s = np.sum((item.iloc[:,:-1]-m)**2)/(item.shape[0]) #当前类别的方差
mean.append(m) #将当前类别的平均值追加至列表
std.append(s) #将当前类别的方差追加至列表
means = pd.DataFrame(mean,index=labels) #变成DF格式,索引为类标签
stds = pd.DataFrame(std,index=labels) #变成DF格式,索引为类标签
for j in range(test.shape[0]):
iset = test.iloc[j,:-1].tolist() #当前测试实例
iprob = np.exp(-1*(iset-means)**2/(stds*2))/(np.sqrt(2*np.pi*stds)) #正态分布公式
prob = 1 #初始化当前实例总概率
for k in range(test.shape[1]-1): #遍历每个特征
prob *= iprob[k] #特征概率之积即为当前实例概率
cla = prob.index[np.argmax(prob.values)] #返回最大概率的类别
result.append(cla)
test['predict']=result
acc = (test.iloc[:,-1]==test.iloc[:,-2]).mean() #计算预测准确率
print(f'模型预测准确率为{acc}')
return test
for i in range(20):#测试20次,对比测试成功的概率
train,test = randSplit(dataSet,0.8)
gnb_classify(train,test)
import numpy as np
def loadDataSet():
dataSet=[['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
['maybe', 'not', 'take', 'him', 'to', 'dog', 'park', 'stupid'],
['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
['stop', 'posting', 'stupid', 'worthless', 'garbage'],
['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']] #切分好的词条
classVec = [0,1,0,1,0,1] #类别标签向量,1代表侮辱性词汇,0代表非侮辱性词汇
return dataSet,classVec
利用Python中的set集合特性,将词条中重复的词去掉,创建无词汇重复的词汇表。
def createVocabList(dataSet):
vocabSet = set() #创建一个空的集合
for doc in dataSet: #遍历dataSet中的每一条言论
vocabSet = vocabSet | set(doc) #取并集
vocabList = list(vocabSet)
return vocabList
根据vocabList词汇表,将inputSet向量化,向量的每个元素为1或0.
参数说明:
vocabList:词汇表
inputSet:切分好的词条列表中的一天
返回:
returnVec:文档向量
def setOfWords2Vec(vocabList, inputSet):
returnVec = [0] * len(vocabList) #创建一个其中所含元素都为0的向量
for word in inputSet: #遍历每个词条
if word in vocabList: #如果词条存在于词汇表中,则变为1
returnVec[vocabList.index(word)] = 1
else:
print(f" {word} is not in my Vocabulary!" )
return returnVec #返回文档向量
参数说明:
dataSet:切分好的词条
返回:
trainMat:所有的词条向量组成的表
def get_trainMat(dataSet):
trainMat = [] #初始化向量列表
vocabList = createVocabList(dataSet) #生成词汇表
for inputSet in dataSet: #遍历样本词条中的每一条样本
returnVec=setOfWords2Vec(vocabList, inputSet) #将当前词条向量化
trainMat.append(returnVec) #追加到向量列表中
return trainMat
参数说明:
trainMat:训练文本矩阵
classVec:训练类别标签向量
返回:
p0V:非侮辱类的条件概率数组
p1V:侮辱类的条件概率数组
pAb:文档属于侮辱类的概率(侮辱类的先验概率)
def trainNB(trainMat,classVec):
n = len(trainMat) #计算训练的文档数目
m = len(trainMat[0]) #计算每篇文档的词条数
pAb = sum(classVec)/n #文档属于侮辱类的概率
p0Num = np.ones(m) #词条出现数初始化为1
p1Num = np.ones(m) #词条出现数初始化为1
p0Denom = 2 #分母初始化为2
p1Denom = 2 #分母初始化为2
for i in range(n): #遍历每一个文档
if classVec[i] == 1: #统计属于侮辱类的条件概率所需的数据
p1Num += trainMat[i]
p1Denom += sum(trainMat[i])
else: #统计属于非侮辱类的条件概率所需的数据
p0Num += trainMat[i]
p0Denom += sum(trainMat[i])
p1V = np.log(p1Num/p1Denom)
p0V = np.log(p0Num/p0Denom)
return p0V,p1V,pAb #返回属于非侮辱类,侮辱类和文档属于侮辱类的概率
参数说明:
vec2Classify:待分类的词条数组
p0V:非侮辱类的条件概率数组
p1V:侮辱类的条件概率数组
pAb:文档属于侮辱类的概率(侮辱类的先验概率)
返回:
0:非侮辱类
1:侮辱类
def classifyNB(vec2Classify, p0V, p1V, pAb):
p1 = sum(vec2Classify * p1V) + np.log(pAb) #对应元素相乘
p0 = sum(vec2Classify * p0V) + np.log(1- pAb) #对应元素相乘
if p1 > p0:
return 1
else:
return 0
参数说明:
testVec:测试样本
返回:
测试样本的类别
def testingNB(testVec):
dataSet,classVec = loadDataSet() #创建实验样本
vocabList = createVocabList(dataSet) #创建词汇表
trainMat= get_trainMat(dataSet) #将实验样本向量化
p0V,p1V,pAb = trainNB(trainMat,classVec) #训练朴素贝叶斯分类器
thisone = setOfWords2Vec(vocabList, testVec) #测试样本向量化
if classifyNB(thisone,p0V,p1V,pAb)==1:
print(testVec,'属于侮辱类') #执行分类并打印分类结果
else:
print(testVec,'属于非侮辱类') #执行分类并打印分类结果
测试样本1
testVec1 = ['love', 'my', 'dalmation']
testingNB(testVec1)
测试样本2
testVec2 = ['stupid', 'garbage']
testingNB(testVec2)
多项式朴素贝叶斯也是多用于文本处理,其原理和计算的流程和伯努利朴素贝叶斯基本一致,唯一的区别在于单词的计数方式, 在文本处理的环节中,我们将单词是否出现在词组作为特征,但在多项式朴素贝叶斯中,我们将单词在词组中出现的次数作为特征,因此只需要更改setOfWords2Vec的函数即可,变成如下方式:
def bagOfWords2VecMN(vocabList, inputSet):
returnVec = [0] * len(vocabList)
for word in inputSet:
if word in vocabList:
returnVec[vocabList.index(word)] += 1#单词在单词表中每出现一次,则加1
return returnVec