朴素贝叶斯分类器,在当给出了特征向量w情况下,分类为ci的条件概率p(ci | w)。
利用贝叶斯公式:p(ci | w) = p(w | ci) * p(ci) / p(w),可以完成转化,观察公式可以发现分母p(w)都一样,所以只要比较分子的大小即可。
其中,p(ci)概率很容易求出;而对于条件概率p(w | ci),利用假设各个特征之间相互独立,因此,由w = {w1, w2, …, wn),即可以得出p(w | ci) = p(w1 | ci) * p(w2 | ci) * … * p(wn | ci),这也是朴素贝叶斯中“朴素”的意义。
利用python中的NumPy实现起来很简单,但是要注意的是这里为了防止下溢出(乘积较小)的情况发生,这里需要改为求log(p(ci | w))。
# coding=utf-8
# python 2.7
# 朴素贝叶斯分类器实现
from numpy import *
def loadDataSet():
postingList = [['my', 'dog', 'has', 'flea', \
'problems', 'help', 'please'],
['maybe', 'not', 'take', 'him', \
'to', 'dog', 'park', 'stupid'],
['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
['stop', 'posting', 'stupid', 'worthless', 'garbage'],
['mr', 'licks', 'ate', 'my', 'steak', 'how', \
'to', 'stop', 'him'],
['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
classVec = [0, 1, 0, 1, 0, 1]
return postingList, classVec
def createVocabList(dataSet):
vacabList = set([])
for doc in dataSet:
vacabList = vacabList | set(doc) # 集合求并集运算
return list(vacabList) # 注意要转化成列表
# 将文章转化成词向量
def wordToVec(list, doc):
vec = [0] * len(list)
for word in doc:
if word in list:
vec[list.index(word)] = 1
else :
print 'thr word: %s is not in my vocabulary!' % word
return vec
# 训练函数,通过贝叶斯公式计算出特征概率向量
def trainNB(mat, cate):
docNum = len(mat)
wordNum = len(mat[0])
pAb = sum(cate) * 1.0 / docNum
p1Vec = ones(wordNum); p0Vec = ones(wordNum) # 对数转化处理
p1Denom = 2.0; p0Denom = 2.0
for i in range(docNum):
if cate[i] == 1:
p1Vec += mat[i]
p1Denom += sum(mat[i])
else :
p0Vec += mat[i]
p0Denom += sum(mat[i])
p1Vec = log(p1Vec / p1Denom) # 对数转化处理
p0Vec = log(p0Vec / p0Denom)
return p0Vec, p1Vec, pAb # p0Vec是特征在0分类下的概率向量,p1Vec是特征在1分类下的概率向量,pAb是取得1分类的概率
# 分类函数
def classfyNB(testVec, p0Vec, p1Vec, pAb):
p0 = sum(testVec * p0Vec) + log(1 - pAb) # 这里sum(testVec * p0Vec)可以理解为p0Vec中出现的特征对数求和,也就是取对数之前的求乘积
p1 = sum(testVec * p1Vec) + log(pAb)
if p0 > p1:
return 0
else:
return 1
def testingNB():
postData, listClasses = loadDataSet()
vocabList = createVocabList(postData)
trainMat = []
for doc in postData:
trainMat.append(wordToVec(vocabList, doc))
p0Vec, p1Vec, pAb = trainNB(trainMat, listClasses)
doc = ['love', 'my', 'dalmation']
testVec = array(wordToVec(vocabList, doc))
print doc, 'classfied as: ', classfyNB(testVec, p0Vec, p1Vec, pAb)
doc = ['stupid', 'garbage']
testVec = array(wordToVec(vocabList, doc))
print doc, 'classfied as: ', classfyNB(testVec, p0Vec, p1Vec, pAb)
testingNB()