朴素贝叶斯分类器(Python实现)

基本思想:

朴素贝叶斯分类器,在当给出了特征向量w情况下,分类为ci的条件概率p(ci | w)。
利用贝叶斯公式:p(ci | w) = p(w | ci) * p(ci) / p(w),可以完成转化,观察公式可以发现分母p(w)都一样,所以只要比较分子的大小即可。
其中,p(ci)概率很容易求出;而对于条件概率p(w | ci),利用假设各个特征之间相互独立,因此,由w = {w1, w2, …, wn),即可以得出p(w | ci) = p(w1 | ci) * p(w2 | ci) * … * p(wn | ci),这也是朴素贝叶斯中“朴素”的意义。
利用python中的NumPy实现起来很简单,但是要注意的是这里为了防止下溢出(乘积较小)的情况发生,这里需要改为求log(p(ci | w))。

代码:

# coding=utf-8
# python 2.7
# 朴素贝叶斯分类器实现

from numpy import *

def loadDataSet():
    postingList = [['my', 'dog', 'has', 'flea', \
                   'problems', 'help', 'please'],
                   ['maybe', 'not', 'take', 'him', \
                    'to', 'dog', 'park', 'stupid'],
                   ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
                   ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
                   ['mr', 'licks', 'ate', 'my', 'steak', 'how', \
                    'to', 'stop', 'him'],
                   ['quit', 'buying', 'worthless', 'dog', 'food', 'stupid']]
    classVec = [0, 1, 0, 1, 0, 1]
    return  postingList, classVec

def createVocabList(dataSet):
    vacabList = set([])
    for doc in dataSet:
        vacabList = vacabList | set(doc)        # 集合求并集运算
    return list(vacabList)                      # 注意要转化成列表

# 将文章转化成词向量
def wordToVec(list, doc):
    vec = [0] * len(list)
    for word in doc:
        if word in list:
            vec[list.index(word)] = 1
        else :
            print 'thr word: %s is not in my vocabulary!' % word
    return vec

# 训练函数,通过贝叶斯公式计算出特征概率向量
def trainNB(mat, cate):
    docNum = len(mat)
    wordNum = len(mat[0])
    pAb = sum(cate) * 1.0 / docNum
    p1Vec = ones(wordNum); p0Vec = ones(wordNum)      # 对数转化处理
    p1Denom = 2.0; p0Denom = 2.0
    for i in range(docNum):
        if cate[i] == 1:
            p1Vec += mat[i]
            p1Denom += sum(mat[i])
        else :
            p0Vec += mat[i]
            p0Denom += sum(mat[i])
    p1Vec = log(p1Vec / p1Denom)        # 对数转化处理
    p0Vec = log(p0Vec / p0Denom)
    return  p0Vec, p1Vec, pAb           # p0Vec是特征在0分类下的概率向量,p1Vec是特征在1分类下的概率向量,pAb是取得1分类的概率

# 分类函数
def classfyNB(testVec, p0Vec, p1Vec, pAb):
    p0 = sum(testVec * p0Vec) + log(1 - pAb)        # 这里sum(testVec * p0Vec)可以理解为p0Vec中出现的特征对数求和,也就是取对数之前的求乘积
    p1 = sum(testVec * p1Vec) + log(pAb)
    if p0 > p1:
        return 0
    else:
        return 1

def testingNB():
    postData, listClasses = loadDataSet()
    vocabList = createVocabList(postData)
    trainMat = []
    for doc in postData:
        trainMat.append(wordToVec(vocabList, doc))
    p0Vec, p1Vec, pAb = trainNB(trainMat, listClasses)
    doc = ['love', 'my', 'dalmation']
    testVec = array(wordToVec(vocabList, doc))
    print doc, 'classfied as: ', classfyNB(testVec, p0Vec, p1Vec, pAb)
    doc = ['stupid', 'garbage']
    testVec = array(wordToVec(vocabList, doc))
    print doc, 'classfied as: ', classfyNB(testVec, p0Vec, p1Vec, pAb)

testingNB()

你可能感兴趣的:(朴素贝叶斯)