机器学习实战笔记 3)贝叶斯分类器:实战篇

引言

这篇文章主要是贝叶斯分类器的实战篇,主要讲的是朴素贝叶斯分类器。

朴素贝叶斯分类器

回顾上篇文章,我们知道直接基于贝叶斯分类会比较麻烦,因为我们必须要估计类条件概率。首先我们要假定其具有某种确定的概率分布模型,然后再使用极大似然法来估计其参数。所以在实践中,我们经常增加限制条件:样本的每个属性之间都是独立的,从而使用朴素贝叶斯分类器。从而对类条件概率的估计如下所示:

从而贝叶斯的判定准则为:

这些都是对上篇文章的简单回顾,接下来我们来看看,我们怎么用程序实现。

我们将使用朴素贝叶斯分类器对BBS中的帖子进行过滤。我们的目标在于使用贝叶斯分类器将帖子分成侮辱类帖子和非侮辱类帖子。我们样本的特征就是帖子中的文字。下面我们来构造一个demo数据,代码如下:

def loadDataSet():
    postingList = [['my', 'dog', 'has', 'flea', 'problems', 'help', 'please'],
    ['maybe', 'not', 'take', 'him', 'dog','park','stupid'],
    ['my', 'dalmation', 'is', 'so', 'cute', 'I', 'love', 'him'],
    ['stop', 'posting', 'stupid', 'worthless', 'garbage'],
    ['mr', 'licks', 'ate', 'my', 'steak', 'how', 'to', 'stop', 'him'],
    ['quit','buying', 'worthless', 'dog', 'food', 'stupid']]

    classVec = [0,1,0,1,0,1]  #1:带侮辱性帖子; 0:正常的帖子
    return postingList, classVec

接下来我们写一个帮助函数,它生成所有帖子中出现词的集合,代码如下:

def createVocabList(dataSet):
    vocabSet = set([])
    for document in dataSet:
        vocabSet = vocabSet|set(document)
    return list(vocabSet)

接下来,我们需要知道一个帖子中,各个词在词集出现的是否出现。如果出现,则用1表示,如果不出现,则用0表示。在这里,我做了一个简化,即如果词多次出现,也只记为1,代码如下:

def setOfWords2Vec(vocabList, inputSet):
    returnVec = [0]*len(vocabList)
    for word in inputSet:
        if word in vocabList:
            returnVec[vocabList.index(word)] = 1
        else:
            print 'word:  %s is not in my vocabbulary!' %word
    return returnVec

现在我们这些前期的帮助函数已经写完,现在正式进入算法的核心部分了。首先是训练代码,为了更好的理解算法流程,我们先来看看训练代码的伪代码:

 计算每个类别中帖子的数目
 对每篇训练文档:
        对每个类别:
              如果词条出现在帖子中->增加该词条的计数值
              增加所有词条的计数值
      对每个类别:
            对每个词条:
                  将词条的数目除以总词条数目得到条件概率
 返回每个类别的条件概率

从上面的伪代码我们可以看到,训练过程主要是计算两种概率值,一种是p(c): 每种类别的类先验概率;另一种就是类条件概率:在每个类中,每个词条出现的概率。代码如下:

def trainNB0(trainMatrix, trainCategory):
 numTrainDoc = len(trainMatrix)
 numWords = len(trainMatrix[0])
 pAbusive = sum(trainCategory)/float(numTrainDoc)
 p0Num = np.ones(numWords)
 p1Num = np.ones(numWords)

 p0Denom = 2.0
 p1Denom = 2.0

 for i in range(numTrainDoc):
     if trainCategory[i] == 1:
         p1Num += trainMatrix[i]
         p1Denom += sum(trainMatrix[i])
     else:
        p0Num += trainMatrix[i]
        p0Denom += sum(trainMatrix[i])
 p1Vect = np.log(p1Num / p1Denom)
 p0Vect = np.log(p0Num / p0Denom)

 return p0Vect, p1Vect, pAbusive

其中,返回值p0Vect 和p1Vect表示类条件概率,而pAbusive表示类先验概率。由于只要两类,两种类先验概率之和为1,所以类先验概率值需要其中一种即可。

下面要讲的就是核心的测试代码了。代码如下:

def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):
    p1 = sum(vec2Classify*p1Vec) + np.log(pClass1)
    p2 = sum(vec2Classify*p0Vec) + np.log(1.-pClass1)
    if p1 > p2:
        return 1
    else:
        return 0

注意: 由于概率连乘容易导致下溢,所有我们习惯上把它们转换为log函数计算。

下面的测试的完整代码:

def testingNB():
    listPosts, listClasses = loadDataSet()
    myVocabList = createVocabList(listPosts)
    trainMat = []
    for postInDoc in listPosts:
        trainMat.append(setOfWords2Vec(myVocabList, postInDoc))
    p0V, p1V, pAb = trainNB0(trainMat, listClasses)
    testEntry = ['love', 'my', 'dalmation']
    thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)
    testEntry = ['stupid', 'garbage']
    thisDoc = np.array(setOfWords2Vec(myVocabList, testEntry))
    print testEntry, 'classified as: ', classifyNB(thisDoc, p0V, p1V, pAb)

测试的结果如下:

你可能感兴趣的:(机器学习实战笔记 3)贝叶斯分类器:实战篇)