Python之机器学习日记02——朴素贝叶斯01

机器学习日记02——朴素贝叶斯01

朴素贝叶斯基础篇

(参考资料:liukn教授机器学习教程,网络课程)

一、 前言

朴素贝叶斯算法是有监督的学习算法,解决的是分类问题,如客户是否流失、是否值得投资、信用等级评定等多分类问题。该算法的优点在于简单易懂、学习效率高、在某些领域的分类问题中能够与决策树、神经网络相媲美。但由于该算法以自变量之间的独立(条件特征独立)性和连续变量的正态性假设为前提,就会导致算法精度在某种程度上受影响。

Python之机器学习日记02——朴素贝叶斯01_第1张图片
本篇文章将从朴素贝叶斯推断原理开始讲起,通过实例进行辅助讲解。最后,使用 Python3 编程实现一个简单的言论过滤器。如果对于代码理解不够的,可以结合本文,观看由南京航空航天大学硕士:深度眸,为大家免费录制的视频:

(1) 概率论与数理统计精讲视频:http://pan.baidu.com/s/1qXRM5u0 密码:aio9
(2)朴素贝叶斯视频:http://pan.baidu.com/s/1kUJjoCv 密码:b2wr
(3)视频交流群:ML 与 DL 视频分享群(678455658),欢迎提出宝贵意见。

二、朴素贝叶斯理论

朴素贝叶斯是贝叶斯决策理论的一部分,所以在讲述朴素贝叶斯之前有必要快速了解一下贝叶斯决策理论。

1. 贝叶斯决策理论

假设现在我们有一个数据集,它由两类数据组成,数据分布如下图所示:Python之机器学习日记02——朴素贝叶斯01_第2张图片
我们现在用 p1(x,y)表示数据点(x,y)属于类别 1(图中红色圆点表示的类别)的概率,用 p2(x,y)表示数据点(x,y)属于类别 2(图中蓝色三角形表示的类别)的概率,那么对于一个新数据点(x,y),可以用下面的规则来判断它的类别:
1.如果 p1(x,y) > p2(x,y),那么类别为 1
2. 如果 p1(x,y) < p2(x,y),那么类别为 2
也就是说,我们会选择高概率对应的类别。这就是贝叶斯决策理论的核心思想,即选择具有最高概率的决策。已经了解了贝叶斯决策理论的核心思想,那么接下来,就是学习如何计算 p1 和 p2 概率。

2.条件概率

在学习计算 p1 和 p2 概率之前,我们需要了解什么是条件概率(Condittional probability),就是指在事件 B 发生的情况下,事件 A 发生的概率,用 P(A|B)来表示。

Python之机器学习日记02——朴素贝叶斯01_第3张图片
根据文氏图,可以很清楚地看到在事件 B 发生的情况下,事件 A 发生的概率就是 P(A∩B)除以 P(B)。

Python之机器学习日记02——朴素贝叶斯01_第4张图片
因此,

在这里插入图片描述
同理可得,

在这里插入图片描述
所以,

在这里插入图片描述
Python之机器学习日记02——朴素贝叶斯01_第5张图片
这就是条件概率的计算公式。

3.全概率公式

除了条件概率以外,在计算 p1 和 p2 的时候,还要用到全概率公式,因此,这里继续推导全概率公式。

假定样本空间 S,是两个事件 A 与 A’的和。
Python之机器学习日记02——朴素贝叶斯01_第6张图片
上图中,红色部分是事件 A,绿色部分是事件 A’,它们共同构成了样本空间S。在这种情况下,事件 B 可以划分成两个部分。
Python之机器学习日记02——朴素贝叶斯01_第7张图片
在上一节的推导当中,我们已知
在这里插入图片描述

所以,
在这里插入图片描述
这就是全概率公式。它的含义是,如果 A 和 A’构成样本空间的一个划分,那么事件 B 的概率,就等于 A 和 A’的概率分别乘以 B 对这两个事件的条件概率之和。
将这个公式代入上一节的条件概率公式,就得到了条件概率的另一种写法:

Python之机器学习日记02——朴素贝叶斯01_第8张图片
4.贝叶斯推断

对条件概率公式进行变形,可以得到如下形式:

Python之机器学习日记02——朴素贝叶斯01_第9张图片
这就是贝叶斯推断的含义。我们先预估一个”先验概率”,然后加入实验结果,看这个实验到底是增强还是削弱了”先验概率”,由此得到更接近事实的”后验概率”。

在这里,如果”可能性函数”P(B|A)/P(B)>1,意味着”先验概率”被增强,事件 A的发生的可能性变大;如果”可能性数”=1,意味着 B 事件无助于判断事件 A 的可能性;如果”可能性函数”<1,意味着”先验概率”被削弱,事件 A 的可能性变小。

为了加深对贝叶斯推断的理解,我们一个例子。Python之机器学习日记02——朴素贝叶斯01_第10张图片
两个一模一样的碗,一号碗有 30 颗水果糖和 10 颗巧克力糖,二号碗有水果糖和巧克力糖各 20 颗。现在随机选择一个碗,从中摸出一颗糖,发现是水果糖。请问这颗水果糖来自一号碗的概率有多大?

我们假定,H1 表示一号碗,H2 表示二号碗。由于这两个碗是一样的,所以P(H1)=P(H2),也就是说,在取出水果糖之前,这两个碗被选中的概率相同。因此,P(H1)=0.5,我们把这个概率就叫做”先验概率”,即没有做实验之前,来自一号碗的概率是 0.5。再假定,E 表示水果糖,所以问题就变成了在已知 E 的情况下,来自一号碗的概率有多大,即求 P(H1|E)。我们把这个概率叫做”后验概率”,即在 E 事件发生之后,对 P(H1)的修正。根据条件概率公式,得到

Python之机器学习日记02——朴素贝叶斯01_第11张图片
这表明,来自一号碗的概率是 0.6。也就是说,取出水果糖之后,H1 事件的可能性得到了增强。

同时再思考一个问题,在使用该算法的时候,如果不需要知道具体的类别概率,即上面 P(H1|E)=0.6,只需要知道所属类别,即来自一号碗,我们有必要计算 P(E)这个全概率吗?要知道我们只需要比较 P(H1|E)和 P(H2|E)的大小,找到那个最大的概率就可以。既然如此,两者的分母都是相同的,那我们只需要比较分子即可。即比较 P(E|H1)P(H1)和 P(E|H2)P(H2)的大小,所以为了减少计算量,全概率公式在实际编程中可以不使用。

5.朴素贝叶斯推断

理解了贝叶斯推断,那么让我们继续看看朴素贝叶斯。贝叶斯和朴素贝叶斯的概念是不同的,区别就在于“朴素”二字,朴素贝叶斯对条件个概率分布做了条件独立性的假设。 比如下面的公式,假设有 n 个特征:

Python之机器学习日记02——朴素贝叶斯01_第12张图片
Python之机器学习日记02——朴素贝叶斯01_第13张图片
根据贝叶斯定理:

Python之机器学习日记02——朴素贝叶斯01_第14张图片

这就是贝叶斯分类器的基本方法:在统计资料的基础上,依据某些特征,计算各个类别的概率,从而实现分类。
同样,在编程的时候,如果不需要求出所属类别的具体概率,P(打喷嚏) = 0.5和 P(建筑工人) = 0.33 的概率是可以不用求的。

三、动手实战

说了这么多,没点实践编程怎么行?以在线社区留言为例。为了不影响社区的发展,我们要屏蔽侮辱性的言论,所以要构建一个快速过滤器,如果某条留言使用了负面或者侮辱性的语言,那么就将该留言标志为内容不当。过滤这类内容是一个很常见的需求。对此问题建立两个类型:侮辱类和非侮辱类,使用1 和 0 分别表示。我们把文本看成单词向量或者词条向量,也就是说将句子转换为向量。考虑出现所有文档中的单词,再决定将哪些单词纳入词汇表或者说所要的词汇集合,然后必须要将每一篇文档转换为词汇表上的向量。简单起见,我们先假设已经将本文切分完毕,存放到列表中,并对词汇向量进行分类标注。编写代码如下:

#= -- coding: UTF-8 --
“”"
函数说明:创建实验样本

Parameters:

Returns:
postingList - 实验样本切分的词条
classVec - 类别标签向量
“”"
Python之机器学习日记02——朴素贝叶斯01_第15张图片
从运行结果可以看出,我们已经将 postingList 是存放词条列表中,classVec 是存放每个词条的所属类别,1 代表侮辱类 ,0 代表非侮辱类。

Python之机器学习日记02——朴素贝叶斯01_第16张图片
继续编写代码,前面我们已经说过我们要先创建一个词汇表,并将切分好的词条转换为词
条向量。

#= -- coding: UTF-8 --
“”"
函数说明:创建实验样本
Parameters:

Returns:
postingList - 实验样本切分的词条
classVec - 类别标签向量
“”"

Python之机器学习日记02——朴素贝叶斯01_第17张图片
Python之机器学习日记02——朴素贝叶斯01_第18张图片
Python之机器学习日记02——朴素贝叶斯01_第19张图片
从运行结果可以看出,postingList 是原始的词条列表,myVocabList 是词汇表。myVocabList是所有单词出现的集合,没有重复的元素。词汇表是用来干什么的?没错,它是用来将词条向量化的,一个单词在词汇表中出现过一次,那么就在相应位置记作 1,如果没有出现就在相应位置记作 0。trainMat 是所有的词条向量组成的列表。它里面存放的是根据 myVocabList向量化的词条向量。

Python之机器学习日记02——朴素贝叶斯01_第20张图片
我们已经得到了词条向量。接下来,我们就可以通过词条向量训练朴素贝叶斯分类器。

Python之机器学习日记02——朴素贝叶斯01_第21张图片
Python之机器学习日记02——朴素贝叶斯01_第22张图片
“”"
函数说明:朴素贝叶斯分类器训练函数
Parameters:
trainMatrix - 训练文档矩阵,即 setOfWords2Vec 返回的 returnVec 构成的矩阵
trainCategory - 训练类别标签向量,即 loadDataSet 返回的 classVec
Returns:
p0Vect - 侮辱类的条件概率数组
p1Vect - 非侮辱类的条件概率数组
pAbusive - 文档属于侮辱类的概率
“”"

Python之机器学习日记02——朴素贝叶斯01_第23张图片
运行结果如下,p0V 存放的是每个单词属于类别 0,也就是非侮辱类词汇的概率。比如 p0V的倒数第 6 个概率,就是 stupid 这个单词属于非侮辱类的概率为 0。同理,p1V 的倒数第 6个概率,就是 stupid 这个单词属于侮辱类的概率为0.15789474,也就是约等于 15.79%的概率。我们知道 stupid 的中文意思是蠢货,难听点的叫法就是傻逼。显而易见,这个单词属于侮辱类。pAb 是所有侮辱类的样本占所有样本的概率,从 classVec 中可以看出,一用有 3 个侮辱类,3 个非侮辱类。所以侮辱类的概率是 0.5。因此 p0V 存放的就是 P(him|非侮辱类) = 0.0833、P(is|非侮辱类) = 0.0417,一直到 P(dog|非侮辱类) = 0.0417,这些单词的条件概率。同理,p1V 存放的就是各个单词属于侮辱类的条件概率。pAb 就是先验概率。

Python之机器学习日记02——朴素贝叶斯01_第24张图片
已经训练好分类器,接下来,使用分类器进行分类。

#= -- coding: UTF-8 --
import numpy as np
from functools import reduce
“”"
函数说明:创建实验样本
Parameters:

Returns:
postingList - 实验样本切分的词条
classVec - 类别标签向量
“”"

Python之机器学习日记02——朴素贝叶斯01_第25张图片
“”"
函数说明:根据 vocabList 词汇表,将 inputSet 向量化,向量的每个元素为 1 或 0
Parameters:
vocabList - createVocabList 返回的列表
inputSet - 切分的词条列表
Returns:
returnVec - 文档向量,词集模型
“”"

Python之机器学习日记02——朴素贝叶斯01_第26张图片
Python之机器学习日记02——朴素贝叶斯01_第27张图片
概率数组,属于非侮辱类的条件概率数组,文档属于侮辱类的概率
“”"
函数说明:朴素贝叶斯分类器分类函数
Parameters:
vec2Classify - 待分类的词条数组
p0Vec - 侮辱类的条件概率数组
p1Vec -非侮辱类的条件概率数组
pClass1 - 文档属于侮辱类的概率
Returns:
0 - 属于非侮辱类 1 - 属于侮辱类
“”"

Python之机器学习日记02——朴素贝叶斯01_第28张图片
“”"
函数说明:测试朴素贝叶斯分类器
Parameters: 无
Returns: 无
“”"
Python之机器学习日记02——朴素贝叶斯01_第29张图片
我们测试了两个词条,在使用分类器前,也需要对词条向量化,然后使用 classifyNB()函数,用朴素贝叶斯公式,计算词条向量属于侮辱类和非侮辱类的概率。运行结果如下:

Python之机器学习日记02——朴素贝叶斯01_第30张图片
你会发现,这样写的算法无法进行分类,p0 和 p1 的计算结果都是 0,这里显然存在问题。这是为什么呢?下一篇文章继续讲解~

四、总结

朴素贝叶斯推断的一些优点:
生成式模型,通过计算概率来进行分类,可以用来处理多分类问题。对小规模的数据表现很好,适合多分类任务,适合增量式训练,算法也比较简单。

朴素贝叶斯推断的一些缺点:
对输入数据的表达形式很敏感。由于朴素贝叶斯的“朴素”特点,所以会带来一些准确率上的损失。需要计算先验概率,分类决策存在错误率。

其它:
本文中的编程实例,只是简单的实例。存在一定的问题,需要进行改进,下篇文章会讲解改进方法;同时,本文中的编程实例,没有进行前期的文本切分,下一篇文章会讲解英文单词和中文单词的切分方法;

下篇文章将使用 sklearn 进行中文实例练习;
朴素贝叶斯的准确率,其实是比较依赖于训练语料的,机器学习算法就和纯洁的小孩一样,取决于其成长(训练)条件,”吃的是草挤的是奶,但不是所有的牛奶,都叫特仑苏”。

如有问题,请留言。如有错误,还望指正,谢谢!

你可能感兴趣的:(机器学习,python,算法,朴素贝叶斯算法)