阅读之前看这里:博主是正在学习数据分析的一员,博客记录的是在学习过程中一些总结,也希望和大家一起进步,在记录之时,未免存在很多疏漏和不全,如有问题,还请私聊博主指正。
博客地址:天阑之蓝的博客,学习过程中不免有困难和迷茫,希望大家都能在这学习的过程中肯定自己,超越自己,最终创造自己。
朴素贝叶斯采用属性条件独立性的假设,对于给定的待分类观测数据 X X X,计算在 X X X出现的条件下,各个目标类出现的概率(即后验概率),将该后验概率最大的类作为 X X X所属的类。
而计算后验概率的贝叶斯公式为: p ( A ∣ B ) = [ p ( A ) × p ( B ∣ A ) ] / p ( B ) p(A|B) =[ p(A)\times p(B|A)]/p(B) p(A∣B)=[p(A)×p(B∣A)]/p(B)因为 p ( B ) p(B) p(B)表示观测数据X出现的概率,它在所有关于 X X X的分类计算公式中都是相同的,所以我们可以把 p ( B ) p(B) p(B)忽略,则 p ( A ∣ B ) = p ( A ) × p ( B ∣ A ) p(A|B)= p(A) \times p(B|A) p(A∣B)=p(A)×p(B∣A)。
关于具体的统计学知识参见我的另一篇博客内容:《商务与经济统计》学习笔记(四)–贝叶斯定理之理解
朴素贝叶斯中的朴素可以理解为是“简单、天真”的意思,因为“朴素”是假设了特征之间是同等重要、相互独立、互不影响的,但是在我们的现实社会中,属性之间并不是都是互相独立的,有些属性也会存在性,所以说朴素贝叶斯是一种很“朴素”的算法。
因为在计算条件概率分布 p ( X ∣ Y ) p(X|Y) p(X∣Y)时,朴素贝叶斯做了一个很强的条件独立假设(当 Y Y Y确定时, X X X的各个分量取值之间相互独立)
生成式:生成模型是先从数据中学习联合概率分布,然后利用贝叶斯公式求得特征和标签对应的条件概率分布。
包含:朴素贝叶斯、 H M M HMM HMM、 G a u s s i a n s Gaussians Gaussians、马尔科夫随机场
判别式:判别模型直接学习条件概率分布,直观的输入什么特征就预测可能的类别。
包含: L R LR LR, S V M SVM SVM,神经网络, C R F CRF CRF, B o o s t i n g Boosting Boosting
回答:朴素贝叶斯的工作流程可以分为三个阶段进行,分别是准备阶段、分类器训练阶段和应用阶段。
回答:朴素贝叶斯的优点有4个,分别是:
朴素贝叶斯的缺点有3个,分别是:
回答:
回答:朴素贝叶斯是没有超参数可以调的,所以它不需要调参,朴素贝叶斯是根据训练集进行分类,分类出来的结果基本上就是确定了的,拉普拉斯估计器不是朴素贝叶斯中的参数,不能通过拉普拉斯估计器来对朴素贝叶斯调参。
朴素贝叶斯的应用最广的应该就是在文档分类、垃圾文本过滤(如垃圾邮件、垃圾信息等)、情感分析(微博、论坛上的积极、消极等情绪判别)这些方面,除此之外还有多分类实时预测、推荐系统(贝叶斯与协同过滤组合使用)、拼写矫正(当你输入一个错误单词时,可以通过文档库中出现的概率对你的输入进行矫正)等。
朴素贝叶斯对异常值不敏感。所以在进行数据处理时,我们可以不去除异常值,因为保留异常值可以保持朴素贝叶斯算法的整体精度,而去除异常值则可能在进行预测的过程中由于失去部分异常值导致模型的泛化能力下降。
简单来说:引入λ,当λ=1时称为拉普拉斯平滑。
回答:朴素贝叶斯是低方差模型。(误差 = 偏差 + 方差)对于复杂模型来说,由于复杂模型充分拟合了部分数据,使得它们的偏差变小,但由于对部分数据过分拟合,这就导致预测的方差会变大。因为朴素贝叶斯假设了各个属性之间是相互的,算是一个简单的模型。对于简单的模型来说,则恰恰相反,简单模型的偏差会更大,相对的,方差就会较小。(偏差是模型输出值与真实值的误差,也就是模型的精准度,方差是预测值与模型输出期望的的误差,即模型的稳定性,也就是数据的集中性的一个指标)
朴素贝叶斯的假设条件是“属性条件独立性”,这一假设很简单很朴素,它给我们省去了很多复杂的计算步骤,大大减少了贝叶斯分类器的计算量。但是它也有缺点存在,对于它的修正有半朴素贝叶斯、贝叶斯网络等模型。
参考:
李航《统计学习方法》第2版
数据挖掘面试题之:朴素贝叶斯
朴素贝叶斯算法面试问题汇总
—————————————————————————————————————————————————
博主码字不易,大家关注点个赞转发再走呗 ,您的三连是激发我创作的源动力^ - ^