第12课:朴素贝叶斯分类器——从贝叶斯定理到分类模型

前面有关线性回归的课程中,我们讲了一个回归模型,我们现在来讲一个分类模型。

分类 vs 回归

第12课:朴素贝叶斯分类器——从贝叶斯定理到分类模型_第1张图片

分类模型 VS 回归模型,最根本的不同:前者是预测一个标签(类型、类别);后者则是预测一个量。

换一个角度来看,分类模型输出的预测值是离散值;而回归模型输出的预测值则是连续值。

也就是说输入一个样本给模型,回归模型给出的预测结果是在某个值域(一般是实数域或其子集)上的任意值;而分类模型则是给出特定的某几个离散值之一。

上篇讲的线性回归模型,是用来做回归的。这次我们来讲一个做分类的模型:朴素贝叶斯分类器。

贝叶斯定理

第12课:朴素贝叶斯分类器——从贝叶斯定理到分类模型_第2张图片

在讲模型之前,我们先来看看概率统计中一个非常重要的定理:贝叶斯定理

贝叶斯公式

贝叶斯公式本身一目了然:

$P(A|B) =\frac{ P(B|A) P(A)}{P(B)}$

用语言解释就是:在 B 出现的前提下 A 出现的概率,等于 A 和 B 都出现的概率除以 B 出现的概率。

换句话说就是后验概率和先验概率的关系。

举例说明

一个简单的例子

你可能感兴趣的:(机器学习极简入门,精品课,人工智能,机器学习,榜单)