朴素贝叶斯算法

朴素贝叶斯算法

  • 概率基础
  • 算法介绍

朴素贝叶斯是一种直接衡量标签和特征之间的概率关系的有监督学习算法,是一种专注分类的算法。朴素贝叶斯的算法根源就是基于概率论和数理统计的贝叶斯理论,因此它是根正苗红的概率模型

概率基础

  • 概念:概率定义为一件事情发生的可能性。
    • 扔一个硬币,正面朝上
    • 某天是阴天
概率基础1.png
  • 女神喜欢一个人的概率:

    • 4/7
  • 职业是程序员并且体型匀称的概率:

    • 3/7 * 4/7 == 12/49
  • 在女神喜欢的条件下,职业是程序员的概率:

    • 1/2
  • 在女神喜欢的条件下,职业是产品,体重超重的概率:

    • 1/2 * 1/4 = 1/8
  • 概率计算准则:联合概率和条件概率

  • 联合概率表示两个事件共同发生的概率。A与B的联合概率表示为P(A∩B)或者P(A,B)。

    P(A,B)=P(A)P(B)

  • 条件概率(又称后验概率):事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为P(A|B),读作“在B条件下A的概率”

    P(A1,A2|B)=P(A1|B)P(A2|B) 注:A1,A2相互独立才成立

注意:

  • 上述的求概率公式只适用于各个特征之间是条件独立(每个特征之间没有必然关系)的
  • 朴素贝叶斯只适用于特征之间是条件独立的情况下。否则分类效果不好。朴素指的就是条件独立
  • 朴素贝叶斯主要被广泛的适用于文档分类中

高斯函数是返回每一个特征属于不同类别的全概率

高斯模型是解出

朴素贝叶斯的分类

  • 在sk-learn中提供了三种不同类型的贝叶斯模型算法

    • 高斯模型
    • 多项式模型
    • 伯努利模型
  • 高斯模型

    高斯模型基于高斯分布实现分类概率的计算,分类概率通过高斯函数计算,高斯函数可以求出每个特征属于不同类别所对应的概率

    • 高斯分布

      高斯分布就是正态分布,是一种连续型变量的概率分布

      正态分布.png
- 通过假设P(xi|Y)是服从高斯分布(也就是正态分布),来估计训练集数据的每个特征分到每个类别Y上的条件概率(估计每个特征下对应每个类别上的条件概率)。对于每个特征下的对应每个分类结果概率的取值,高斯朴素贝叶斯有如下公式:

- exp函数为高等数学里以自然常数e为底的指数函数

  ![高斯分布.png](https://upload-images.jianshu.io/upload_images/20605284-56c4220d6969bd12.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)
  • 连续性变量和离散型变量
**离散变量**:是指其数值只能用自然数或整数单位计算的则为离散变量 , 例如,企业个数,职工人数,设备台数等,只能按计量单位数计数,这种变量的数值一般用计数方法取得 

**连续性变量**:在一定区间内可以任意取值的变量叫连续变量,其数值是连续不断的,相邻两个数值可作无限分割,即可取无限个数值 .例如,生产零件的规格尺寸,人体测量的身高,体重,胸围等为连续变量,其数值只能用测量或计量的方法取得. 
  • 高斯分布模型的作用

  • 在贝叶斯分类中,高斯模型就是用来处理连续型特征变量的,当使用此模型时,我们会假定特征属于高斯分布,然后基于训练样本计算特征所属标签的均值()和标准差(),这样就可以估计某个特征属于某个类别的概率。

  • 比如:判断一个人帅还是丑,则帅&丑就是分类的标签,一个人的特征假设有身高、体重,三围,则高斯分布函数会计算身高的特征分到帅的条件概率P和丑的条件概率P,在计算体重的特征分到帅和丑的条件概率,以此类推

  • 对于任意一个Y的取值,高斯函数都以求解最大化的P为目标,这样我们才能够比较在不同标签下我们的样本究竟更靠近哪一个取值。以最大化P为目标,高斯函数会为我们求解公式中的参数y和y。求解出参数后,带入一个xi的值,就能够得到一个P的概率取值

  • 比如基于上述案例,将高斯函数将身高这个特征分到帅的概率为 70%,分到丑的概率为30%,则基于最大化P的准则,高斯函数返回的结果为70%,就表示特征身高偏向于让带有身高特征的样本数据分到帅的类别。剩下的体重和三维以此类推。然后将每一个特诊分到每一个类别的最大概率进行标签(类别)的均值计算和方差计算返回类似每一个特征的系数w。

    • 最后就相当于于基于训练数据就可以求解出每一个特征对应的高斯函数的结果,该结果就表示该特征更偏向于将该条样本分到哪一个类别,也可以将每一个特征的高斯函数返回值作为类似线性回归中的系数w。
  • 高斯模型API

    • from sklearn.naive_bayes import GaussianNB
    • 实例化模型对象的时候,我们不需要对高斯朴素贝叶斯类输入任何的参数,可以说是一个非常轻量级的类,操作非常容易。但过于简单也意味着贝叶斯没有太多的参数可以调整,因此贝叶斯算法的成长空间并不是太大,如果贝叶斯算法的效果不是太理想,我们一般都会考虑换模型。
    • predict_proba(): 给出每一个测试集样本属于每个类别的概率,最大的就是分类结果
    • predict_log_proba(): predict_proba的对数转化,最大的就是分类结果
from sklearn.naive_bayes import GaussianNB
import sklearn.datasets as datasets
from sklearn.model_selection import train_test_split

#鸢尾花
iris=datasets.load_iris()
#特征 标签
feature=iris.data
target=iris.target
#数据集拆分
x_train,x_test,y_train,y_test=train_test_split(feature,target,test_size=0.2,random_state=2020)
#实例化模型对象
g=GaussianNB()
g.fit(x_train,y_train)

g.score(x_test,y_test) #0.8333333333333334

g.predict(x_test) #鸢尾花3个类别,只返回对测试集特征分类的结果,没有概率
#输出结果:
array([2, 0, 1, 1, 1, 1, 2, 1, 0, 0, 2, 1, 0, 2, 2, 0, 1, 1, 2, 0, 0, 1,
       2, 0, 2, 1, 1, 2, 0, 0])

x_test[0].shape
g.predict(x_test[0].reshape((1,-1))) #array([2])
g.predict_proba(x_test[0].reshape((1,-1)))#array([[8.89223754e-234, 3.44645792e-009, 9.99999997e-001]])
g.predict_log_proba(x_test[0].reshape((1,-1))) #array([[-5.36619733e+02, -1.94859188e+01, -3.44645801e-09]])

高斯模型可以返回样本属于不同类别的概率,且调用predict_proba返回不同类别对应的概率,概率基于高斯函数求出,高斯函数可以求出每个特征属于不同类别所对应的概率

高斯模型作用在手写数字识别案例中

from sklearn.naive_bayes import GaussianNB
import sklearn.datasets as datasets
from sklearn.model_selection import train_test_split
#样本数据
digist=datasets.load_digits()
feature=digist.data #特征
target=digist.target  #标签

feature.shape #(1797, 64)
target.shape #(1797, )
#数据集拆分
x_train,x_test,y_train,y_test=train_test_split(feature,target,test_size=0.2,random_state=2020)
g=GaussianNB() #实例化
g.fit(x_train,y_train)  #训练
g.score(x_test,y_test)  #0.825 测试

y_pred = g.predict(x_test)
print('模型分类结果:',y_pred[:10])
print('真实的分类结果:',y_test[:10])
#模型分类结果: [4 3 6 4 8 7 2 8 1 1]
#真实的分类结果: [4 3 6 4 8 7 2 2 1 2]

y_test[3] #4
g.predict_log_proba(x_test[3].reshape(1,-1))
#输出结果:
array([[-1.42975581e+03, -2.33112575e+01, -2.21201344e+02,
        -5.00236423e+02, -1.54472863e-05, -6.20715298e+01,
        -5.74683561e+02, -1.10780898e+01, -7.29616360e+01,
        -8.69033822e+01]])
g.predict_log_proba(x_test[3].reshape(1,-1)).max()    #-1.5447286294545393e-05
- predict_proba(): 给出每一个测试集样本属于每个类别的概率,最大的就是分类结果
- predict_log_proba(): predict_proba的对数转化,最大的就是分类结果

2.多项式模型

  • 多项式模型主要适用于离散特征的概率计算,且sklearn的多项式模型不接受输入负值。虽然sk-learn中的多项式模型也可以被用作在连续性特征概率计算中,但是我们如果想要处理连续性变量则最好选择使用高斯模型。

    • 注意:因为多项式不接受负值的输入,所以如果样本数据的特征为数值型数据的话,务必要进行归一化处理保证特征数据中无负值出现
  • 原理: 计算出一篇文章为某些类别的概率(文章是固定的,也就是说在该文章为前提下求出所属类别的概率,因此文章就是概率论中条件概率的条件),最大概率的类型就是该文章的类别。P(类别|文章)=P(A|B) P(A1,A2|B)=P(A1|B)P(A2|B)

  • 朴素贝叶斯算法公式:


    朴素贝叶斯算法公式.png

    w为给定文档的特征,也就是文章中拆分出来的不同词语 c为文档的类别(财经,体育,军事......)


    朴素贝叶斯算法公式2.png

    那么:一篇文档为财经和军事的概率计算如下
  • P(财经|词1,词2,词3)==》P(词1,词2,词3|财经)*P(财经)/P(W)

  • P(军事|词1,词2,词3)==》P(词1,词2,词3|军事)*P(军事)/P(W)

  • 上述两个公式中都有想用的P(W),可以抵消,则公式简化为:

    • P(词1,词2,词3|财经)P(财经)==》P(W|C)P(C)
    • P(词1,词2,词3|军事)P(军事)==>P(W|C)P(C)
    • 这样的公式我们是可以进行计算的,这就是条件概率
  • P(C):每个文档类别的概率(某个文档类别文章的数量/总文档数量)

  • P(W|C):给定类别下特征的概率,此处的特征就是预测文档中出现的词语

    • P(W|C)的计算方法:
      • P(F1|C)=Ni/N:F1为预测文档中的某一个词,C为指定的类别
        • Ni:F1这个词在C类别所有文档中出现的次数
        • N:所属类别C下的文档所有词出现的次数和
  • 实例


    实例1.png
  • 归属概率 = P(W|C)P(C)

  • 解释:上图的表格为训练集的统计结果,训练集中一共有30篇科技文章,60篇娱乐文章,共计90篇文章。这些文章中根据tf-idf提取出重要的词语分别有(商场,影院,支付宝和云计算),然后这些词分别在不同训练集中不同类别文章中出现的次数也统计出来了。

    • 现在有一个将要被预测的文章,该文章中出现重要的次为影院,支付宝和云计算,则计算该文章属于科技、娱乐的概率分别是多少?


      实例2.png

      某个类别的概率为0,不合适吗?因为虽然被预测文章中没有出现云计算这个词语,但是出现娱乐类别中的其他词,所以概率为0不合适!处理方式:


      拉普拉斯平滑系数.png
  • 多项式朴素贝叶斯API

    • from sklearn.naive_bayes import MultinomialNB
    • MultinomialNB(alpha=1.0, fit_prior=True, class_prior=None)
      • alpha:拉普拉斯平滑系数
  • sklearn文本特征提取——TfidfVectorizer(求出Ni/N的值)

    • 什么是TF-IDF
      • 在信息检索中,tf-idf(词频-逆文档频率)是一种统计方法,用以评估一个单词在一个文档集合或语料库中的重要程度。
    • 原理:
      • TF-IDF实际上是:TF * IDF。主要思想是:如果某个词或短语在一篇文章中出现的频率高(即TF高),并且在其他文章中很少出现(即IDF高),则认为此词或者短语具有很好的类别区分能力,适合用来分类。
    • TF:表示一个给定词语t在一篇给定文档d中出现的频率。TF越高,则词语t对文档d来说越重要,TF越低,则词语t对文档d来说越不重要。那是否可以以TF作为文本相似度评价标准呢?答案是不行的,举个例子,常用的中文词语如“我”,“了”,“是”等,在给定的一篇中文文档中出现的频率是很高的,但这些中文词几乎在每篇文档中都具有非常高的词频,如果以TF作为文本相似度评价标准,那么几乎每篇文档都能被命中。
      • TF(w)=(词w在文档中出现的次数)/(文档的总词数) == P(F1|C)=Ni/N
    • IDF:逆向文章频率。有些词可能在文本中频繁出现,但并不重要,也即信息量小,如is,of,that这些单词或者“我”,“了”,“是”等,这些单词在语料库中出现的频率也非常大,我们就可以利用这点,降低其权重。
  • 实战:数据使用- 实战:数据使用fetch_20newsgroups中的数据,包含了20个主题的18000个新闻组的帖子

    • 流程:
      • 加载20类新闻数据,并进行样本分割
      • 生成文章特征词
      • 使用模型进行文章分类
import sklearn.datasets as datasets
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import MultinomialNB
news = datasets.fetch_20newsgroups(data_home='./')
news

feature = news.data#返回的是列表,列表中为一篇篇的文章
target = news.target#返回的ndarray,存储的是每一篇文章的类别

#特征抽取(TF_idf)
t=TfidfVectorizer()
feature_t=t.fit_transform(feature)
print(t.get_feature_names())
print(feature_t.toarray())#转成数组
#数据集拆分
x_train,x_test,y_train,y_test=train_test_split(feature_t,target,test_size=0.2,random_state=2020)
#实例化
m=MultinomialNB()
m.fit(x_train,y_train) #训练

m.score(x_test,y_test) #测试得分 0.825
m.predict(x_test)

array([10,  3,  3,  9,  8, 16,  4,  8,  8, 17,  4, 15,  2,  6, 10,  0,  8,
        6, 16, 13,  7,  6,  9,  3, 15, 11,  3, 10,  1, 12, 15, 19,  7, 17,
        2, 18,  3,  5, 15, 11, 15,  5, 13,  6,  4, 11,  8,  5,  2, 10,  7,
       10,  8,  6, 15,  9,  7, 12, 13,  8,  8,  7, 10, 17,  9, 12,  2, 15,
       17,  9,  8, 18,  7, 14,  1,  7,  9, 18, 11, 17, 11,  5,  8, 10,  7,
        1, 17,  3, 18, 10, 16, 15,  8, 14, 18,  5, 14, 15, 18,  5, 10, 11,
        6, 15,  6,  1,  7,  4,  1, 11, 16,  2,  7,  7])

m.predict_log_proba(x_test[10])
array([[-4.48478838, -3.62080835, -3.45567949, -2.34859706, -0.62833218,
        -3.84201898, -3.67766998, -3.7647819 , -4.01739521, -4.47853618,
        -4.24165166, -2.92423159, -3.46000391, -3.86197467, -3.97447299,
        -4.00664257, -4.07601533, -4.52391764, -4.83022198, -4.73074924]])

  • 作用到鸢尾花分类中
iris = datasets.load_iris()
feature = iris.data
target = iris.target
x_train,x_test,y_train,y_test = train_test_split(feature,target,test_size=0.2,random_state=2020)
m=MultinomialNB()
m.fit(x_train,y_train)
m.score(x_test,y_test)

3.伯努利模型BernoulliNB

  • 伯努利模型适用于离散特征的情况,所不同的是,数据集中可以存在多个特征,但每个特征都是二分类的.伯努利模型中每个特征的取值只能是1和0(以文本分类为例,某个单词在文档中出现过,则其特征值为1,否则为0).伯努利模型需要比MultinomialNB多定义一个二值化的方法,该方法会接受一个阈值并将输入的特征二值化(1,0).当然也可以直接采用MultinomialNB,但需要预先将输入的特征二值化.
  • 作用:
    • 伯努利朴素贝叶斯与多项式朴素贝叶斯非常相似,都常用于处理文本分类数据。但由于伯努利朴素贝叶斯是处理二项 分布,所以它更加在意的是“是与否”。判定一篇文章是否属于体育资讯,而不是说属于体育类还是娱乐类。
  • API:

    • class sklearn.naive_bayes.BernoulliNB (alpha=1.0, binarize=0.0, fit_prior=True, class_prior=None)
    • 参数介绍:
      • alpha:拉普拉斯平滑系数
      • binarize:可以是数值或者不输入。如果不输入,则BernoulliNB认为每个数据特征都已经是二元(二值化)的。否则的话,小于binarize的会归为一类,大于binarize的会归为另外一类
  • 二值化操作

from sklearn import preprocessing
import numpy as np
 
X = np.array([[1,-2,2,3,1,10],
             [1,2,3,33,4,-90],
             [11,29,90,-80,0,4]])
binarizer = preprocessing.Binarizer(threshold=5)
X_binarizer = binarizer.transform(X)
print("二值化(闸值:5)",X_binarizer)
#输出结果:
二值化(闸值:5) [[0 0 0 0 0 1]
 [0 0 0 1 0 0]
 [1 1 1 0 0 0]]
#样本分割
feature = news.data#返回的是列表,列表中为一篇篇的文章
target = news.target#返回的ndarray,存储的是每一篇文章的类别
x_train,x_test,y_train,y_test = train_test_split(feature,target,test_size=0.25)

#对数据集进行特征抽取
tf = TfidfVectorizer()
x_train = tf.fit_transform(x_train)#返回训练集所有文章中每个词的重要性
x_test = tf.transform(x_test)#返回测试集所有文章中每个词的重要性

# print(tf.get_feature_names())#所有文章中出现的词语
mlt = BernoulliNB()
mlt.fit(x_train,y_train)
y_predict = mlt.predict(x_test)
print('预测文章类别为:',y_predict)
print('真的文章类别为:',y_test)
print('准确率为:',mlt.score(x_test,y_test))
#输出结果:
预测文章类别为: [ 6 10  3 ... 14  0  3]
真的文章类别为: [ 1 10  4 ... 14  0  3]
准确率为: 0.6926994906621392
  • 模型的优缺点:


    朴素贝叶斯分类优缺点.png

你可能感兴趣的:(朴素贝叶斯算法)