第七章 贝叶斯分类器

第七章 贝叶斯分类器

7.1 贝叶斯决策论

贝叶斯决策论(Bayesian Decision theory)是概率框架下实施决策的基本方法。

假设有N种情况的类别标记,即 y = { c 1 , c 2 , … , c N } y = \left\{ c_{1},c_{2},\ldots,c_{N} \right\} y={c1,c2,,cN}, λ ij \lambda_{\text{ij}} λij是将一个真实的标记为 c j c_{j} cj的样本误分类为 c i c_{i} ci所产生的损失。基于后验概率 P ( c i ∣ x ) P\left( c_{i} \middle| x \right) P(cix)可获得将样本x分类为 c i c_{i} ci所产生的期望损失(expected loss)。即在样本x上的“条件风险”(conditional risk)

R ( c i ∣ x ) = ∑ j = 1 N λ ij P ( c j ∣ x ) R\left( c_{i} \middle| x \right) = \sum_{j = 1}^{N}\lambda_{\text{ij}}P\left( c_{j} \middle| x \right) R(cix)=j=1NλijP(cjx)

判定准则h: χ → y \chi \rightarrow y χy以最小化总风险

R ( h ) = E x [ R ( h ( x ) ∣ x ) ] R\left( h \right) = \mathbb{E}_{x}\left\lbrack R\left( h\left( x \right) \middle| x \right) \right\rbrack R(h)=Ex[R(h(x)x)]

贝叶斯判定准则(Bayes decision rule):为最小化总体风险,只需在每个样本上选择那个能使条件风险 R ( c ∣ x ) \mathbf{R}\left( \mathbf{c} \middle| \mathbf{x} \right) R(cx)**最小的类别标记。即

h ∗ ( x ) = a r g min ⁡ R ( c ∣ x ) h^{*}\left( x \right) = arg\operatorname{min}{R\left( c \middle| x \right)} h(x)=argminR(cx)

h ∗ ( x ) h^{*}\left( x \right) h(x)称为贝叶斯最优分类器(Bayes optimal classifier),与之对应的总体风险 R ( h ∗ ) R\left( h^{*} \right) R(h)称为贝叶斯风险(Bayes risk)。 1 − R ( h ∗ ) 1 - R\left( h^{*} \right) 1R(h)反映了分类器所能达到的最好性能。

若目标是最小化分类错误率,则误差损失 λ ij \lambda_{\text{ij}} λij可写为

λ ij = { 0 ,   i f   i = j 1 , o t h e r w i s e   \lambda_{\text{ij}} = \left\{ \begin{matrix} 0,\ if\ i = j \\ 1,otherwise \\ \end{matrix} \right.\ λij={0, if i=j1,otherwise 

此时条件风险

R ( c ∣ x ) = 1 − P ( c ∣ x ) R\left( c \middle| x \right) = 1 - P\left( c \middle| x \right) R(cx)=1P(cx)

则最小化分类误差率的贝叶斯最优分类器为

h ∗ ( x ) = arg ⁡ ⁡ P ( c ∣ x ) h^{*}\left( x \right) = \arg\operatorname{}{P\left( c \middle| x \right)} h(x)=argP(cx)

即对每个样本x选择能使后验概率 P ( c ∣ x ) P\left( c \middle| x \right) P(cx)最大的类别标记。

策略

  1、判别式模型(discriminative models):给定x,可通过直接建模 P ( c ∣ x ) P\left( c \middle| x \right) P(cx)来预测c(决策树、BP神经网络、SVM)

  2、生成式模型(generative models):先对联合概率分布 P ( x , c ) P\left( x,c \right) P(x,c)建模,然后由此获得 P ( c ∣ x ) P\left( c \middle| x \right) P(cx)

对生成式模型,必然考虑

P ( c ∣ x ) P ( x , c ) P ( x ) P\left( c \middle| x \right)\frac{P\left( x,c \right)}{P\left( x \right)} P(cx)P(x)P(x,c)

基于贝叶斯定理, P ( c ∣ x ) P\left( c \middle| x \right) P(cx)可写成

P ( c ∣ x ) = P ( c ) P ( x ∣ c ) P ( x ) P\left( c \middle| x \right) = \frac{P\left( c \right)P\left( x \middle| c \right)}{P\left( x \right)} P(cx)=P(x)P(c)P(xc)

其中 P ( c ) P\left( c \right) P(c)是类先验概率(prior probability) P ( x ∣ c ) P\left( x \middle| c \right) P(xc)是样本x相对于类标记c的类条件概率(class-conditional probability)

7.2 极大似然估计

估计类条件概率的一种策略是先假定某具有某种确定的概率分布形式,再基于训练样本对概率分布的参数进行估计。

概率模型的训练过程就是参数估计(parameter estimation)过程。

极大似然估计(Maximum Likelihood Estimation,MLE)是根据数据采样来估计概率分布参数的经典方法。

D c D_{c} Dc表示训练集D中第c类样本组合的集合,假设这些样本是独立同分布的,则参数 θ c \theta_{c} θc对于数据集 D c D_{c} Dc的似然为

P ( D c ∣ θ c ) = ∏ x ∈ D c P ( x ∣ θ c ) P\left( D_{c} \middle| \theta_{c} \right) = \prod_{x \in D_{c}}^{}{P\left( x \middle| \theta_{c} \right)} P(Dcθc)=xDcP(xθc)

θ c \theta_{c} θc进行极大似然估计就是去寻找最大化似然 P ( D c ∣ θ c ) P\left( D_{c} \middle| \theta_{c} \right) P(Dcθc)的参数值 θ ^ c {\hat{\theta}}_{c} θ^c

上式使用对数似然(log-likelihood),则

LL ( θ c ) = log ⁡ P ( D c ∣ θ c ) = ∑ x ∈ D c log ⁡ P ( x ∣ θ c ) \text{LL}\left( \theta_{c} \right) = \log{P\left( D_{c} \middle| \theta_{c} \right) = \sum_{x \in D_{c}}^{}{\log{P\left( x \middle| \theta_{c} \right)}}} LL(θc)=logP(Dcθc)=xDclogP(xθc)

此时参数 θ c \theta_{c} θc的极大似然估计 θ ^ c {\hat{\theta}}_{c} θ^c

θ ^ c = arg ⁡ ⁡ L L ( θ c ) {\hat{\theta}}_{c} = \arg\operatorname{}{LL(\theta_{c})} θ^c=argLL(θc)

7.3 朴素贝叶斯分类器

朴素贝叶斯分类器采用了属性条件独立性假设(attribute conditional independence assumption):对已知类别,假设所有属性相互独立

基于属性条件独立性假设,则 P ( c ∣ x ) P\left( c \middle| x \right) P(cx)可重写为

P ( c ∣ x ) = P ( c ) P ( x ∣ c ) P ( x ) = P ( c ) P ( x ) ∏ i = 1 d P ( x i ∣ c ) P\left( c \middle| x \right) = \frac{P\left( c \right)P\left( x \middle| c \right)}{P\left( x \right)} = \frac{P\left( c \right)}{P\left( x \right)}\prod_{i = 1}^{d}{P\left( x_{i} \middle| c \right)} P(cx)=P(x)P(c)P(xc)=P(x)P(c)i=1dP(xic)

其中d为属性数目, x i x_{i} xi为x在第i个属性上的取值。

贝叶斯判定准则为

h nb ( x ) = arg ⁡ ⁡ P ( c ) ∏ i = 1 d P ( x i ∣ c ) h_{\text{nb}}\left( x \right) = \arg\operatorname{}{P\left( c \right)}\prod_{i = 1}^{d}{P\left( x_{i} \middle| c \right)} hnb(x)=argP(c)i=1dP(xic)

朴素贝叶斯分类器的训练过程就是基于训练集D来估计类先验概率 P ( c ) P\left( c \right) P(c),并为每个属性估计条件概率 P ( x i ∣ c ) P\left( x_{i} \middle| c \right) P(xic)

D c D_{c} Dc表示训练集D中第c类样本组合的集合,若有充足的独立同分布样本,则容易估计出类先验概率

P ( c ) = ∣ D c ∣ ∣ D ∣ P\left( c \right) = \frac{\left| D_{c} \right|}{\left| D \right|} P(c)=DDc

对离散属性,令 D c , x i D_{c,x_{i}} Dc,xi表示训练集 D c D_{c} Dc中第i个属性上取值为 x i x_{i} xi的样本组合的集合,则条件概率 P ( x i ∣ c ) P\left( x_{i} \middle| c \right) P(xic)

P ( x i ∣ c ) = ∣ D c , x i ∣ ∣ D c ∣ P\left( x_{i} \middle| c \right) = \frac{\left| D_{c,x_{i}} \right|}{\left| D_{c} \right|} P(xic)=DcDc,xi

对连续属性可考虑概率密度函数,假定 p ( x i ∣ c ) ∼ N ( μ c , i , σ c , i 2 ) p\left( x_{i} \middle| c \right)\mathcal{\sim N}\left( \mu_{c,i},\sigma_{c,i}^{2} \right) p(xic)N(μc,i,σc,i2),其中 μ c , i \mu_{c,i} μc,i σ c , i 2 \sigma_{c,i}^{2} σc,i2分别是第c类样本在第i个属性上取值的均值和方差,则有

P ( x i ∣ c ) = 1 2 π σ c , i exp ⁡ ( − ( x i − μ c , i ) 2 2 σ c , i 2 ) P\left( x_{i} \middle| c \right) = \frac{1}{\sqrt{2\pi}\sigma_{c,i}}\exp\left( - \frac{\left( x_{i} - \mu_{c,i} \right)^{2}}{2\sigma_{c,i}^{2}} \right) P(xic)=2π σc,i1exp(2σc,i2(xiμc,i)2)

7.4 半朴素贝叶斯分类器

半朴素贝叶斯分类器的基本想法:适当考虑一部分属性间的相互依赖信息,从而既不进行完全联合概率计算,又不至于彻底忽略了比较强的属性依赖关系。

“独依赖估计”(One-Dependent Estimator, ODE)是半朴素贝叶斯分类器最常用的一种策略。

独依赖:假设每个属性在类别之外最多仅依赖一个其他属性,即

P ( c ∣ x ) ∝ P ( c ) ∏ i = 1 d P ( x i ∣ c , p a i ) P\left( c \middle| x \right) \propto P(c)\prod_{i = 1}^{d}{P\left( x_{i} \middle| c,pa_{i} \right)} P(cx)P(c)i=1dP(xic,pai)

其中 p a i pa_{i} pai为属性 x i x_{i} xi所依赖的属性,称为 x i x_{i} xi的父属性。

最直接的做法是假设所有属性都依赖同一个属性,称为超父,然后通过交叉验证等模型选择方法来确定超父属性,由此形成了SPODE(Super-Parent ODE)方法

TAN(Tree Augmented naïve Bayes):在最大带权生成树(maximum weighted spanning tree)算法的基础上,通过以下步骤将属性间依赖关系约简为树形结构:

  1、计算任意两个属性之间的条件互信息(conditional mutual information)

I ( x i , x j ∣ y ) = ∑ x i , x j ; c ∈ y P ( x i , x j ∣ c ) log ⁡ P ( x i , x j ∣ c ) P ( x i ∣ c ) P ( x j ∣ c ) I\left( x_{i},x_{j} \middle| y \right) = \sum_{x_{i},x_{j};c \in y}^{}{P\left( x_{i},x_{j} \middle| c \right)}\log\frac{P\left( x_{i},x_{j} \middle| c \right)}{P\left( x_{i} \middle| c \right)P\left( x_{j} \middle| c \right)} I(xi,xjy)=xi,xj;cyP(xi,xjc)logP(xic)P(xjc)P(xi,xjc)

  2、以属性为结点构建完全图,任意两个结点之间边的权重设为 I ( x i , x j ∣ y ) I\left( x_{i},x_{j} \middle| y \right) I(xi,xjy)

  3、构建此完全图的最大带权生成树,挑选根变量,将边置为有向

  4、加入类别结点y,增加从y到每个属性的有向边

AODE(Averaged One-Dependent Estimator)是一种基于集成学习机制、更为强大的独依赖分类器。AODE尝试将每个属性作为超父来构建SPODE,然后将那些具有足够训练数据支撑的SPODE集成起来作为最终结果。即

P ( c ∣ x ) ∝ ∑ i = 1 ∣ D i ∣ ≥ m ′ d P ( c , x i ) ∏ j = 1 d P ( x j ∣ c , x i ) P\left( c \middle| x \right) \propto \sum_{\begin{matrix} i = 1 \\ \left| D_{i} \right| \geq m' \\ \end{matrix}}^{d}{P\left( c,x_{i} \right)\prod_{j = 1}^{d}{P\left( x_{j} \middle| c,x_{i} \right)}} P(cx)i=1DimdP(c,xi)j=1dP(xjc,xi)

其中 D x i D_{x_{i}} Dxi是在第i个属性上取值为 x i x_{i} xi的样本的集合, m ′ m' m为阈值常数。

AODE需估计 P ( c , x i ) P\left( c,x_{i} \right) P(c,xi) P ( x j ∣ c , x i ) P\left( x_{j} \middle| c,x_{i} \right) P(xjc,xi),则

P ( c , x i ) = ∣ D c , x i ∣ + 1 ∣ D ∣ + N × N i P\left( c,x_{i} \right) = \frac{\left| D_{c,x_{i}} \right| + 1}{\left| D \right| + N \times N_{i}} P(c,xi)=D+N×NiDc,xi+1

P ( x j ∣ c , x i ) = ∣ D c , x i , x j ∣ + 1 ∣ D c , x i ∣ + N j P\left( x_{j} \middle| c,x_{i} \right) = \frac{\left| D_{c,x_{i},x_{j}} \right| + 1}{\left| D_{c,x_{i}} \right| + N_{j}} P(xjc,xi)=Dc,xi+NjDc,xi,xj+1

其中N是D中可能的类别数, N i N_{i} Ni是第i个属性可能的取值数, D c , x i D_{c,x_{i}} Dc,xi是类别c且在第i个属性上取值为 x i x_{i} xi的样本的集合, D c , x i , x j D_{c,x_{i},x_{j}} Dc,xi,xj是类别c且在第i和第j个属性上取值分别为 x i x_{i} xi x j x_{j} xj的样本的集合

7.5 贝叶斯网

贝叶斯网(Bayesian network)也称为信念网(belief network),借助有向无环图(Directed Acyclic Graph,DAG)来刻画属性之间的依赖关系并使用条件概率表(Conditional Probability Table,CPT)来描述属性的联合概率分布。

7.5.1 结构

贝叶斯网结构有效地表达了属性间的条件独立性。

给定父结点集,贝叶斯网假设每个属性与它的非后裔属性独立,于是 B = ⟨ G , Θ ⟩ B = \left\langle G,\Theta \right\rangle B=G,Θ将属性 x 1 , x 2 , … , x d x_{1},x_{2},\ldots,x_{d} x1,x2,,xd的联合概率分布定义为

P B ( x 1 , x 2 , … , x d ) = ∏ i = 1 d P B ( x i ∣ π i ) = ∏ i = 1 d θ x i ∣ π i P_{B}\left( x_{1},x_{2},\ldots,x_{d} \right) = \prod_{i = 1}^{d}{P_{B}\left( x_{i} \middle| \pi_{i} \right) = \prod_{i = 1}^{d}\theta_{x_{i}|\pi_{i}}} PB(x1,x2,,xd)=i=1dPB(xiπi)=i=1dθxiπi

三种典型依赖关系
第七章 贝叶斯分类器_第1张图片
  1、同父结构:给定父结点 x 1 x_{1} x1的取值,则 x 3 x_{3} x3 x 4 x_{4} x4条件独立

  2、V型结构:也称为冲撞结构,给定子结点 x 4 x_{4} x4的取值, x 1 x_{1} x1 x 2 x_{2} x2必不独立;若 x 4 x_{4} x4的取值完全未知,则V结构下 x 1 x_{1} x1 x 2 x_{2} x2却是相互独立的,称为边际独立性(marginal independence)。

  3、顺序结构:给定x的值,则y和z条件独立

道德图(moral graph):有向图中V型结构且两个父结点加上无向边连接,将有向边改为无向边产生的无向图。

7.5.2 学习

评分函数:评测贝叶斯网与训练数据的契合程度,并寻找结构最优的贝叶斯网。

常用评分函数通常基于信息论准则,此类准则将学习问题看作一个数据压缩任务,学习的目标是找到一个能以最短编码长度描述训练数据的模型。

编码的长度包括了描述模型自身所需的字节长度和使用该模型描述数据所需的字节长度。

最小描述长度(Minimal Description Length,MDL)准则:综合编码长度最短的贝叶斯网

给定训练集 D = { x 1 , x 2 , … , x m } D = \left\{ x_{1},x_{2},\ldots,x_{m} \right\} D={x1,x2,,xm},贝叶斯网 B = ⟨ G , Θ ⟩ B = \left\langle G,\Theta \right\rangle B=G,Θ在D上的评分函数为

s ( B ∣ D ) = f ( θ ) ∣ B ∣ − L L ( B ∣ D ) s\left( B \middle| D \right) = f\left( \theta \right)\left| B \right| - LL\left( B \middle| D \right) s(BD)=f(θ)BLL(BD)

其中 ∣ B ∣ \left| B \right| B是贝叶斯网的参数个数; f ( θ ) f\left( \theta \right) f(θ)表示描述每个参数 θ \theta θ所需的字节数;而

LL ( B ∣ D ) = ∑ i = 1 m log ⁡ P B ( x i ) \text{LL}\left( B \middle| D \right) = \sum_{i = 1}^{m}{\log{P_{B}\left( x_{i} \right)}} LL(BD)=i=1mlogPB(xi)

是贝叶斯网B的对数似然。

f ( θ ) = 1 f\left( \theta \right) = 1 f(θ)=1,即每个参数用1个字节描述,则AIC(Akaike
Information Criterion)评分函数

AIC ( B ∣ D ) = ∣ B ∣ − L L ( B ∣ D ) \text{AIC}\left( B \middle| D \right) = \left| B \right| - LL\left( B \middle| D \right) AIC(BD)=BLL(BD)

f ( θ ) = 1 2 log ⁡ m f\left( \theta \right) = \frac{1}{2}\log m f(θ)=21logm,即每个参数用 1 2 log ⁡ m \frac{1}{2}\log m 21logm字节描述,则BIC(Bayesian Information Criterion)评分函数

BIC ( B ∣ D ) = log ⁡ m 2 ∣ B ∣ − L L ( B ∣ D ) \text{BIC}\left( B \middle| D \right) = \frac{\log m}{2}\left| B \right| - LL\left( B \middle| D \right) BIC(BD)=2logmBLL(BD)

f ( θ ) = 0 f\left( \theta \right) = 0 f(θ)=0,则评分函数退化为负对数似然,学习任务退化为极大似然估计。

若贝叶斯网 B = ⟨ G , Θ ⟩ B = \left\langle G,\Theta \right\rangle B=G,Θ网络结构G固定,则评分函数 s ( B ∣ D ) s\left( B \middle| D \right) s(BD)第一项为常数。参数 θ x i ∣ π i \theta_{x_{i}|\pi_{i}} θxiπi能直接在训练数据上通过经验估计获得

θ x i ∣ π i = P ^ D ( x i ∣ π i ) \theta_{x_{i}|\pi_{i}} = {\hat{P}}_{D}\left( x_{i} \middle| \pi_{i} \right) θxiπi=P^D(xiπi)

常用策略:1、贪心法;2、通过给网络结构施加约束来削减搜索空间。

7.5.3 推断

通过一些属性变量的观测值来推测其他属性变量的取值。

推断(inference):通过已知变量观测值来推测待查询变量的过程

证据(evidence):变量观测者

吉布斯采样(Gibbs sampling):在贝叶斯网所有变量的联合状态空间与证据 E = e E = e E=e一致的子空间进行随机漫步(random walk)。每一步仅依赖前一步的状态(马尔科夫链,Markov chain)。在一定条件下,无论从什么初始状态开始,马尔科夫链第t步的状态分布在 t → ∞ t \rightarrow \infty t时必收敛于一个平稳分布(stationary distribution)。

第七章 贝叶斯分类器_第2张图片
7.6 EM算法

隐变量(latent variable):未观测变量

令X表示已观测变量集,Z表示隐变量集, Θ \Theta Θ表示模型参数。若对 Θ \Theta Θ做极大似然估计,则对应最大化对数似然

LL ( Θ ∣ X , Z ) = ln ⁡ P ( X , Z ∣ Θ ) \text{LL}\left( \Theta \middle| X,Z \right) = \ln{P\left( X,Z \middle| \Theta \right)} LL(ΘX,Z)=lnP(X,ZΘ)

计算Z的期望来最大化已观测数据的对数边际似然(marginal likelihood)

LL ( Θ ∣ X ) = ln ⁡ P ( X ∣ Θ ) = ln ⁡ ∑ Z P ( X , Z ∣ Θ ) \text{LL}\left( \Theta \middle| X \right) = \ln{P\left( X \middle| \Theta \right) = \ln{\sum_{Z}^{}{P\left( X,Z \middle| \Theta \right)}}} LL(ΘX)=lnP(XΘ)=lnZP(X,ZΘ)

EM(Expectation-Maximization)算法是常用的估计参数隐变量的利器,基本思想:若参数 Θ \Theta Θ已知,则可根据训练数据推断出最优隐变量Z的值(E步);反之,若Z的值已知,则可方便地对参数 Θ \Theta Θ做极大似然估计(M步)

以初始值 Θ 0 \Theta^{0} Θ0为起点,上式可迭代执行以下步骤直至收敛:

  1、基于 Θ t \Theta^{t} Θt推断变量Z的期望,记为 Z t Z^{t} Zt

  2、基于已观测变量X和 Z t Z^{t} Zt对参数 Θ \Theta Θ做极大似然估计,记为 Θ t + 1 \Theta^{t +1} Θt+1

基于 Θ t \Theta^{t} Θt计算隐变量Z的概率分布 P ( X ∣ Z , Θ t ) P\left( X \middle| Z,\Theta^{t} \right) P(XZ,Θt),则EM算法的两个步骤为

  1、E步:以当前参数 Θ t \Theta^{t} Θt推断隐变量分布 P ( X ∣ Z , Θ t ) P\left( X \middle| Z,\Theta^{t} \right) P(XZ,Θt),并计算对数似然 LL ( Θ ∣ X , Z ) \text{LL}\left( \Theta \middle| X,Z \right) LL(ΘX,Z)关于Z的期望
Q ( Θ ∣ Θ t ) = E Z ∣ X , Θ t LL ( Θ ∣ X , Z ) Q\left( \Theta \middle| \Theta^{t} \right) = \mathbb{E}_{Z|X,\Theta^{t}}\text{LL}\left( \Theta \middle| X,Z \right) Q(ΘΘt)=EZX,ΘtLL(ΘX,Z)

  2、M步:寻找参数最大化期望似然
Θ t + 1 = arg ⁡ max ⁡ Q ( Θ ∣ Θ t ) \Theta^{t + 1} = \arg\operatorname{max}{Q\left( \Theta \middle| \Theta^{t} \right)} Θt+1=argmaxQ(ΘΘt)

你可能感兴趣的:(Machine,Learning,贝叶斯决策论,朴素贝叶斯,半朴素贝叶斯,EM算法)