机器学习笔记之指数族分布——指数族分布介绍

机器学习笔记之指数族分布——指数族分布介绍

  • 引言
    • 指数族分布介绍
    • 常见的指数族分布
      • 推导过程
    • 指数族分布的共轭性质

引言

本节及后续小节将从指数族分布 → \to 熵、最大熵原理 → s i g m o i d , s o f t m a x \to sigmoid,softmax sigmoid,softmax函数的思路进行介绍。

指数族分布介绍

指数族分布(Exponential Families of Distributions),它不是某一个分布,而是满足某种条件的分布集合。从名字可以看出,指数族分布的概率分布与指数相关。指数族分布的统一格式表示如下
P ( x ∣ η ) = h ( x ) e η T ϕ ( x ) − A ( η ) P(x \mid \eta) = h(x) e^{\eta^{T} \phi(x) - A(\eta)} P(xη)=h(x)eηTϕ(x)A(η)

如果只看公式等号左边 → P ( x ∣ η ) \to P(x \mid \eta) P(xη),在介绍极大似然估计与最大后验概率估计中介绍过,它可以表示为 基于参数向量 η \eta η生成随机样本 x x x的概率模型

我们称:

  • ϕ ( x ) \phi(x) ϕ(x)充分统计量,它可以理解成样本的函数—— 如果已知充分统计量,就可以通过该统计量得到完整的概率分布表达形式
    在后续的公式推导中进行证明。
  • η \eta η表示生成概率模型 P ( x ∣ η ) P(x \mid \eta) P(xη)的参数向量;
  • h ( x ) h(x) h(x)仅表示关于 x x x的一个函数,在一些具体分布中(如高斯分布、伯努利分布)通常以常数形式出现;
  • A ( η ) A(\eta) A(η)通常表示为 log ⁡ \log log配分函数(对数配分函数)(log Partition Function),在指数族分布主要起归一化作用,其本质是关于模型参数 η \eta η的函数;
    因此,指数族分布还有另一种常见表达形式(将 A ( η ) A(\eta) A(η)提出来):
    P ( x ∣ η ) = h ( x ) e η T ϕ ( x ) e − A ( η ) = 1 e A ( η ) h ( x ) e η T ϕ ( x ) \begin{aligned} P(x \mid \eta) & = h(x) e^{\eta^{T} \phi(x)}e^{-A(\eta)}\\ & = \frac{1}{e^{A(\eta)}}h(x)e^{\eta^{T} \phi(x)} \end{aligned} P(xη)=h(x)eηTϕ(x)eA(η)=eA(η)1h(x)eηTϕ(x)
    e A ( η ) = z e^{A(\eta)} = z eA(η)=z(z表示 配分函数);原始表示为:
    1 z h ( x ) e η T ϕ ( x ) \frac{1}{z}h(x)e^{\eta^{T} \phi(x)} z1h(x)eηTϕ(x)
    因此, A ( η ) = log ⁡ z A(\eta) = \log z A(η)=logz。 这也是 A ( η ) log ⁡ A(\eta) \log A(η)log配分函数的由来。
    先挖好‘配分函数’的坑,后期拿传送门来填。

指数族分布应用广泛,如广义线性模型(Generalized Linear Model,GLM),概率图中的无向图模型如受限玻尔兹曼机(Restricted Boltzmann Machine,RBM)均存在指数族分布的理论支撑
甚至在深度强化学习中,使用策略梯度方法求解强化学习任务时,需要使用 s o f t m a x softmax softmax函数将离散型的动作映射成具有连续性质的指数族分布。

常见的指数族分布

我们在概率论与数理统计中学习到的大部分分布都是指数族分布,下面列举一些常见分布:

  • 高斯分布(Normal Distribution);
  • 伯努利分布(Bernoulli Distribution);
  • 二项分布(Binomial Distribution);
  • 泊松分布(Poisson Distribution);
  • 贝塔分布(Beta Distribution);
  • 狄利克雷分布(Dirichlet Distribution);
  • 伽马分布(Gamma Distribution)等等。

下面对伯努利分布、高斯分布、二项分布进行推导,观察经过变化后的分布和指数族分布统一格式之间的关联关系。

推导过程

  • 伯努利分布
    P ( x ) = p x ( 1 − p ) 1 − x = { p i f x = 1 q i f x = 0 P(x) = p^x(1 - p)^{1-x} = \begin{cases} p \quad if \quad x = 1 \\ q \quad if \quad x = 0 \end{cases} P(x)=px(1p)1x={pifx=1qifx=0

    将上述公式进行变化:

    • 插入 e x p exp exp完全展开
      P ( x ) = p x ( 1 − p ) 1 − x = e log ⁡ [ p x ( 1 − p ) 1 − x ] = e x log ⁡ p 1 − p + log ⁡ ( 1 − p ) \begin{aligned} P(x) & = p^x(1 - p)^{1-x} \\ & = e^{\log[p^x(1 - p)^{1-x}]} \\ & = e^{x\log \frac{p}{1- p} + \log (1- p)} \end{aligned} P(x)=px(1p)1x=elog[px(1p)1x]=exlog1pp+log(1p)
    • η = log ⁡ p 1 − p \eta = \log\frac{p}{1 - p} η=log1pp,那么 p p p η \eta η表示为:
      p = e η 1 + e η p = \frac{e^{\eta}}{1 + e^{\eta}} p=1+eηeη
    • p = e η 1 + e η p = \frac{e^{\eta}}{1 + e^{\eta}} p=1+eηeη带回上述展开式:
      I = e x ⋅ η + log ⁡ ( 1 − e η e η + 1 ) = e x ⋅ η + log ⁡ ( 1 1 + e η ) = e η T x − log ⁡ ( 1 + e η ) \begin{aligned} I & = e^{x \cdot \eta + \log(1 - \frac{e^\eta}{e^\eta + 1})} \\ & = e^{x \cdot \eta +\log(\frac{1}{1 + e^\eta})} \\ & = e^{\eta^Tx - \log(1 + e^\eta)} \end{aligned} I=exη+log(1eη+1eη)=exη+log(1+eη1)=eηTxlog(1+eη)

    观察变化后的公式,对照指数族分布的定义式,可以发现:

    • ϕ ( x ) = x \phi(x) = x ϕ(x)=x
    • h ( x ) = 1 h(x) = 1 h(x)=1
    • A ( η ) = log ⁡ ( 1 + e η ) A(\eta) = \log(1 + e^\eta) A(η)=log(1+eη)

    伯努利分布完全可以写成指数族分布的形式

  • 二项分布
    二项分布可以看成若干次独立重复的伯努利实验,它的具体概率分布公式表示如下:
    P ( x = k ) = C n k p k ( 1 − p ) n − k P(x = k) = \mathcal C_{n}^{k}p^k(1-p)^{n-k} P(x=k)=Cnkpk(1p)nk
    其中, C n k \mathcal C_{n}^{k} Cnk表示二项式系数
    C n k = n ! k ! ( n − k ) ! C_{n}^{k} = \frac{n!}{k!(n-k)!} Cnk=k!(nk)!n!
    它的指数族分布表示和伯努利分布非常相似:

    • 插入 e x p exp exp并完全展开:
      P ( x ) = n ! x ! ( n − x ) ! p x ( 1 − p ) n − x = e l o g [ n ! x ! ( n − x ) ! p x ( 1 − p ) n − x ] = e l o g n ! x ! ( n − x ) ! + x log ⁡ p + n log ⁡ ( 1 − p ) − x log ⁡ ( 1 − p ) = e l o g n ! x ! ( n − x ) ! + x log ⁡ p 1 − p + n log ⁡ ( 1 − p ) \begin{aligned} P(x) & = \frac{n!}{x!(n-x)!}p^x(1-p)^{n-x} \\ & = e^{log[\frac{n!}{x!(n-x)!}p^x(1-p)^{n-x}]} \\ & = e^{log\frac{n!}{x!(n-x)!} + x\log p + n\log(1-p) -x\log(1-p)} \\ & = e^{log\frac{n!}{x!(n-x)!} + x\log\frac{p}{1-p} +n \log(1 - p)}\\ \end{aligned} P(x)=x!(nx)!n!px(1p)nx=elog[x!(nx)!n!px(1p)nx]=elogx!(nx)!n!+xlogp+nlog(1p)xlog(1p)=elogx!(nx)!n!+xlog1pp+nlog(1p)
    • 由于 n ! x ! ( n − x ) ! \frac{n!}{x!(n-x)!} x!(nx)!n! n n n是表示实验次数,是常数,因此 n ! x ! ( n − x ) ! \frac{n!}{x!(n-x)!} x!(nx)!n!可看做仅关于 x x x的函数,将其提出;并令 η = log ⁡ p 1 − p \eta = \log\frac{p}{1 - p} η=log1pp,那么 P ( x ) P(x) P(x) η \eta η表示为:
      p = e η 1 + e η p = \frac{e^{\eta}}{1 + e^{\eta}} p=1+eηeη
    • 继续化简如下(将 p p p带回原式):
      I = n ! x ! ( n − x ) ! e [ x log ⁡ p 1 − p + n log ⁡ ( 1 − p ) ] = n ! x ! ( n − x ) ! e η T x − n log ⁡ ( 1 + e η ) \begin{aligned} I & = \frac{n!}{x!(n-x)!}e^{[x \log\frac{p}{1-p} + n \log(1 - p)]} \\ & = \frac{n!}{x!(n-x)!}e^{\eta^{T}x - n\log(1 + e^\eta)} \\ \end{aligned} I=x!(nx)!n!e[xlog1pp+nlog(1p)]=x!(nx)!n!eηTxnlog(1+eη)

    对照指数族分布定义式,获取参数如下:

    • ϕ ( x ) = x \phi(x) = x ϕ(x)=x
    • h ( x ) = n ! x ! ( n − x ) ! h(x) = \frac{n!}{x!(n-x)!} h(x)=x!(nx)!n!
    • A ( η ) = n log ⁡ ( 1 + e η ) A(\eta) = n\log(1 + e^\eta) A(η)=nlog(1+eη)
  • 一维高斯分布
    P ( x ∣ θ ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 P(x \mid \theta) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x - \mu)^2}{2\sigma^2}} P(xθ)=2π σ1e2σ2(xμ)2
    同理,将上述公式完全展开,系数部分插入 e x p exp exp
    I = e log ⁡ ( 2 π σ 2 ) − 1 2 e − 1 2 σ 2 ( x 2 − 2 μ x + μ 2 ) = e − 1 2 log ⁡ ( 2 π σ 2 ) e − 1 2 σ 2 ( x 2 − 2 μ x ) − μ 2 2 σ 2 \begin{aligned} I & = e^{\log(2\pi\sigma^2)^{-\frac{1}{2}}}e^{-\frac{1}{2\sigma^2}(x^2 -2\mu x + \mu^2)} \\ & = e^{-\frac{1}{2}\log(2\pi\sigma^2)}e^{-\frac{1}{2\sigma^2}(x^2 -2\mu x)-\frac{\mu^2}{2\sigma^2}} \end{aligned} I=elog(2πσ2)21e2σ21(x22μx+μ2)=e21log(2πσ2)e2σ21(x22μx)2σ2μ2
    此时,两项都有相同的底 e x p exp exp,将两项合并;技巧操作:将 x 2 − 2 μ x x^2 - 2\mu x x22μx视为两向量的乘法操作。即:
    x 2 − 2 μ x = ( − 2 μ , 1 ) ( x x 2 ) x^2 - 2\mu x = \begin{pmatrix}-2\mu,1\end{pmatrix}\begin{pmatrix}x\\x^2\end{pmatrix} x22μx=(2μ,1)(xx2)
    化简得到如下结果:
    − 1 2 σ 2 -\frac{1}{2\sigma^2} 2σ21作为系数带到矩阵中:
    − 1 2 σ 2 ( − 2 μ , 1 ) = ( μ σ 2 , − 1 2 σ 2 ) -\frac{1}{2\sigma^2} \begin{pmatrix}-2\mu,1\end{pmatrix} = (\frac{\mu}{\sigma^2},-\frac{1}{2\sigma^2})\\ 2σ21(2μ,1)=(σ2μ,2σ21)
    最终化简结果为:
    e ( μ σ 2 , − 1 2 σ 2 ) ( x x 2 ) − [ μ 2 2 σ 2 + 1 2 log ⁡ ( 2 π σ 2 ) ] e^{(\frac{\mu}{\sigma^2},-\frac{1}{2\sigma^2})\begin{pmatrix}x\\x^2\end{pmatrix} - [\frac{\mu^2}{2\sigma^2} + \frac{1}{2}\log(2\pi\sigma^2)]} e(σ2μ,2σ21)(xx2)[2σ2μ2+21log(2πσ2)]

    对照指数族分布定义式

    • ϕ = ( x x 2 ) \phi = \begin{pmatrix}x\\x^2\end{pmatrix} ϕ=(xx2)
    • h ( x ) = 1 h(x) = 1 h(x)=1
    • η T = ( μ σ 2 , − 1 2 σ 2 ) \eta^{T} = (\frac{\mu}{\sigma^2},-\frac{1}{2\sigma^2}) ηT=(σ2μ,2σ21)
    • A ( η ) = μ 2 2 σ 2 + 1 2 log ⁡ ( 2 π σ 2 ) A(\eta) = \frac{\mu^2}{2\sigma^2} + \frac{1}{2}\log(2\pi\sigma^2) A(η)=2σ2μ2+21log(2πσ2)

实际上,我们可以对 η \eta η继续化简:

  • η = ( η 1 η 2 ) = ( μ σ 2 − 1 2 σ 2 ) \eta = \begin{pmatrix}\eta_1\\\eta_2\end{pmatrix} = \begin{pmatrix}\frac{\mu}{\sigma^2}\\-\frac{1}{2\sigma^2}\end{pmatrix} η=(η1η2)=(σ2μ2σ21)
  • 求得 μ , σ \mu,\sigma μ,σ表示如下:
    μ = − η 1 2 η 2 ; σ 2 = − 1 2 η 2 \mu = -\frac{\eta_1}{2\eta_2};\sigma^2 = -\frac{1}{2\eta_2} μ=2η2η1;σ2=2η21
  • A ( η ) A(\eta) A(η)表示为如下形式:
    A ( η ) = − η 1 2 4 η 2 + 1 2 log ⁡ ( π η 2 ) A(\eta) = -\frac{\eta_1^2}{4\eta_2} + \frac{1}{2} \log(\frac{\pi}{\eta_2}) A(η)=4η2η12+21log(η2π)

回头观察充分统计量
ϕ = ( x x 2 ) \phi = \begin{pmatrix}x\\x^2\end{pmatrix} ϕ=(xx2)
如果某组数据 X = { x ( 1 ) , x ( 2 ) , ⋯   , x ( N ) } \mathcal X = \{x^{(1)},x^{(2)},\cdots,x^{(N)}\} X={x(1),x(2),,x(N)}服从高斯分布,并且知晓该数据的两种信息:
( ∑ i = 1 N x i ∑ i = 1 N x i 2 ) \begin{pmatrix}\sum_{i=1}^N x_i \\ \\ \sum_{i=1}^N x_i^2 \end{pmatrix} i=1Nxii=1Nxi2
那么该信息就可以构建一个完整的高斯分布模型 P ( x ∣ η ) P(x \mid \eta) P(xη), 并可以从该模型中源源不断地生成 X \mathcal X X相同分布的样本:
μ = 1 N ∑ i = 1 N x i σ 2 = ∑ i = 1 N x i 2 − μ 2 \begin{aligned} \mu & = \frac{1}{N}\sum_{i=1}^N x_i \\ \sigma^2 & = \sum_{i=1}^N x_i^2 - \mu^2 \end{aligned} μσ2=N1i=1Nxi=i=1Nxi2μ2
有了均值 μ \mu μ,方差 σ \sigma σ,自然可以求解高斯分布
P ( x ∣ θ ) = 1 2 π σ e − ( x − μ ) 2 2 σ 2 P(x \mid \theta) = \frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x - \mu)^2}{2\sigma^2}} P(xθ)=2π σ1e2σ2(xμ)2
因此,指数族分布概率模型中的所有信息都存储在充分统计量中。换句话说,如果某一概率模型是指数族分布,那么该模型的统计量本身就是充分统计量

指数族分布的共轭性质

在极大似然估计与最大后验概率估计介绍了贝叶斯估计及其弊端:
P ( θ ∣ x ) = P ( x ∣ θ ) P ( θ ) ∫ θ P ( x ∣ θ ) P ( θ ) d θ P(\theta \mid x) = \frac{P(x \mid \theta)P(\theta)}{\int_{\theta}P(x \mid \theta)P(\theta)d\theta} P(θx)=θP(xθ)P(θ)dθP(xθ)P(θ)

其本质是积分难问题,如果 θ \theta θ是多维向量,每一维度都要计算积分,是相当耗费计算资源的事情。

共轭本身意思是指:给定特殊的似然 P ( x ∣ θ ) P(x \mid \theta) P(xθ)条件下,后验分布 P ( θ ∣ x ) P(\theta \mid x) P(θx)与先验分布 P ( θ ) P(\theta) P(θ)会形成相同分布形式。
如果概率模型 P ( x ∣ θ ) P(x \mid \theta) P(xθ)是指数族分布,就可以满足共轭条件,在使用贝叶斯估计求解问题时,可以直接跳过求解分母积分的过程,这种性质为推断、模型选择提供很大便利

具体表述逻辑如下:

  • 如果概率模型(似然函数) P ( x ∣ θ ) P(x \mid \theta) P(xθ)分布 存在一个共轭的先验分布 P ( θ ) P(\theta) P(θ),那么效果是:后验分布 P ( θ ∣ x ) P(\theta \mid x) P(θx)与先验分布 P ( θ ) P(\theta) P(θ)会形成相同分布形式
    注意:先验分布和后验分布的分布形式相同,但并不是相等。

下一节将介绍指数族分布与最大熵的关系

相关参考:
二项分布
指数族分布
机器学习-白板推导系列(八)-指数族分布(Exponential Family Distribution)

你可能感兴趣的:(机器学习,机器学习,概率论,指数族分布,充分统计量,共轭分布)