概率图模型

文章目录

    • 1.概率图模型定义
    • 2. 有向概率图模型
    • 3. 无向概率图模型
    • 4. 隐马尔科夫模型简介
      • 4.1 参数介绍
      • 4.2 联合概率
      • 4.3 隐马尔科夫模型的三要素
      • 4.4 步骤
      • 4.5 一个简单的隐马尔科夫链简单实例
      • 4.6 隐马尔科夫模型一般用于解决三类问题
        • 6.1 评估问题
        • 6.2 解码问题
        • 6.3 学习问题
    • 5. 马尔科夫网络
      • 5.1 MRF 马尔科夫随机场
        • 5.1.1 全局马尔科夫性
        • 5.1.2 局部马尔科夫性
        • 5.1.3 成对马尔科夫性
      • 5.2 CRF 条件随机场
        • 5.2.1 条件随机场的定义
        • 5.2.2 线性链条随机场


1.概率图模型定义

  • 概率图模型是一类用图的形式表示随机变量之间条件依赖关系的概率模型
  • 图中的一个结点表示一个或者一组随机变量,结点之间边表示变量之间的概率相关关系
  • 有向图称为贝叶斯网络,分为静态贝叶斯网络和动态贝叶斯网络,动态贝叶斯网络包括隐马尔科夫模型,卡尔曼滤波器
  • 无向图称为马尔科夫网,包括吉布斯/波尔兹曼机 条件随机场

2. 有向概率图模型

概率图模型_第1张图片

∀ x i ∈ X \forall x_i\in X xiX都含有一个影响因子,称为父节点 g ( x i ) g(xi) g(xi)

联合概率为 p ( X ) = ∏ x i ∈ X p ( x i ∣ g ( x i ) ) p(X)=\displaystyle \prod_{x_i\in X} p(xi|g(xi)) p(X)=xiXp(xig(xi))

如上图的联合概率为 P ( A , B , C , D ) = P ( A ) P ( B ∣ A ) P ( C ∣ A ) P ( D ∣ B C ) P(A,B,C,D)=P(A)P(B|A)P(C|A)P(D|BC) P(A,B,C,D)=P(A)P(BA)P(CA)P(DBC)

3. 无向概率图模型

概率图模型_第2张图片
  1. 任意两两之间有边连接的结点集合称为团 极大团 在团中加入任意一个结点都不再形成团。

  2. 无向概率图模型中每个团 C i C^i Ci都伴随着一个因子或者称为势函数,即为 ψ i ( C i ) \psi^i(C^i) ψi(Ci), 这些因子仅仅是函数,并不是概率分布

  3. 随机变量的联合概率与所有这些因子的乘积成比例,虽然不能保证乘积为1,但是可以归一化得到一个概率分布,除以常数Z使其归一化,常数通常定义为 ψ \psi ψ乘积所有状态的求和或者积分 p ( X ) = 1 z ∏ i ψ i ( C ( i ) \displaystyle p(X)=\frac{1}{z}\prod_{i}\psi^i(C^{(i)} p(X)=z1iψi(C(i)

    例: P ( A , B , C , D ) = 1 Z ψ 1 ( A , B ) ψ 2 ( A , C ) ψ 3 ( B , D ) ψ 4 ( C , D ) \displaystyle P(A,B,C,D)=\frac{1}{Z} \psi^1(A,B)\psi^2(A,C)\psi^3(B,D)\psi^4(C,D) P(A,B,C,D)=Z1ψ1(A,B)ψ2(A,C)ψ3(B,D)ψ4(C,D)

  4. 有向图的联合概率可以写成各条件概率的乘积,无向图的联合概率可以写成极大团随机变量函数的乘积

4. 隐马尔科夫模型简介

概率图模型_第3张图片

4.1 参数介绍

− > -> >表示状态转移 |表示观察值输出
[ z 1 , z 2 , z 3 , z 4 , ⋯   , z n ] [z_1,z_2,z_3,z4,\cdots,z_n] [z1,z2,z3,z4,,zn] z i z_i zi表示时刻i的系统状态,通常状态变量是隐藏的,不可被观察的,此时的状态变量称为隐变量
[ x 1 , x 2 , x 3 , x 4 , ⋯   , x n ] [x_1,x_2,x_3,x_4,\cdots,x_n] [x1,x2,x3,x4,,xn] x i x_i xi表示时刻i的系统的观察值

4.2 联合概率

Z t − 1 − > Z t Z_{t-1}->Z_t Zt1>Zt
|
x t x_t xt
横向箭头表示t时刻的状态 Z t Z_t Zt仅依赖于前一个时刻t-1的状态 Z t − 1 Z_{t-1} Zt1与其前面的t-1的任何状态无关, X t X_t Xt纵向箭头仅依赖于当前的状态变量, X t Xt Xt仅由 Z t Z_t Zt确定,与其他状态变量或者观察值无关,这就是所谓的马尔科夫链,所有变量的联合概率为所有条件概率的乘积(即有向图的联合概率)

p ( x 1 , z 1 , x 2 , z 2 , ⋯   , x n , z n ) = p ( z 1 ) p ( x 1 ∣ z 1 ) p ( z 2 ∣ z 1 ) p ( x 2 ∣ z 2 ) ⋯ p ( z n ∣ z n − 1 ) p ( x n ∣ z n ) \displaystyle p(x_1,z_1,x_2,z_2,\cdots,x_n,z_n)=p(z_1)p(x_1|z_1)p(z_2|z_1)p(x_2|z_2)\cdots p(z_n|z_{n-1})p(x_n|z_n) p(x1,z1,x2,z2,,xn,zn)=p(z1)p(x1z1)p(z2z1)p(x2z2)p(znzn1)p(xnzn)

4.3 隐马尔科夫模型的三要素

  1. 初始状态项链 ( π = [ π 1 , π 2 , π 3 , ⋯   , π n ] ) (\pi=[\pi_1,\pi_2,\pi_3,\cdots,\pi_n]) (π=[π1,π2,π3,,πn]): 模型在初始时刻各状态出现的概率

    π = p ( z i = s i )   i ∈ ( 1 , N ) \pi=p(z_i=s_i)\ i\in(1,N) π=p(zi=si) i(1,N)

  2. 状态转移概率A : 模型在各个状态之间转移的概率.记为矩阵 A = [ a i j ] N × N A=[a_{ij}]_{N\times N} A=[aij]N×N

    a i j = p ( z t + 1 = s j ∣ z t = s i ) i ∈ ( 1 , N ) a_{ij}=p(z_{t+1}=s_j|z_t=s_i) i\in(1,N) aij=p(zt+1=sjzt=si)i(1,N)

  3. 观测概率矩阵B: 模型根据当前状态获得各个观测值的概率,记为 B = [ b i j ] N × N B=[b_{ij}]_{N\times N} B=[bij]N×N

    b i j = p ( x t = o j ∣ z t = s i ) i ∈ ( 1 , N ) b_{ij}=p(x_t=o_j|z_t=s_i) i\in(1,N) bij=p(xt=ojzt=si)i(1,N)

  4. π A n = λ A n \pi A^n =\lambda A^n πAn=λAn最终 π \pi π收敛在 A A A的特征向量上

4.4 步骤

根据初始参数确定获取观测序列 θ = { π , A , B } \theta=\{\pi,A,B\} θ={π,A,B}

(1):根据初始状态 π \pi π获取初始状态 z 1 z_1 z1
(2):根据状态 Z t Z_t Zt和输出观测概率矩阵B选择观测变量取值 x t x_t xt
(3):根据状态 Z t Z_t Zt和状态转移矩阵A,选择确定 Z t + 1 Z_{t+1} Zt+1
(4):若t

4.5 一个简单的隐马尔科夫链简单实例

概率图模型_第4张图片 概率图模型_第5张图片

假设有三种骰子,分别由4,6,8个面
(1):每次从3个骰子中挑一个 ,获得 θ = { π , A , B } \theta=\{\pi,A,B\} θ={π,A,B}

(2):掷骰子,得到一个数字

p ( 1 ) = p ( 1 ∩ ( ∪ i = 1 n s t a t e i ) ) = p ( 1 ∣ D 6 ) p ( D 6 ) + p ( 1 ∣ D 4 ) p ( D 4 ) + p ( 1 ∣ D 8 ) p ( D 8 ) p(1)=p(1\cap(\cup_{i=1}^nstate_i))=p(1|D_6)p(D_6)+p(1|D_4)p(D_4)+p(1|D_8)p(D_8) p(1)=p(1(i=1nstatei))=p(1D6)p(D6)+p(1D4)p(D4)+p(1D8)p(D8)

4.6 隐马尔科夫模型一般用于解决三类问题

6.1 评估问题

许多任务需要根据以往的观测序列 { x 1 , x 2 , x 3 , ⋯   , x n } \{x_1,x_2,x_3,\cdots,x_n\} {x1,x2,x3,,xn}来推测当前时刻最有可能的观测值 x n x_n xn 这个问题可以转换为求概率 p ( x ∣ θ ) = p ( x ) p ( θ ∣ x ) p ( θ ) \displaystyle p(x|\theta)=\frac{p(x)p(\theta|x)}{p(\theta)} p(xθ)=p(θ)p(x)p(θx)
知道骰子有几种(隐含状态数量)、知道每种骰子是什么(转换概率A)、根据骰子掷出的结果(可见状态链),了解掷出这个结果的概率
其实是检查观察到的结果和已知的模型是否吻合,如果每次结果都对应一个小的概率说明我们已知的这个模型有可能是错误的
前向算法

6.2 解码问题

给定模型{π,A,B}和观测序列 { x 1 , x 2 , x 3 , ⋯   , x n } \{x_1,x_2,x_3,\cdots,x_n\} {x1,x2,x3,,xn}如何找到与之最为匹配的隐含序列 { z 1 , z 2 , z 3 , ⋯   , z n } \{z_1,z_2,z_3,\cdots,zn\} {z1,z2,z3,,zn}
在语音识别中观测值为语言信号,隐含状态为文字,目标就是根据观测信号来推测最有可能的隐含状态序列,也就是根据语音推测出最有可能的文字
知道骰子有几种(隐含状态数量)、知道每种骰子是什么(转换概率)、根据骰子掷出的结果(可见状态链),推测掷出的这个结果属于哪种骰子
维比特算法

6.3 学习问题

给定观测序列 X = { x 1 , x 2 , x 3 , ⋯   , x n } X=\{x_1,x_2,x_3,\cdots,x_n\} X={x1,x2,x3,,xn}如何调整参数{π,A,B}使得该序列出现的概率$p(x|\theta) $最大,这个问题就是如何根据训练样本学得最优化模型参数
Baum-Welch算法
知道骰子有几种(隐含状态数量)、知道每种骰子是什么(转换概率)、根据骰子掷出的结果(可见状态链),反推出每种骰子是什么(转换概率)

5. 马尔科夫网络

  • 一方面可以表示贝叶斯网络无法表示的一些依赖关系,如循环依赖

    另一方面不可以表示贝叶斯网络能够表示的某些关系,如推导关系

  • 马尔科夫网络基于团或者最大团分解,Hammerslay-Clifford定理 联合概率 p ( X ) = 1 z ∏ i ψ i ( C ( i ) \displaystyle p(X)=\frac{1}{z}\prod_{i}\psi^i(C^{(i)} p(X)=z1iψi(C(i)

5.1 MRF 马尔科夫随机场

在概率图模型中一个重要的任务是分解概率联合函数,而函数分解通常利用随机变量的独立性或者条件独立性

设X,Y分别为两个最大团,如果X中的结点到Y中的结点都必须经过结点Z中的结点,则称结点集X和Y被结点集Z分离,Z称为分离集

5.1.1 全局马尔科夫性

概率图模型_第6张图片

给定这两个变量子集的分离集,则两个变量子集条件独立
P ( X , Y ∣ Z ) = P ( X ∣ Z ) P ( Y ∣ Z ) P(X,Y|Z)=P(X|Z)P(Y|Z) P(X,YZ)=P(XZ)P(YZ)

5.1.2 局部马尔科夫性

概率图模型_第7张图片

X 1 X_1 X1是无向图中的一个结点, W = { X 2 , X 3 } W=\{X_2,X_3\} W={X2,X3}是与$ X_1 相 连 的 所 有 结 点 , 相连的所有结点, O={X_4,X_5} 是 是 X_1、W 外 的 所 有 结 点 , 则 外的所有结点,则 X_1$与O独立
P ( X , O ∣ W ) = P ( X ∣ W ) P ( O ∣ W ) P(X,O|W)=P(X|W)P(O|W) P(X,OW)=P(XW)P(OW)

5.1.3 成对马尔科夫性

概率图模型_第8张图片

X 4 X_4 X4 X 5 X_5 X5是无向图中任意两个不相邻的结点,其他所有结点 O = { X 1 , X 2 , X 3 } O=\{X_1,X_2,X_3\} O={X1,X2,X3}
则有 P ( X 4 , X 5 ∣ O ) = P ( X 4 ∣ O ) P ( X 5 ∣ O ) P(X_4,X_5|O)=P(X_4|O)P(X_5|O) P(X4,X5O)=P(X4O)P(X5O)

5.2 CRF 条件随机场

条件随机场是条件概率分布模型 P ( Y ∣ X ) P(Y|X) P(YX),表示的是在给定一组输入随机变量X的条件下另一组输出随机变量Y的马尔科夫随机场。CRF的特点是假设输出随机变量构成马尔科夫随机场。在 P ( Y ∣ X ) P(Y|X) P(YX)模型中,Y为输出变量,表示标记序列;X为输入变量,表示需要标注的观测序列。(可以用来进行词性标注,X为一个序列,Y为序列标注或者标记为状态序列,也就是利用X观测序列预测出来自的状态序列).训练时通过极大似然估计或者正则化的极大似然估计得到条件概率模型 P ^ ( Y ∣ X ) \hat P(Y|X) P^(YX),预测时得到使 P ^ ( Y ∣ X ) \hat P(Y|X) P^(YX)的输出序列Y

5.2.1 条件随机场的定义

设X与Y是随机变量, P ( Y ∣ X ) P(Y|X) P(YX)是在给定X的条件下Y的条件概率分布。若随机变量Y构成一个由无向图 G = < V , E > G= G=<V,E>表示的是马尔科夫随机场,即
P ( Y v ∣ X , Y w , w ≠ v ) = P ( Y v ∣ X , Y w , w ∼ v ) P(Y_v|X,Y_w,w\not=v)=P(Y_v|X,Y_w,w\sim v) P(YvX,Yw,w=v)=P(YvX,Yw,wv)
∀ v ∈ V \forall v \in V vV上述条件成立,则称 P ( Y ∣ X ) P(Y|X) P(YX)为条件随机场。

w ≠ v w\not=v w=v表示结点v以外的所有结点, w ∼ v w\sim v wv表示G中与v连接的所有结点。

5.2.2 线性链条随机场

概率图模型_第9张图片

随机变量Y的条件概率分布P(Y|X)构成条件随机场,即满足马尔科夫性

p ( Y i ∣ X , Y 1 , Y 2 , ⋯   , Y i − 1 , Y i + 1 , ⋯   , Y n ) = P ( Y i ∣ X , Y i − 1 , Y i + 1 ) p(Y_i|X,Y_1,Y_2,\cdots,Y_{i-1},Y_{i+1},\cdots,Y_n)=P(Y_i|X,Y_{i-1},Y_{i+1}) p(YiX,Y1,Y2,,Yi1,Yi+1,,Yn)=P(YiX,Yi1,Yi+1)

则称 P ( Y ∣ X ) P(Y|X) P(YX)为线性链条件随机场。

你可能感兴趣的:(深度学习笔记)