【导读】隐马尔可夫模型(Hidden Markov Model,HMM)是关于时许的概率模型,是一个生成模型,描述由一个隐藏的马尔科夫链随机生成不可观测的状态序列,每个状态生成一个观测,而由此产生一个观测序列。
定义抄完了,下面我们从一个简单的生成过程入手,顺便引出HMM的参数。
假设有4个盒子,每个盒子里面有不同数量的红、白两种颜色的球,具体如下表:
现在从这些盒子中抽取若干( )个球,每次抽取后记录颜色,再放回原盒子,采样的规则如下:
开始时,按照一个初始概率分布随机选择第一个盒子,这里将第一个盒子用 表示:
将的值用变量 表示。因为有4个盒子可共选择,所以 。然后随机从该盒子中抽取一个球,使用表示:
将 的值用变量 表示。因为只有两种球可供选择,所以 。一共有4个箱子,2种球,结合前面的箱子的详细数据,可以得到从每一个箱子取到各种颜色球的可能性,用一个表格表示:
进一步,可以用一个矩阵(称为观测概率矩阵,也有资料叫做发射矩阵)来表示该表
其中 表示在当前时刻给定 的条件下,给定
表示当前的时刻,例如现在是第1时刻;然后是前面标注的初始概率分布,这个概率分布可以用一个向量(称作初始状态概率向量)来表示:
其中的
例如该分布是均匀分布的话,对应的向量就是
记录抽取的球的颜色后将其放回,然后在按照如下规则选择下一个盒子():
import numpy as np
class HMM(object):
def __init__(self, N, M, pi=None, A=None, B=None):
self.N = N
self.M = M
self.pi = pi
self.A = A
self.B = B
def get_data_with_distribute(self, dist): # 根据给定的概率分布随机返回数据(索引)
r = np.random.rand()
for i, p in enumerate(dist):
if r < p: return i
r -= p
def generate(self, T: int):
'''
根据给定的参数生成观测序列
T: 指定要生成数据的数量
'''
z = self.get_data_with_distribute(self.pi) # 根据初始概率分布生成第一个状态
x = self.get_data_with_distribute(self.B[z]) # 生成第一个观测数据
result = [x]
for _ in range(T-1): # 依次生成余下的状态和观测数据
z = self.get_data_with_distribute(self.A[z])
x = self.get_data_with_distribute(self.B[z])
result.append(x)
return result
if __name__ == "__main__":
pi = np.array([.25, .25, .25, .25])
A = np.array([
[0, 1, 0, 0],
[.4, 0, .6, 0],
[0, .4, 0, .6],
[0, 0, .5, .5]])
B = np.array([
[.5, .5],
[.3, .7],
[.6, .4],
[.8, .2]])
hmm = HMM(4, 2, pi, A, B)
print(hmm.generate(10)) # 生成10个数据
# 生成结果如下
[0, 0, 1, 1, 1, 1, 0, 1, 0, 0] # 0代表红球,1代表白球
即使不考虑内部的计算,这起码也是 阶的计算量,所以需要更有效的算法,下面介绍两种:前向算法和后向算法。
也就是下图中标记的那一部分
接着,根据(2)式,还可以得到:
由此公式,遍历的取值求和,可以得到 的边际概率
class HMM(object):
def evaluate(self, X):
'''
根据给定的参数计算条件概率
X: 观测数据
'''
alpha = self.pi * self.B[:,X[0]]
for x in X[1:]:
# alpha_next = np.empty(self.N)
# for j in range(self.N):
# alpha_next[j] = np.sum(self.A[:,j] * alpha * self.B[j,x])
# alpha = alpha_next
alpha = np.sum(self.A * alpha.reshape(-1,1) * self.B[:,x].reshape(1,-1), axis=0)
return alpha.sum()
print(hmm.evaluate([0,0,1,1,0])) # 0.026862016
def evaluate_backward(self, X):
beta = np.ones(self.N)
for x in X[:0:-1]:
beta_next = np.empty(self.N)
for i in range(self.N):
beta_next[i] = np.sum(self.A[i,:] * self.B[:,x] * beta)
beta = beta_next
return np.sum(beta * self.pi * self.B[:,X[0]])
最终得到:
然后化简:
代入(7)式,得到
M是矩阵B的列数,前面已经定义过的,构造拉格朗日函数:
class HMM(object):
def fit(self, X):
'''
根据给定观测序列反推参数
'''
# 初始化参数 pi, A, B
self.pi = np.random.sample(self.N)
self.A = np.ones((self.N,self.N)) / self.N
self.B = np.ones((self.N,self.M)) / self.M
self.pi = self.pi / self.pi.sum()
T = len(X)
for _ in range(50):
# 按公式计算下一时刻的参数
alpha, beta = self.get_something(X)
gamma = alpha * beta
for i in range(self.N):
for j in range(self.N):
self.A[i,j] = np.sum(alpha[:-1,i]*beta[1:,j]*self.A[i,j]*self.B[j,X[1:]]) / gamma[:-1,i].sum()
for j in range(self.N):
for k in range(self.M):
self.B[j,k] = np.sum(gamma[:,j]*(X == k)) / gamma[:,j].sum()
self.pi = gamma[0] / gamma[-1].sum()
def get_something(self, X):
'''
根据给定数据与参数,计算所有时刻的前向概率和后向概率
'''
T = len(X)
alpha = np.zeros((T,self.N))
alpha[0,:] = self.pi * self.B[:,X[0]]
for i in range(T-1):
x = X[i+1]
alpha[i+1,:] = np.sum(self.A * alpha[i].reshape(-1,1) * self.B[:,x].reshape(1,-1), axis=0)
beta = np.ones((T,self.N))
for j in range(T-1,0,-1):
for i in range(self.N):
beta[j-1,i] = np.sum(self.A[i,:] * self.B[:,X[j]] * beta[j])
return alpha, beta
if __name__ == "__main__":
import matplotlib.pyplot as plt
def triangle_data(T): # 生成三角波形状的序列
data = []
for x in range(T):
x = x % 6
data.append(x if x <= 3 else 6-x)
return data
data = np.array(triangle_data(30))
hmm = HMM(10, 4)
hmm.fit(data) # 先根据给定数据反推参数
gen_obs = hmm.generate(30) # 再根据学习的参数生成数据
x = np.arange(30)
plt.scatter(x, gen_obs, marker='*', color='r')
plt.plot(x, data, color='g')
plt.show()
class HMM(object):
def decode(self, X):
T = len(X)
x = X[0]
delta = self.pi * self.B[:,x]
varphi = np.zeros((T, self.N), dtype=int)
path = [0] * T
for i in range(1, T):
delta = delta.reshape(-1,1) # 转成一列方便广播
tmp = delta * self.A
varphi[i,:] = np.argmax(tmp, axis=0)
delta = np.max(tmp, axis=0) * self.B[:,X[i]]
path[-1] = np.argmax(delta)
# 回溯最优路径
for i in range(T-1,0,-1):
path[i-1] = varphi[i,path[i]]
return path
◆
精彩推荐
◆