隐马尔科夫和最大熵马尔科夫

2019独角兽企业重金招聘Python工程师标准>>> hot3.png

隐马尔科夫实现:

前文链接:https://my.oschina.net/u/3268732/blog/1480198

如前文的说法,隐马尔科夫相关的有两个式子: 隐马尔科夫和最大熵马尔科夫_第1张图片 对两个式子就可以建立矩阵A,矩阵B。矩阵A是S之间的转换,为NN,N为标签个数,矩阵中的值为当前标签转移至下一标签的概率。矩阵B是S与O之间的转化,为NM,M为O的可能状态,实际上就是在求每个状态下转移的概率。模型中还有一个值π,寓意为每个标签出现的可能性。

下面对一个解码问题进行说明:

解码问题用维特比算法,可应用与文本信息抽取,还有什么基因检测,蛋白质二级序列啥的……解码问题有很多优化,如CRF等,真实工程中就不会用这种原始的了……。对于序列上的每一个元素,其转换可能为标签里的任意一种,同时,他被下一元素限制,因为下一元素也是一种转化的表现。所以大体思路就是先算所有词的转化标签概率(记得考虑自身和上一词两种情况),形成一个树状结构。(图示如李航《统计学习方法》P186)这个时候就是递推,一直推完。然后只需在这所有的路径里找到最优的方案,也就是所有概率最优的情况。

第一步:构建一个模型:

这一步直接就是对训练数据进行统计就完了

第二步:进行维特比算法:

算法:

隐马尔科夫和最大熵马尔科夫_第2张图片隐马尔科夫和最大熵马尔科夫_第3张图片 代码:

#统计a,pi
def HMMA():
    for i in range(len(label)):
        #初始化计数
        countp=[]
        s=0
        for j in range(len(label)):
            countp.append(0)
        for j in range(trainlen-1):
            if(trainos[j+1]==label[i]):
                s+=1
                countp[label.index(trainos[j])]+=1
        for j in range(len(label)):
            if(s!=0):a[i].append(countp[j]/s)
            else:a[i].append(0)
        #初始初始矩阵
        pi.append(s/trainlen)
    global b
    b=proyx

#统计b
def HMMB():
    count=[]
    for i in range(len(label)):
        countall=0
        for j in range(len(trainx)):
            count.append(0)
        for j in range(trainlen):
            if(trainos[j]==label[i]):
                countall+=1
                count[trainxx.index(trainsq[j])]+=1
        for j in range(len(trainxx)):
            hmmb[i].append(count[j]/countall)
        count=[]

#维特比
def viterbi(testsq,testos,b):
    delta = [[]for i in range(len(testsq))]
    fai = [[]for i in range(len(testsq))]
    #初始化
    if(len(testsq)==0):return
    for i in range(len(label)):
        if(testsq[0])in trainxx:
            delta[0].append(pi[i]*b[i][trainxx.index(testsq[0])]*bigger)
        else:
            delta[0].append(0)
        fai[0].append(0)
    for j in range(1,len(testsq)):
        for i in range(len(label)):
            if(testsq[j]) in trainxx:
                maxtmp=-1
                max_i=0
                for k in range(len(label)):
                    if(delta[j-1][k]*a[i][k]>maxtmp):
                        maxtmp=delta[j-1][k]*a[i][k]
                        max_i=k
                delta[j].append(maxtmp*b[i][trainxx.index(testsq[j])])
                fai[j].append(max_i)
            else:
                delta[j].append(0)
                fai[j].append(0)
    maxtmp=0
    max_i=0
    mytestchoic=[]
    mytestos=[]
    for i in range(len(label)):
        if maxtmp

最大熵隐马模型:

最大熵的方法就是将隐马模型中的B这里的矩阵参数进行优化。另外因为这个模型又要考虑相近状态,所以在这里所有的x相当于当前序列+当前序列标记(xi+yi),y为前一个标签状态(yi-1) 最大熵的就是用来优化似然函数的一种方法,想办法保证全局最优,期望一个最佳最合理的P(y|x)来预测。 特征函数f(x,y)(特征函数,说白了就是一个集合,满足这一条件的xy就判为1,否则为0) 隐马尔科夫和最大熵马尔科夫_第4张图片 注意:这里仅仅考虑标签只有一类的情况,若是多类情况,则需要分别对每一种特征构造特征模板,所以多类情况时w也是一个二维数组。最后的p(y|x)应对应隐马模型中的B 对于似然函数优化: 隐马尔科夫和最大熵马尔科夫_第5张图片 其中W是可变的,在迭代中会不断变化他的值,Z(x)表示所有特征发生的情况下当前x发生的情况(写程序的时候直接把f()写成只含0,1的数组不就好了……) 代码:

#各种统计初始
def definef():
    for i in range(len(label)):
        M.append(trainos.count(label[i]))
        for j in range(len(trainx)):
            f[i].append(0)
            w[i].append(0)
            proyx[i].append(0)
            provx[i].append(0)
    for i in range(trainlen-1):
        f[label.index(trainos[i])][trainx.index(str(trainsq[i+1]+trainos[i+1]))]=1

def countpos():
    #对于每个特征找各自概率
    for i in range(len(label)):
        countxy=0
        for j in range(trainlen-1):
            if(f[i][trainx.index(trainsq[j+1]+trainos[j+1])]==1 and trainos[j]==label[i]):
                countxy+=1
            provx[i][trainx.index(trainsq[j+1]+trainos[j+1])]+=1
        for j in range(len(trainx)):
            provx[i][j]/=trainlen
        provxy[i]=countxy/trainlen

def countyxpos():
    for i in range(len(label)):
        z=0
        p=[]
        for j in range(len(trainx)):
            p.append(0)
        for j in range(trainlen-1):
            if(trainos[j+1]==label[i]):
                if(f[i][trainx.index(trainsq[j+1]+trainos[j+1])]==1):
                    z+=math.e**(w[i][trainx.index(trainsq[j+1]+trainos[j+1])]*trainx.count(trainsq[j+1]+trainos[j+1]))
            if (f[i][trainx.index(trainsq[j + 1] + trainos[j + 1])] == 1):
                p[trainx.index(trainsq[j+1]+trainos[j+1])]+=w[i][trainx.index(trainsq[j+1]+trainos[j+1])]
        for j in range(len(trainx)):
            if(z!=0):proyx[i][j]=(math.e**p[j])/z
#开始迭代了
def iterate(times):
    for i in range(times):
        for l in range(len(label)):
            for j in range(len(trainx)):
                tmp=0
                if(M[l]!=0 and provx[l][j]*proyx[l][j]*f[l][j]!=0):
                    tmp+=math.log(provxy[l]/provx[l][j]*proyx[l][j]*f[l][j])/M[l]
                global w
                w[l][j]+=tmp
        countyxpos()
        print(i)

注意,尽管一个数据可能序列有多条,输出一条标签,这是需要人为将这些标签合成成一条标签。有点狗血……

转载于:https://my.oschina.net/DDigimon/blog/1503028

你可能感兴趣的:(隐马尔科夫和最大熵马尔科夫)