E-COM-NET
首页
在线工具
Layui镜像站
SUI文档
联系我们
推荐频道
Java
PHP
C++
C
C#
Python
Ruby
go语言
Scala
Servlet
Vue
MySQL
NoSQL
Redis
CSS
Oracle
SQL Server
DB2
HBase
Http
HTML5
Spring
Ajax
Jquery
JavaScript
Json
XML
NodeJs
mybatis
Hibernate
算法
设计模式
shell
数据结构
大数据
JS
消息中间件
正则表达式
Tomcat
SQL
Nginx
Shiro
Maven
Linux
隐马尔科夫
HMM学习笔记2
工作:1、找到几个版本的HMM:(1、HTK(HiddenMarkovModelToolkit):HTK是英国剑桥大学开发的一套基于C语言的
隐马尔科夫
模型工具箱,主要应用于语音识别、语音合成的研究,也被用在其他领域
u014437511
·
2015-12-08 16:00
语音识别
hmm
史上最详细最容易理解的HMM文章 .
[+]http://www.52nlp.cn/hmm-learn-best-practices-four-hidden-markov-modelswiki上一个比较好的HMM例子分类
隐马尔科夫
模型 HMM
u014437511
·
2015-12-04 14:00
语音识别
hmm
史上最详细最容易理解的HMM文章
http://www.52nlp.cn/hmm-learn-best-practices-four-hidden-markov-modelswiki上一个比较好的HMM例子HMM(
隐马尔科夫
模型)是自然语言处理中的一个基本模型
GarfieldEr007
·
2015-11-18 13:00
Model
hidden
hmm
Markov
隐马尔可夫模型
52nlp
用HMM(隐马)图解三国杀的于吉“质疑”
·背景 最近乘闲暇之余初探了HMM(
隐马尔科夫
模型),觉得还有点意思,但是网上的教程都超级枯草,可读性很差,抄来抄去的,一堆公式仍在你面前
·
2015-11-13 22:51
图解
隐马尔科夫
模型及Viterbi算法的应用
作者:jostree 转载请注明出处 http://www.cnblogs.com/jostree/p/4335810.html 一个例子: 韦小宝使用骰子进行游戏,他有两种骰子一种正常的骰子,还有一种不均匀的骰子,来进行出千。 开始游戏时他有2/5的概率出千。 对于正常的骰子A,每个点出现的概率都是1/6. 对于不均匀的骰子B,5,6两种出现的概率为3/10,其余为
·
2015-11-13 04:08
算法
HMM 自学教程(四)
隐马尔科夫
模型
本系列文章摘自 52nlp(我爱自然语言处理: http://www.52nlp.cn/),原文链接在 HMM 学习最佳范例,这是针对 国外网站上一个 HMM 教程 的翻译,作者功底很深,翻译得很精彩,且在原文的基础上还提供了若干程序实例,是初学者入门 HMM 的好材料。原文中存在若干笔误,这里结合 HMM 学习最佳范例 的作者和读者的建议,一并做了修改,供大家参考。 相关链接 HMM
·
2015-11-12 21:43
教程
隐马尔科夫
模型-前向算法详细实例(秒杀目前网络上所有资料)-新手必备!
HMM 有三个矩阵 初始状态矩阵 状态转移概率矩阵 隐态到显态转移概率矩阵 两个状态集合: 隐态(S1,S2,S3) 两个观测态(A,B) 上图的意思是 三个状态互相转移的概率 分别为:(1,2,3分别指S1,S2,S3) 1->1 P=0.4 &n
·
2015-11-12 11:23
算法
隐马尔科夫
模型(Hidden Markov Models)
链接汇总 http://www.csie.ntnu.edu.tw/~u91029/HiddenMarkovModel.html 演算法笔记 http://read.pudn.com/downloads133/doc/fileformat/568756/HMM-DL.pdf本文讲述了 HMM原理,方法,典型应用 http://www.cnblogs.com/tsingke/p/3923169.
·
2015-11-12 11:44
hidden
HDU 4865 Peter's Hobby --概率DP
分析:这是引自机器学习中
隐马尔科夫
模型的入门模型,其实在这里直接DP就可以了 定义:dp[i][j]为第i天天气为j(0,1,2分别表示三个天气)的概率,path[i][j]记录路径,path[i][
·
2015-11-12 10:35
HDU
HMM
隐马尔科夫
模型浅析
http://www.zhihu.com/question/20962240著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。作者:YangEninala链接:http://www.zhihu.com/question/20962240/answer/33438846来源:知乎隐马尔可夫(HMM)好讲,简单易懂不好讲。我认为@者也的回答没什么错误,不过我想说个更通俗易懂的例子。我
maxandhchen
·
2015-11-05 11:00
基于
隐马尔科夫
模型(HMM)的地图匹配(Map-Matching)算法
隐马尔科夫
模型(HMM) 3.1. 3.1. HMM简述 3.2. 3.2. 基于HMM的Map-Matching 3.3. 3.3.
·
2015-11-03 21:03
match
词性标注-
隐马尔科夫
模型应用
问题的提出已知:词序列: 寻找词性序列: 使得条件概率最大: 解:(忽略词序列概率,因为没用)图示:具体实现就是:动态规划-维特比算法 [维特比算法.....自己看吧,数学之美上有解释]概念解释:发射概率:某个词作为名词出现的频率/名词在语料库中出现的频率 也叫生成概率 某个隐状态生成显状态的概率转移概率:某个词性到另一个词性的频率/某个词性生成所有其他
·
2015-11-02 13:28
应用
隐马尔科夫
模型HMM自学(1)
介绍 崔晓源 翻译 我们通常都习惯寻找一个事物在一段时间里的变化规律。在很多领域我们都希望找到这个规律,比如计算机中的指令顺序,句子中的词顺序和语音中的词顺序等等。一个最适用的例子就是天气的预测。 首先,本文会介绍声称概率模式的系统,用来预测天气的变化 然后,我们会分析这样一个系统,我们希望预测的状态是隐藏在表象之后的,并不是我们观察到的现象。比如,我们会根据观察到的植物海
·
2015-11-01 13:26
模型
Ruby写的向前算法
隐马尔科夫
模型中有三个问题: 1) 估计问题:给定一个观察序列O=O1O2...OT和模型u = (A, B, π), 如何快速地计算出给定模型u情况下,观察序列O的概率,即P(O
·
2015-10-31 16:28
Ruby
隐马尔科夫
过程
在
隐马尔科夫
模型(VMM)中,我们不知道模型所经过的状态序列,只知道状态的概率函数,也就是说,观察到的时间是状态的随机函数,因此,改模型是一个双重的随机过程。
·
2015-10-31 16:27
过程
几种不同程序语言的HMM版本
C语言版:1、 HTK(Hidden Markov Model Toolkit): HTK是英国剑桥大学开发的一套基于C语言的
隐马尔科夫
模型工具箱,主要应用于
·
2015-10-31 15:44
语言
用ruby写的wikipedia上的维特比算法
维特比算法可以解决
隐马尔科夫
模型的最可能状态序列问题。
·
2015-10-31 11:54
Ruby
【分享】Lucene.Net的中文分词组件AdvancedChineseAnalyzer
基于
隐马尔科夫
模型的中文分析器。
·
2015-10-28 08:39
Advanced
利用条件随机场模型进行中文分词
在很久以前,我提过利用
隐马尔科夫
模型进行中文分词,条件随机场其实是
隐马尔科夫
模型的一次升级版本,网上有很多关于条件随机场模型的分词,但是基本上很难看懂,也许是论文的缘故,那些作者习惯了一上来就是一堆复杂的公式
Iveely Liu
·
2015-10-22 09:00
生成模型与判别模型
典型的生成模型:朴素贝叶斯,
隐马尔科夫
模型。判别方法:由数据直接学习决策函数或者条件概率分布,作为预测的模型。两种方法各有优缺点,适用于不同条件下的
f81892461
·
2015-09-19 22:00
隐马尔科夫
模型—简介
隐马尔科夫
模型是统计模型,用来描述一个含有隐含未知参数的马尔可夫过程。在隐马尔可夫模型中,状态是不可见的,但输出依赖该状态下,是可见的。每个状态通过可能的输出记号有了可能的概率分布。
zb1165048017
·
2015-09-19 19:00
机器学习
预测
隐马尔科夫
模型(HMM)
HMM简介HMM用于研究非确定性生成模式,HMM是一个与时间无关的模型(有待改进),并且n阶HMM模型是指下一个状态只与前n个有关,通常只研究一阶HMM模型(有待改进)。从可观察的参数中确定该过程的隐含参数,然后利用这些参数来作进一步的分析,例如模式识别。下面可以使用一个案例来解释HMM模型。假设有三种色子,分别是标有123456的立方体、标有1234的三菱锥、标有12345678的八面体。它们分
张泽旺
·
2015-09-16 20:00
hmm
隐马尔科夫
模型(Hidden Markov Models)
隐马尔科夫
模型HMM(HiddenMarkovModels)来源于现实社会的需求,它是为人们服务的,我们通常都习惯于寻找一个事物在一段时间内的变化规律,并能在特定情况下预测下一变化,比如预测天气等。
tiandijun
·
2015-08-29 23:00
[杂谈]机器学习:数学、概率与人工智能
(代表LeonardE.Baum[
隐马尔科夫
模型])数学家说:“我有严谨数学证明,我来讲!”(代表Vapnik[SVM支持向量机])神经计算&计算机科学家说:“我有自然法则,我来讲!”
Physcal
·
2015-08-21 20:00
隐马尔可夫模型(HMM)原理
本文主要讨论
隐马尔科夫
模型的三大要素,三大假设和三大问题。1、引入隐马尔可夫模型是一个关于时序的概率模型,它描述了一个由隐藏的马尔可夫链生成状态序列,再由状态序列生成观测序列的过程。
liuwu265
·
2015-08-15 17:00
EM算法 实例讲解
第一次接触EM算法,是在完成半
隐马尔科夫
算法大作业时。
u011300443
·
2015-07-05 17:00
算法
数据挖掘
em
无监督学习
隐马尔科夫
模型HMM
http://blog.csdn.net/pipisorry/article/details/46618991马尔科夫过程马尔科夫过程可以看做是一个自动机,以一定的概率在各个状态之间跳转。考虑一个系统,在每个时刻都可能处于N个状态中的一个,N个状态集合是{S1,S2,S3,...SN}。我们现在用q1,q2,q3,…qn来表示系统在t=1,2,3,…n时刻下的状态。在t=1时,系统所在的状态q取决
pipisorry
·
2015-06-24 10:00
hmm
隐马尔科夫
马尔科夫
HMM
隐马尔科夫
模型
马尔科夫过程在概率论及统计学中,马尔可夫过程(英语:Markovprocess)是一个具备了马尔可夫性质的随机过程,因为俄国数学家安德雷·马尔可夫得名。马尔可夫过程是不具备记忆特质的。换言之,马尔可夫过程的条件概率仅仅与系统的当前状态相关,而与它的过去历史或未来状态,都是独立、不相关的。一个马尔科夫过程是状态间的转移仅依赖于前n个状态的过程。这个过程被称之为n阶马尔科夫模型,其中n是影响下一个状态
u014568921
·
2015-06-20 23:00
NLP
hmm
隐马尔科夫
八
出处:http://www.52nlp.cn/hmm-learn-best-practices-eight-summary八、总结(Summary)通常,模式并不是单独的出现,而是作为时间序列中的一个部分——这个过程有时候可以被辅助用来对它们进行识别。在基于时间的进程中,通常都会使用一些假设——一个最常用的假设是进程的状态只依赖于前面N个状态——这样我们就有了一个N阶马尔科夫模型。最简单的例子是N
weilianyishi
·
2015-06-09 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习七(五)
hmm-learn-best-practices-seven-forward-backward-algorithm-5七、前向-后向算法(Forward-backwardalgorithm)上一节我们定义了两个变量及相应的期望值,本节我们利用这两个变量及其期望值来重新估计
隐马尔科夫
模型
weilianyishi
·
2015-06-09 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习七(四)
.52nlp.cn/hmm-learn-best-practices-seven-forward-backward-algorithm-4七、前向-后向算法(Forward-backwardalgorithm)
隐马尔科夫
模型
weilianyishi
·
2015-06-09 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习七(三)
出处:http://www.52nlp.cn/hmm-learn-best-practices-seven-forward-backward-algorithm-3七、前向-后向算法(Forward-backwardalgorithm)前向-后向算法是Baum于1972年提出来的,又称之为Baum-Welch算法,虽然它是EM(Expectation-Maximization)算法的一个特例,但E
weilianyishi
·
2015-06-09 21:00
语音识别
隐马尔科夫
隐马尔科夫
七(二)
出处:http://www.52nlp.cn/hmm-learn-best-practices-seven-forward-backward-algorithm-2七、前向-后向算法(Forward-backwardalgorithm)要理解前向-后向算法,首先需要了解两个算法:后向算法和EM算法。后向算法是必须的,因为前向-后向算法就是利用了前向算法与后向算法中的变量因子,其得名也因于此;而EM
weilianyishi
·
2015-06-09 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习七(一)
hmm-learn-best-practices-seven-forward-backward-algorithm-1七、前向-后向算法(Forward-backwardalgorithm)根据观察序列生成
隐马尔科夫
模型
weilianyishi
·
2015-06-09 16:00
语音识别
隐马尔科夫
隐马尔科夫
学习六(五)
出处:http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-5六、维特比算法(ViterbiAlgorithm)维特比算法程序示例仍然需要说明的是,本节不是这个系列的翻译,而是作为维特比算法这一章的补充,将UMDHMM这个C语言版本的HMM工具包中的维特比算法程序展示给大家,并运行包中所附带的例子。关于UMDHMM这个
weilianyishi
·
2015-06-09 16:00
语音识别
隐马尔科夫
隐马尔科夫
学习六(四)
出处:http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-4六、维特比算法(ViterbiAlgorithm)维特比算法定义(Viterbialgorithmdefinition)1、维特比算法的形式化定义维特比算法可以形式化的概括为:对于每一个i,i=1,…,n,令:——这一步是通过隐藏状态的初始概率和相应的观察概
weilianyishi
·
2015-06-09 16:00
语音识别
隐马尔科夫
隐马尔科夫
学习六(三)
出处:http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-3六、维特比算法(ViterbiAlgorithm)寻找最可能的隐藏状态序列(Findingmostprobablesequenceofhiddenstates)2d.反向指针,‘s考虑下面这个网格在每一个中间及终止状态我们都知道了局部概率,(i,t)。然而我
weilianyishi
·
2015-06-09 11:00
语音识别
隐马尔科夫
隐马尔科夫
学习六(二)
出处:http://www.52nlp.cn/hmm-learn-best-practices-six-viterbi-algorithm-2六、维特比算法(ViterbiAlgorithm)寻找最可能的隐藏状态序列(Findingmostprobablesequenceofhiddenstates)2b.计算t=1时刻的局部概率‘s我们计算的局部概率是作为最可能到达我们当前位置的路径的概率(已知
weilianyishi
·
2015-06-09 10:00
语音识别
隐马尔科夫
隐马尔科夫
学习六(一)
hmm-learn-best-practices-six-viterbi-algorithm-1六、维特比算法(ViterbiAlgorithm)寻找最可能的隐藏状态序列(Findingmostprobablesequenceofhiddenstates)对于一个特殊的
隐马尔科夫
模型
weilianyishi
·
2015-06-09 10:00
语音识别
隐马尔科夫
隐马尔科夫
学习五(五)
出处:http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-5在HMM这个翻译系列的原文中,作者举了一个前向算法的交互例子,这也是这个系列中比较出彩的地方,但是,在具体运行这个例子的时候,却发现其似乎有点问题。先说一下如何使用这个交互例子,运行时需要浏览器支持java,我用的是firefox。首先在Set按钮前面的对
weilianyishi
·
2015-06-09 09:00
语音识别
隐马尔科夫
隐马尔科夫
学习五(四)
出处:http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-4首先需要说明的是,本节不是这个系列的翻译,而是作为前向算法这一章的补充,希望能从实践的角度来说明前向算法。除了用程序来解读hmm的前向算法外,还希望将原文所举例子的问题拿出来和大家探讨。文中所举的程序来自于UMDHMM这个C语言版本的HMM工具包,具体见《
weilianyishi
·
2015-06-09 09:00
语音识别
隐马尔科夫
隐马尔科夫
学习五(三)
出处:http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-3五、前向算法(ForwardAlgorithm)前向算法定义(Forwardalgorithmdefinition)我们使用前向算法计算T长观察序列的概率:其中y的每一个是观察集合之一。局部(中间)概率(‘s)是递归计算的,首先通过计算t=1时刻所有状态的
weilianyishi
·
2015-06-09 09:00
语音识别
隐马尔科夫
隐马尔科夫
学习五(二)
出处:http://www.52nlp.cn/hmm-learn-best-practices-five-forward-algorithm-2五、前向算法(ForwardAlgorithm)计算观察序列的概率(Findingtheprobabilityofanobservedsequence)2b.计算t=1时的局部概率‘s我们按如下公式计算局部概率:t(j)=Pr(观察状态|隐藏状态j)xPr
weilianyishi
·
2015-06-09 09:00
语音识别
隐马尔科夫
隐马尔科夫
学习五(一)
ForwardAlgorithm)计算观察序列的概率(Findingtheprobabilityofanobservedsequence)1.穷举搜索(Exhaustivesearchforsolution)给定
隐马尔科夫
模型
weilianyishi
·
2015-06-08 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习四
出处:http://www.52nlp.cn/hmm-learn-best-practices-four-hidden-markov-models四、
隐马尔科夫
模型(HiddenMarkovModels
weilianyishi
·
2015-06-08 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习三
出处:http://www.52nlp.cn/hmm-learn-best-practices-three-hidden-patterns三、隐藏模式(HiddenPatterns)1、马尔科夫过程的局限性在某些情况下,我们希望找到的模式用马尔科夫过程描述还显得不充分。回顾一下天气那个例子,一个隐士也许不能够直接获取到天气的观察情况,但是他有一些水藻。民间传说告诉我们水藻的状态与天气状态有一定的概
weilianyishi
·
2015-06-08 21:00
语音识别
隐马尔科夫
隐马尔科夫
学习二
学习出处:http://www.52nlp.cn/hmm%e7%9b%b8%e5%85%b3%e6%96%87%e7%ab%a0%e7%b4%a2%e5%bc%95二、生成模式(GeneratingPatterns)1、确定性模式(DeterministicPatterns)考虑一套交通信号灯,灯的颜色变化序列依次是红色-红色/黄色-绿色-黄色-红色。这个序列可以作为一个状态机器,交通信号灯的不同
weilianyishi
·
2015-06-08 20:00
隐马尔科夫
【转】Matlab的HMM(隐马尔可夫模型)相关函数介绍
声明:本文主要介绍Matlab2011b中StatisticsToolbox工具箱里与
隐马尔科夫
模型相关的函数及其用法(请勿与其它HMM工具箱混淆)。
badboy_1990
·
2015-05-19 16:00
matlab
statistics
hmm
隐马尔科夫模型
toolbox
隐马尔科夫
模型及Viterbi算法的应用
隐马尔科夫
模型及Viterbi算法的应用作者:jostree 转载请注明出处 http://www.cnblogs.com/jostree/p/4335810.html一个例子:韦小宝使用骰子进行游戏,
zdy0_2004
·
2015-03-13 22:00
机器学习
HMM学习
隐马尔科夫
模型(HiddenMarkovModels)总结(Summary)我们已经看到在一些过程中一个观察序列与一个底层马尔科夫过程是概率相关的。
Nob
·
2015-03-12 12:00
上一页
9
10
11
12
13
14
15
16
下一页
按字母分类:
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
其他