隐马尔可夫模型HiddenMarkovmodel课件_第1页
隐马尔可夫模型HiddenMarkovmodel课件_第2页
隐马尔可夫模型HiddenMarkovmodel课件_第3页
隐马尔可夫模型HiddenMarkovmodel课件_第4页
隐马尔可夫模型HiddenMarkovmodel课件_第5页
已阅读5页,还剩29页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、隐马尔可夫模型HiddenMarkovmodel隐马尔可夫模型HiddenMarkovmodel内容框架2022/9/10知识管理与数据分析实验室2隐马尔科夫模型的由来隐马尔科夫模型的基本理论及实例隐马尔科夫模型的三个基本算法隐马尔科夫模型的应用4123内容框架2022/9/4知识管理与数据分析实验室4隐马尔科夫隐马尔可夫模型(HMM)的由来 1870年,俄国有机化学家Vladimir V. Markovnikov第一次提出Markov Model(MM)Baum 及他的同事于60年代末70年代初提出隐马尔可夫理论,并用于语音识别80年代末90年代初HMM被用于计算生物学目前已成功用于人脸识别

2、、手写识别领域2022/9/10知识管理与数据分析实验室3隐马尔可夫模型(HMM)的由来 1870年,俄国有机化学家内容框架2022/9/10知识管理与数据分析实验室4隐马尔科夫模型的由来隐马尔科夫模型的基本理论及实例隐马尔科夫模型的三个基本算法隐马尔科夫模型的应用4123内容框架2022/9/4知识管理与数据分析实验室6隐马尔科夫2022/9/10知识管理与数据分析实验室5隐马尔可夫模型的基本理论马尔可夫性马尔可夫过程马尔可夫链隐马尔可夫模型2022/9/4知识管理与数据分析实验室7隐马尔可夫模型的基马尔可夫性如果一个过程的“将来”仅依赖“现在”而不依赖“过去”,则此过程具有马尔可夫性,或称

3、此过程为马尔可夫过程。用公式表示:X(t+1) = f( X(t) )2022/9/10知识管理与数据分析实验室6马尔可夫性如果一个过程的“将来”仅依赖“现在”而不依赖“过去马尔科夫过程过程或系统在时刻T0所处状态为已知的条件下,过程在时刻TT0所处状态的条件分布与过程在时刻t0之前所处的状态无关。通俗的说,就是在已经知道过程“现在”的条件下,其“将来”不依赖于“过去”。2022/9/10知识管理与数据分析实验室7马尔科夫过程过程或系统在时刻T0所处状态为已知的条件下,过程马尔科夫链时间和状态都离散的马尔科夫过程称为马尔科夫链记作Xn = X(n), n = 0,1,2,在时间集T1 = 0,

4、1,2,上对离散状态的过程相继观察的结果链的状态空间记做I = a1, a2, aiR. 条件概率Pij ( m ,m+n)=PXm+n = aj|Xm = ai 为马氏链在时刻m处于状态ai条件下,在时刻m+n转移到状态aj的转移概率。2022/9/10知识管理与数据分析实验室8马尔科夫链时间和状态都离散的马尔科夫过程称为马尔科夫链202隐马尔科夫模型HMM是一个双重随机过程,两个组成部分: 马尔可夫链:描述状态的转移,用转移概率描述。 一般随机过程:描述状态与观察序列间的关系, 用观察值概率描述。2022/9/10知识管理与数据分析实验室9隐马尔科夫模型HMM是一个双重随机过程,两个组成部

5、分:202隐马尔科夫模型的组成2022/9/10知识管理与数据分析实验室10Markov链(, A)随机过程(B)状态序列观察值序列q1, q2, ., qTo1, o2, ., oT隐马尔科夫模型的组成2022/9/4知识管理与数据分析实验室一个实验球缸模型设有N个缸,每个缸中装有很多彩球,球的颜色由一组概率分布描述。实验进行方式如下根据某个初始概率分布,随机选择N个缸中的一个,例如第I个缸。根据这个缸中彩球颜色的概率分布,随机选择一个球,记下球的颜色,记为O1,再把球放回缸中。根据描述缸的转移的概率分布,随机选择下一口缸,重复步骤1。最后我们可以得到一个描述球的颜色的序列O1,O2,,称为

6、观察值序列。 2022/9/10知识管理与数据分析实验室11一个实验球缸模型设有N个缸,每个缸中装有很多彩球,球的球缸模型示意图2022/9/10知识管理与数据分析实验室12观测到的球序列缸 3缸 1缸 2通道球缸模型示意图2022/9/4知识管理与数据分析实验室14关于球缸模型的说明缸之间的转移不能被直接观察到从缸中所选取的球的颜色和缸并不是 一一对应的每次选取哪个缸由一组转移概率决定2022/9/10知识管理与数据分析实验室13关于球缸模型的说明2022/9/4知识管理与数据分析实验室HMM中状态与观测的对应关系示意图2022/9/10知识管理与数据分析实验室14HMM中状态与观测的对应关

7、系示意图2022/9/4知识管理HMM的基本要素2022/9/10知识管理与数据分析实验室15用模型五元组 ( N, M, ,A,B)用来描述HMM,或简写为 =( ,A,B)HMM的基本要素2022/9/4知识管理与数据分析实验室172022/9/10知识管理与数据分析实验室16HMM可解决的问题给定观测序列 O=O1O2O3Ot和模型参数=(A,B,),怎样寻找某种意义上最优的隐状态序列。此问题主要用Viterbi算法。给定观测序列 O=O1O2O3Ot和模型参数=(A,B,),怎样有效计算某一观测序列的概率。此问题主要用向前向后算法。怎样调整模型参数=(A,B,),使观测序列 O=O1O

8、2O3Ot的概率最大。此问题主要用Baum-Welch算法。评估问题解码问题学习问题2022/9/4知识管理与数据分析实验室18HMM可解决的问内容框架2022/9/10知识管理与数据分析实验室17隐马尔科夫模型的由来隐马尔科夫模型的基本理论及实例隐马尔科夫模型的三个基本算法隐马尔科夫模型的应用4123内容框架2022/9/4知识管理与数据分析实验室19隐马尔科向前算法及向后算法向前算法及向后算法主要解决评估问题,即用来计算给定一个观测值序列O以及一个模型时,由模型产生出观测值序列O的概率 。2022/9/10知识管理与数据分析实验室18向前算法及向后算法向前算法及向后算法主要解决评估问题,即

9、用向前算法向前变量 它的含义是,给定模型 ,时刻t。处在状态i,并且部分观察序列为的概率 显然 当 已知时根据 , 迭代计算最后根据公式 求出概率。2022/9/10知识管理与数据分析实验室19向前算法2022/9/4知识管理与数据分析实验室21计算实例:抛掷硬币问题,计算观察到(H H T)的概率2022/9/10知识管理与数据分析实验室20计算实例:抛掷硬币问题,计算观察到(H H T)的概率20向后算法向后变量 含义是,给定模型 ,时刻t。处在状态i,并且部分观察序列为 的概率。当已知 , ,则根据公式 迭代计算。最后根据公式 求出概率2022/9/10知识管理与数据分析实验室21向后算

10、法2022/9/4知识管理与数据分析实验室23计算实例:抛掷硬币问题,计算观察到(H H T)的概率2022/9/10知识管理与数据分析实验室22计算实例:抛掷硬币问题,计算观察到(H H T)的概率20韦特比算法(Viterbi Algorithm)对于解码问题,我们常用为比特算法来解决问题,即用来解决给定观测序列 O=O1O2O3Ot和模型参数=(A,B,),寻找某种意义上最优的隐状态序列问题。在介绍算法前,首先明确两个变量的意义韦特比变量 变量的含义是,给定模型,时刻t处在状态i,观察到的 最佳状态转换序列为的 概率。记录路径的数组 该数组记录在时刻t到达状态i的最佳状态转换序列t-1时

11、刻的最佳状态。2022/9/10知识管理与数据分析实验室23韦特比算法(Viterbi Algorithm)对于解码问韦特比算法(续)韦特比算法主要有四个步骤:首先,初始化变量,使得:第二步,迭代计算第三步,终止:第四步,求解最佳路径:2022/9/10知识管理与数据分析实验室24韦特比算法(续)韦特比算法主要有四个步骤:2022/9/4知计算实例:抛掷硬币问题,观察到(H H T),寻找产生该观察序列的最佳路径以及最佳路径的概率2022/9/10知识管理与数据分析实验室25最佳状态转换序列为1 1 1计算实例:抛掷硬币问题,观察到(H H T),寻找产生该观察Baum-Welch算法隐马尔科

12、夫模型的第三个问题是如何根据观察序列O =( o1 o2 o3 oT )求得模型参数或调整模型参数,即如何确定一组模型参数使得P (O| )最大的问题。在模型()未知的情况下,如果给定观察序列的同时,也给定了状态转换序列,此时可以通过有指导的学习方法学习模型参数。常用算法:Baum-Welch算法。首先,定义变量 它表示在给定模型以及观察序列的情况下,t时刻处在状态i的概率。用公式表示: 观察序列O中,从状态i出发的转换的期望概率为 观察序列O中,从状态i到状态j的转换的期望概率2022/9/10知识管理与数据分析实验室26隐马尔科夫模型的第三个问题是如何根据观察序列O =( o1 o2 o3

13、 oT )求得模型参数或调整模型参数,即如何确定一组模型参数使得P (O| )最大的问题。在模型()未知的情况下,如果给定观察序列的同时,也给定了状态转换序列,此时可以通过有指导的学习方法学习模型参数。常用算法:Baum-Welch算法。首先,定义变量 它表示在给定模型以及观察序列的情况下,t时刻处在状态i的概率。用公式表示: 观察序列O中,从状态i出发的转换的期望概率为 观察序列O中,从状态i到状态j的转换的期望概率Baum-Welch算法隐马尔科夫模型的第三个问题是如何根Baum-Welch算法(续)关于,A,B,给出一种合理的估计方法:在t=1时处在状态i的概率: 从状态i到状态j的转换

14、的期望概率除以从状态i出发的转换的期望概率: 其中分子表示在状态j观察到的期望概率,并且当 时, ;当 时, ;分母表示处在状态j的期望概率根据以上结论可进行模型估算,反复迭代,直至参数收敛。2022/9/10知识管理与数据分析实验室27Baum-Welch算法(续)关于,A,B,给出一种合理的估内容框架2022/9/10知识管理与数据分析实验室28隐马尔科夫模型的由来隐马尔科夫模型的基本理论及实例隐马尔科夫模型的三个基本算法隐马尔科夫模型的应用4123内容框架2022/9/4知识管理与数据分析实验室30隐马尔科隐马尔科夫模型的应用2022/9/10知识管理与数据分析实验室29隐马尔科夫模型

15、应用于语音识别书面语理解基因预测人脸识别隐马尔科夫模型的应用2022/9/4知识管理与数据分析实验室语音识别隐马尔可夫模型在语音识别中的应用20 世纪80 年代, 美国CMU 大学的J. K. Baker等人将HMM应用到语音识别领域, 在语音识别中获得了极大的成功, 成为语音识别的主要方法。目前应用最为成功的语音识别系统大多是基于隐马尔可夫模型构造的.如CMU 的Kai2Fu lee 等研制的SPH INX 连续语音识别系统, 对997 个词在有无文法限制的条件下,识别率分别为96% 和82%. IBM 构造的Tango ra2000 词语音识别系统得到95% 的识别率。用HMM 进行汉语声

16、母、韵母、单音节及连续语音识别, 都得到了很好的性能。2022/9/10知识管理与数据分析实验室30语音识别隐马尔可夫模型在语音识别中的应用20 世纪80 年书面语理解上的应用在词性标注方面, 采用隐马尔可夫模型的标注方法具有很强的健壮性, 是当前主流的标注方法。词性标注就是在给定的句子中判定每个词的语法范畴, 确定词性并加以标注的过程, 它发生在对文本执行分词处理之后, 是对切分所得的词进行分析、运算,确定词在上下文中合适的词类性质并加以标注的过程。在隐马尔可夫模型下, 词性标注问题可以表述为:在给定观察值和模型参数的情况下, 求状态序列T=t1, t2, t3, tm, 使得这一状态序列可以“最好地解释”观察值序列W=w1, w2, w3, , wm。T为最终的标注结果,即概率最大的词性序列。2022/9/10知识管理与数据分析实验室31书面语理解上的应用在词性标注方面, 采用隐马尔可夫模型的标生物学基因预测上的应用隐马尔可夫模型(HMM)研究是当前机器学习的热点领域,该模型在80年代末90年代初该模型就被应用于计算生物学。隐马尔可夫模型

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论