基于连续隐马尔科夫模型的语音识别_第1页
基于连续隐马尔科夫模型的语音识别_第2页
基于连续隐马尔科夫模型的语音识别_第3页
基于连续隐马尔科夫模型的语音识别_第4页
基于连续隐马尔科夫模型的语音识别_第5页
已阅读5页,还剩24页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

SHANGHAI UNIVERSITY毕业设计(论文)UNDERGRADUATE PROJECT (THESIS)题 目: 基于连续隐马尔科夫模型的语音识别学 院 机自专 业 自动化学 号 03122669学生姓名 金微指导教师 李昕起讫日期上海大学毕业设计(论文)1目 录摘要:-1ABSTRACT-11. 绪论-22. 第一章 -3. 第二章-4. 第.章-5. 第.章-6. 第.章-7. 第.章-上海大学毕业设计(论文)2论文题目摘要摘要正文 (注:简要介绍本论文的主要内容,主要为本人所完成的工作和创新点)关键词:(注:不宜多,最好不超过 5 个)上海大学毕业设计(论文)3ABSTRACTKeywords:上海大学毕业设计(论文)4绪论计算机技术的飞速发展,使人与机器用自然语言进行对话的梦想逐渐接近现实。人类的语言在人类的的智能组成中充当着极其重要的角色,人与人之间的交流和沟通 70%意商是通过语言的方式有效的完成。作为人与人之间交流最方便、自然、快捷的手段,人们自然希望它成为人与计算机交流的媒介。语音识别就是研究计算机听懂人类语言的一门科学。也是人机交互最重要的一步。进入九十年代之后,出现了诸多实用化的研究方向。语音识别技术发展到今天,特别是中小词汇量非特定人语音识别系统识别精度已大于 98%,对特定人语音识别系统的识别精度就更高。这些技术已经能满足通常应用的要求。由于大规模集成电路技术的发展,这下复杂的语音识别系统也已经完全可以制成芯片,大量生产。在西方经济发达国家,大量的语音识别产品已经进入市场和服务领域。一些电话机、手机已经包含了语音识别拨号的功能,是有语音记事本、语音智能玩具等产品也包括了语音识别与语音合成的功能。人们可以通过电话网络用语音识别口语对话系统查询有关的机票、旅游、银行信息,并且取得很好的结果。调查统计表明多达 85%意商的人对语音识别信息查询服务系统的性能表示满意。可以预测在近五十年内,语音识别系统的应用将更加广泛。各种各样的语音识别系统产品将出现在市场上。人们也将调整自己的说话方式以适应各种各样的识别系统。在短期内还不可能造出具有和人相比拟的语音识别系统,我们只能朝着改进语音识别系统的方向逐渐地前进。我国语音识别研究工作起步于五十年代,但近年来发展很快。研究水平也从实验室走向实用。从 1987 年开始执行国家 863 计划后,国家 863 智能计算机专家组为语音识别技术研究专门立项,在汉语语音识别技术上还有自己的特点与优势,并达到国际先进水平。上海大学毕业设计(论文)5第一章 语音识别基础第一节 语音识别的基本内容语音识别是一种集声学、语音学、计算机、信息处理、人工智能等于一身的综合技术,可广泛的应用在信息处理、通信与电子系统、自动控制等领域。语音识别主要包括语音单元的选取,特征提取技术,模式匹配准则及模型训练技术三方面内容。语音识别的原理框图如图 1-1 所示:图 1-1 语音识别的原理框图一、识别单元的选取选择识别单元是语音识别研究的第一步。语音识别单元有单词、音节和音素三种,具体选哪种,由具体的研究任务决定。单词单元广泛应用于中小词汇语音识别系统,但不是和大词汇系统,原因在于模型库规模太庞大,训练模型任务繁重,模型匹配算法复杂,难以满足实时性要求。音节单元多见于汉语语音识别,主要因为汉语是单音节结构的语言,而英语是多音节,数量相对较少,并且汉语虽然有大约1300 个音节,但若不考虑声调,约有 408 个无调音节,数量相对较少。因此,对于大、中词汇量汉语语音识别系统来说,以音节为识别单元基本是可行的;音素单元以前多见于英语语音识别系统的研究中,但目前大、中词汇量汉语语音识别系统也在越来越多地采用。原因在于汉语音节仅由声母和韵母构成,且声韵母的声学特性相差很大。实际应用中常把声母的不通而构成细化声母。由于协同发音的影响,音素单元的不稳定,所以如何获得稳定的音素单元,还有待研究。二、特征参数提取技术语音信号中含有丰富的信息,但如何从中提取出对语音识别有用的信上海大学毕业设计(论文)6息是由特征提取完成的。特征参数提取的目的是对语音信号进行分析处理,提取对语音识别有用的信息,同时对语音信号进行压缩。在实际应用中,语音信号的压缩率介于 10-100 之间。语音信号包含了大量各种不同的信息,提取哪些信息,用哪种方式提取,需要综合考虑个方面的因素,如成本、性能、响应时间、计算量等。非特定人语音识别系统一般侧重提取反应语义的特征参数,尽量去除说话人的个人信息;而特定人语音识别系统则希望在提取反映语义的特征参数的同时,尽量也包含说话人的个人信息。线性预测分析技术是目前应用广泛的特征参数提取技术,许多成功的应用系统都采用基于 LP 技术提取的倒谱参数。但线性预测模型是纯数学模型没有考虑人类听觉系统对语音的处理特点;Mel 参数和基于感知线性预测分析提取的感知线性预测倒谱,在一定程度上模拟了人耳对语音的处理特点,应用了人耳听觉感知方面的一些研究成果。实验证明采用这种技术语音识别系统的性能有一定提高。三、模式匹配和模型训练技术模型训练是按照一定的准则,从大量已知模式中获取表征该模式本质特征的模型参数,而模式匹配则是根据一定准则,使未知模式与模型库中的某一个模型获得最佳匹配。语音识别所应用的模式匹配和模型训练技术主要有动态时间归正技术(DTW) 、隐马尔科夫模型(HMM)和人工神经元网络(ANN) 。DTW 是较早的一种模式匹配和模型训练技术,它应用动态归划方法成功解决了语音信号特征参数序列比较时时长不等的难题,在孤立词语音识别中获得了良好性能。但因其不适合连续语音大词汇量语音识别系统,目前已被 HMM 模型和 ANN 代替。HMM 模型是语音信号时变特征的有参表示法。它由相互关联的两个随即过程共同描述的统计特征,其中一个是隐蔽的具有有限状态的 Markov 链,另一个是与 Markov 链的每一个状态相互关联的观察矢量的随即过程。隐含Markov 链的特征要依靠可观测到的信号特征表示。这样,语音等时变信号某一段的特征就由对应的观察符号的随即过程描述,而信号随时间的变化由隐蔽 Markov 链的转移概率描述。模型参数包括 HMM 拓朴结构、状态转移概率及描述观察符号统计特性的一组随机函数。按照随机函数的特点,HMM模型可分为离散隐马尔科夫模型和连续隐马尔科夫模型以及半连续隐马尔科夫模型。一般来说,在训练数据足够是,CHMM 优于 DHMM 和SCHMM。HMM,模型的训练和识别都已经研究出有效的算法,并不断完善,以增强 HMM 模型的鲁棒性。人工神经元网络在语音识别中的应用是现在研究的又一热点。ANN 本质上是一个自适应非线性动力学系统,模拟人类神经元活动的原理,具有自学、联想、对比、推理和概括能力。这些能力是 HMM 模型不具备的,但 ANN又不具有 HMM 模型的动态时间归正性能。因此,现在已有人研究如何把二者的优点有机结合起来,从而提高整个模型的鲁棒性。ANN 和 DTW 的结合以上海大学毕业设计(论文)7及 ANN 和 HMM 的结合是当前语音识别研究的一个方向。第二节 语音识别的实现难点语音信号的声学特征随与之前后的语音不同而有很大变化,且连续语音流中各种语音单位之间不存在明显的界线。语音特征随发音人的不同、发音人生理和心理状态的变化而有很大的差异。环境噪声电和传输设备的差异也将直接影响语音特征的提取。一个语句所表达的意思与上下文内容、说话时的环境条件及文化背景等因素有关,而语句的语法结构又是多变的,并且语境信息几乎是计算机语音识别无法利用的,所有这些都给语意的理解带来了和大的困难。上海大学毕业设计(论文)8第二章 HMM 的理论基础第一节 HMM 的定义一、信号模型隐马尔科夫过程是一个双重随机过程:一重用于描述非平稳信号的短时平稳的统计特征(信号的瞬态特征,可直接观测到) ;另一个重随机过程描述了每个短时平稳如何转变到下一个短时平稳段,即短时统计特征的动态特性(隐含在观察序列中) 。基于这两重随机过程,HMM 即可有效解决怎样辨识具有不同参数的短时平稳信号段,怎样跟踪它们之间的转化问题。人的语言过程也是这样一个双重随机过程。因为语音信号本身是一个可观察的序列,而它又是由大脑里的(不可观察的) 、根据言语需要和语法识别(状态选择) 、所发出的音素(词、句)的参数流,同时,大量实验表明,HMM 的确可以非成精确地描述语音信号的产生过程。第二节 隐马尔科夫模型的数学描述一、马尔科夫链定义随机序列 Xt,在任何时刻 t,可以处在状态 1, 2, n,且在t+k 时刻的状态 qt+k的概率,只与它在 t 时刻的状态 qt有关,而与 t 时刻以前它所处在的状态无关。P(X t+kq t+k|Xtq t,X tq t)P(X t+kq t+k|Xtq t)K 步转移概率:P ij(t,t+k)P(q t+k j|qt j)当 Pij(t,t+k)与 t 无关时,称马尔科夫链为齐次马尔科夫链。可写为:P ij(t,t+k)P ij(k)当 k1 时,P ij(1)为一步转移概率,记为 aij(1i+。如在 2-1(a)中,2,表示不允许一次跳跃经过两个以上的状态。图 2-1(b)是一种更常用,更简单的马尔科夫链,与图 2-1(a)相比,它不存在跨越状态,因而成为无跨越由左至右模型。图 2-1 典型马尔科夫链示意图二、全连结或个态遍历 HMM这种模型中从每个状态都可以一步到达其他状态。如图 2-2 所示:图 2-2 全连结 HMM在这种模型中每个系数 aij 都是正值。对应的转移矩阵如下:虽然可将 HMM 划分为全连结和由左至右模型,但还存在很多种可能的变化和上海大学毕业设计(论文)11组合。如图 2-3 所示的右左至右交叉耦合连接的 HMM,严格的说,这种模型属于由左至右模型,因为它满足所有 aij 约束;但它具有由左至右模型所不具有的灵活性。图 2-3 左至右交叉耦合连接的 HMM由重估公式可以看出,如果 HMM 的任何参数造初始使设置为 0,那么在整个重新估计过程中它仍然保持为零,所以这些加在由左至右或约束跳转模型上的于无数并不影响模型的重估过程。此外,从构成上 HMM 的变体还包括空转移和状态绑定 HMM。前面介绍的 HMM 中观察响亮都是与模型状态相关,但也可考虑使观察向量与模型的弧相关联。这种类型的 HMM 在 IBM 的连续语音识别中被广泛使用。空转移是指这种模型中从一个状态转移到另一个状态不产生输出的转移,通常用 表示输出的空值。如图 2-4 所示的具有空转移的由左至右 HMM:图 2-4 具有空转移的由左至右 HMM参数绑定 HMM 构成上的另一种变化。基本思想是在不同状态的 HMM 参数之间建立一个等价关系。这样不仅能够减少模型中独立参数的数量,还能简化参数估计。参数绑定应用于已知两个或更多状态的观察密度函数相同的情况,在刻画语音是这种情况经常发生。此外,在训练数据不足时,使用这种技术非常有效。从观察概率密度方面可以分为离散 HMM、半连续 HMM 和连续概率密度HMM。虽然通用形式的连续概率密度 HMM 适用于很多问题,但还存在其它非常适合处理语音的其他种类 HMM。如自回归 HMM。在这类模型中,观察向量是通过一个自回归过程中提取的。第三节 HMM 的三个基本问题和解决的方法一、HMM 的三个基本问题上海大学毕业设计(论文)12欲使建立的隐马尔科夫模型能解决实际问题,则必须首先解决以下问题。(1)已知观察序列 O 和模型 (A,B,) ,如何计算由此模型产生此观察序列的概率 P( O|) 。(2)已知观察序列 O 和模型 ,如何确定一个合理的状态序列,使之能最佳的产生 O,即如何选择最佳的状态序列 qq 1, ,q T?(3)如何根据观察序列不断修正模型参数(A,B,) ,使 P(O|)最大?问题(1)实质上是一个模型评估问题,因为 P(O|)反映了观察序列与模型吻合的程度。在语音识别中,我们可以通过计算、比较P(O| ) ,从多个模型参数中选择出与观察序列匹配得最好的那个模型。为了解决这个,已经研究出“前向后向”算法。问题(2)关键在于选用怎样的最佳准则来决定状态的转移。一种可能的最佳准则是:选择状态 q*t,使它们在各 t 时刻都是最可能的状态,即这里存在一个问题:有时会出现不允许的转移,即 aij0,那么,对这些 i 和 j 所得到的状态序列就是不可能的状态,而没有考虑整体结构、相邻时间的状态和观察序列的长度等问题。针对这个缺点要求人们研究一种在最佳状态序列基础上的整体约束的最佳准则,并用此准则找出一条最好的状态序列。目前,解决这个问题的最好方案是 Viterbi 算法。问题(3)实质上就是如何训练模型,估计、优化模型参数的问题。这个问题在这三个问题中是最难的,因为没有解析法可用来求解最大似然模型,所以只能用迭代法(BaumWelch 算法)或使用最佳梯度法。二、 “前向后向”算法问题 1 的解决方案从定义出发计算概率 P(O| ) ,可得下式:显然,按上式计算 P(O|)是不现实的,因为它的计算量相当大。为了 有效地解决这个问题,引入了向前概率和向后概率来简化计算。它们的定义及有关的递推公式如下。前向概率定义为 at(i)P (o 1ot,q ti|)即是在给定模型 的前提下,前 t 个时刻的观察序列为o 1ot ,且在 t 时刻处在状态 i 的概率。计算公式如下:上海大学毕业设计(论文)13后向概率定义为 t(i)P(o t+1oT,q ti|) ,即是在给定模型 下,从 t+1 时刻开始到观察结束这一段的观察序列为 ot+1oT ,且在 t 时刻处在状态 i 的概率。计算公式如下:根据前向及后向的概率定义可推倒出:或二、Viterbi 算法问题 2 的解决方案前面已经提到,如何确定一个最佳状态序列的关键在于选用怎样的最佳准则。考虑到状态序列的整体特性,Vitebi 算法采用如下的最佳准则。即在 t 时刻选择状态 i,使模型 沿状态序列q 1,q t运动产生观察序列o 1ot的概率最大。根据定义,可以得到 t(i)的递推计算公式。其中 t+1(j )的物理含义是若 t+1 的最佳状态为 j,则 t 时刻的最佳状态为t(j) 。基于此最佳准则,我们可以通过下面的递推得到最佳状态序列q*q *1q*T和 PO,q *| (在模型 下,按照最佳状态序列路径产生观察序列 O 的概率:上海大学毕业设计(论文)14三、Baum-Welch 算法问题 3 的解决方案在介绍 Baum-Welch 算法之前,首先引入两个相关的概率定义 t(i,j )和 t( i) 。 t(i,j)表示在已知观察序列 O 和模型 的情况下,t 时刻处于状态 i,t+1 时刻处于状态 j 的概率, t(i,j)P(q ti ,q t+1j|O , ) 。通常t( i,j)采用归一化形式,即式中 t(i ) , t(j)为前面提到的前向和后向概率。t( i)为给定观察序列和模型 的条件下,t 时刻处于状态 i 的概率。根据定义有:结合 t(i,j)和 t(i)的定义,可知:为观察序列中,从状态 i 出发的状态转移次数的 期望。为观察序列中,从状态 i 到 j 的状态转移次数的期望。Baum-Welch 算法的基本思想是:按照某种参数重估公式从现有的模型 估计出新的模型 ,使得 P(O| )=P(O| ) 。用 替换 ,重复上述过程直到模型参数处于收敛状态,使得 P(O| 现有模型)=P(O| 新估计出来的模型) 。因为上海大学毕业设计(论文)15观察上式乐意看出辅助函数的各个单项都具有以下形式: 变量y Nf=1 满足 。通过数学推导可知,在满足约束条件的情况下变量y Nf=1,时,各单项取值最大。对辅助函数的各个单项 Q(| )求最大值,即可推导出 Q(| )最大化的模型 的参数重估公式。上海大学毕业设计(论文)16根据前面对和 的分析,可以看出重估公式也具有明显的物理含义。(1) 为在 t1 时刻状态 i 的概率;(2)(3) 上海大学毕业设计(论文)17第四章 HMM 算法实现的问题解决 HMM 的三个基本问题以后,在实际应用 HMM 解决问题时还有很多问题需要解决,如初始模型的选取、数据下溢、HMM 之间距离的度量等等。第一节 HMM 状态类型及 B 参数的选择一、 HMM 状态类型的选择当 HMM 与实际信号相结合时,首先需要解决的问题是状态类型的选择。在描述实际语音信号是一般都要对 HMM 中的状态数及转台转移规律作一定的限制,而状态转移结构达多为“无跨越由左至右类型”和“有跨越由左至右类型” 。这两种结构除了都要满足 外,状态“1”与状态“4”分别为源状态和吸状态,这意味着语音必须从状态“1”开始到状态“4”结束,这正好与人的发音过程对应。二、HMM 中 B 参数类型的选择为了采用连续观测密度,必须对模型的概率密度函数(pdf)的形式作某些限制,以保证能够对 pdf 的参数进行一致的估计。当然,不同形式的 pdf 是由不同的参数来描述的,而估计这种参数的重估公式也是不一样的。这里采用一种广泛应用的 pdf高斯 bj(j)为例。B 参数是 HMM 中非常重要的一个参数,它描述在某种状态时观察值序列的概率分布。在前面的讨论中它都是离散的。然后,为了更好地描述语音信号的时变性,在实际的关键检索系统中通常采用连续的概率分布,即用 bj(o)表示在 o 与 o+do 之间观察矢量的概率。这里 bj(o)称为参数的概率密度。目前采用最多的 bj(o)形式为高斯 M 元混合密度,可以用它无限逼近任意一个有限连续概率密度函数,其定义为:式中:o 为观察矢量;c jk 为状态 j 中第 k 个混元的混合加权系数,N是正态密度, jk 和 Ujk 是状态 j 中第 k 个混合分量的均值矢量和协方差矩阵。注意,cjk 必须满足下式。因为只有这样概率密度函数才能满足归一条件,即满足上海大学毕业设计(论文)18在这种定义下,HMM 中重估 B 参数的公式转化为对 cjk、 jk、U jk 的重估计算。如下式所示:式中, t(j,k)是 t 时刻的观察矢量 ot 由状态 j 中的第 k 个混合分量产生的概率,即、第二节 HMM 训练时需要解决的问题一、初始模型的选取根据 Baum-Welch 算法由训练数据得到 HMM 参数时,一个重要问题就是初始模型的选取。不同的初始模型将产生不同的训练结果,因为算法是使P(O| )局部极大时得到的模型参数,因此,选取好的初始模型,是最后求出的局部极大与全局最大接近是很有意义的。但是,至今这个问题仍没有完美的答案。实际处理是都采用一些经验方法。一般认为, 和 A 参数初值选取影响不大,可以随机选取或均匀取值,只要满足概率要求即可。但 B 的初值对训练出的 HMM 影响较大,一般倾向采取较为复杂的初值选取方法。比较典型的HMM 参数估计算法是“K 均值分割”算法。 “K 均值分割”算法训练框图如图3-1 所示:上海大学毕业设计(论文)19图 3-1“K 均值分割”训练框图假定我们已有一组训练观察和所有模型的初始估计。这些初始估计是随机给出或建立在相应数据的已有模型基础之上的。模型初始化后,根据当前模型 将训练观察序列集分割成状态。这种分割是借助 Viterbi 算法找到最优状态序列实现的。对模型中每个状态来说,每个训练序列分割的结果就是出现在当前模型中任何一个状态 Si 的观察集的最大似然估计。在使用离散符号密度时,每个状态中的任意一个观察向量是使用具有 M 码字的码书编码的, bj(k)参数估计的更新公式如下:bj(k)状态 j 中码书索引为 k 的观察向量数量/状态 j 中所有观察向量数量。在使用连续观察密度的情况下,分段 K 均值过程用于每个状态 Sj 中的过程向量聚类为 M 簇,每簇表示 bj(O t)密度的 M 个混合的一个。根据生成的聚类,得到的一组模型参数的更新公式如下:根据这种状态分割, ij 系数的更新估计可通过从状态 i 到 j 的转移计数除以从状态 i 出发的所有转移(包括转移到自身)计数实现。根据这些更新后的模型参数得到了新模型。然后开始使用真正的重估过程重新估计所有模型参数。将产生的模型与先前的模型进行比较,如果模型距离打分超过设定的域值,那么用新模型取代先前的模型;如果模型距离打分小于或低于设定的域值,那么判定模型收敛并将保存作为最终得到的模型参数。当然,HMM 有很多类型。因此,针对不同形式的 HMM,可采取不同有效的初值选取方法。二、比例因子的问题 上海大学毕业设计(论文)20在前向后向算法和 Baum-Welch 算法中,都有 t(i )和 t(i)的递归计算,因为所有量都小于 1,因此, t(i)和 t(i)都迅速趋向于零,为了解决这种下溢的问题,必须采取增加比例因子的方法,对有关算法加以修正,处理过程如下:(1)对 的处理也就是说 t(j )的比例因子实际上是所有状态的 t(i )之和的倒数。(2)对 的处理上海大学毕业设计(论文)21由于每个比例因子实际上使 的模恢复到 1,而 和 模相近,所以,让 和 采用相同的比例因子是保持计算总是在合适的界限内进行的有效方法,在对 和 做上述处理之后,再来看看重估公式,不过之前,需亚对重估公式改写。显然,上述比例因子也可用于 和 B 参数的重估计算。如果在某个时间 t 不需要比例因子,可令比例因子为 1,不影响重估公式。增加比例因子所引起的 HMM 的唯一实际变化是 P(O|)的计算,不能简单地把 进行求和,因为这些值已经引入了比例因子,不过可以利用如下性质。上海大学毕业设计(论文)22这样可以计算 P 的对数,但不能计算 P,因为不管怎样它都会越界。最后,当采用 Viterbi 算法求最佳状态序列时,如果按如下方法,就不需要比例因子。最后得到的值是 logP*而不是 P*,但是计算量却少得多且不会产生越界。三、使用多个观察值序列训练实际中,训练一个 HMM,经常要用到不止一个观察值序列,那么,对于 K 个观察值序列训练 HMM 时,要对 Baum-Welch 算法的重估公式加以修正。设 K 个观察值序列为 O(k)(k1,2,K) ,其中 O(k)o (k)1,o (k)Tk 是第 K 个观察序列,假定各个观察值序列独立,P k 是第 k 个观察序列出现的概率,此时,由于重估公式是以不同事件的频率为基础的,因此,对 k 个训练序列,重估公式修正为:上海大学毕业设计(论文)23四、克服训练数据不足的方法根据 HMM 的定义,一个 (A,B, )含有很多个待估计的参数,因此,为了得到最满意的模型,必须要有很多的训练数据。这个问题的一种解决方法是增加训练数据,这往往是难以办到的。另一方面可能的解决方法是选择规模更小的模型,但是采用一个给定模型总是有其具体理由的,因此规模大小也不能改变。第三种可能的解决办法是合并两个模型的参数,即对两个针对同一事件的表示不同程度的细节和隐健性的模型进行合并。比如说,通常一些出现次数很少的观察值矢量没有包含在整个训练数据中,这样训练出来的 HMM 参数中就会有不少为零的概率值。而事实上,在实际语音识别测试时,这些观察值矢量又可能出现,因而需要对训练好的模型进行平滑处理,而一般为了避免过分平滑。总是要合并平滑前后的模型参数,以获得较好的结果模型。合并两个 HMM 的问题可以表述为 1(1 ) 2。式中(A,B,)为结果模型, 1(A 1,B 1, 1)和 2(A 2,B 2, 2)为两个待合并的模型,0=1 为合并时的系数。因此,问题的关键就是合并权值 的估计。一种可能的方法是人工选取权值 ,Schiwartz 等人就是根据训练量的多少和每个模型中概率分布的合适程度来人工选择权值的,并在语音识别中取得了成功。但这中方法的局限也是很明显的:过分依赖于人的经验判断,而且工作量也很大。另一种估计 的方法就是著名的消去内插法。这种方法最早是由 Jelinek 提出,随后被广泛使用在基于 HMM 的语音识别系统中,它的基本思想为:设 b1jk和 b2jk 为 1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论