信息论与编码英文课件 编码.doc_第1页
信息论与编码英文课件 编码.doc_第2页
信息论与编码英文课件 编码.doc_第3页
信息论与编码英文课件 编码.doc_第4页
信息论与编码英文课件 编码.doc_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

例:4符号信源,出现的概率分别为0.5, 0.25, 0.125和0.125,其熵为=1.75比特/符号当4个符号出现概率等概时(0.25),可以算出信源熵为2比特/符号。u 当信源各符号出现概率相等时,信源具有最大熵。u 熵的范围为:u 在编码中用熵值衡量是否为最佳编码。若以 表示编码器输出码字的平均码长,则当:有冗余,不是最佳编码;:不可能;:最佳编码 (稍大于)。r 无损编码定理离散信源X无损编码所能达到的最小速率不能低于该信源的信源熵,即:r 信源编码定理(有损编码定理)u 对于给定的信源,在允许一定的失真D情况下,存在一失真率函数R(D),当编码速率R不低于R(D)时,编码失真能够不大于D。u R(D)一般不容易计算。u 该定理也没有给出编码方法。图41率失真示意图2. 定长编码r 定长编码对每个符号使用等长码字编码,而不考虑其概率。例:5电平量化器,代表5个量化电平,u 若用000,001,010,011和100表示,3比特/每个信源符号。u 设它们出现概率相同,那么信源熵为:2.32比特/每个信源符号u 如果每3个信源符号合成一组进行编码,那么共有125种组合符号,可以用7bit编码,平均每个信源符号用2.33比特/每个信源符号。r 随着分组长度加长,平均每信源符号所需编码比特数将趋向信源熵,编码复杂度和延时也增加。3霍夫曼编码r 变字长编码的最佳编码定理:在变字长码中,对于概率大的信息符号编以短字长的码;对于概率小的信息符号编以长字长的码。如果码字长度严格按照符号概率的大小的相反顺序排列,则平均码字长度一定小于按任何其他符号顺序排列方式得到的码字长度。证明:设最佳排列方式的码字平均长度为,则有式中为信源符号出现的概率,是的编码长度。规定,。如果将的码字与的码字互换,其余码字不变,其平均码字长度变为,即因为,所以,也就是说是最短的。霍夫曼编码就是利用了这个定理,将等长分组的信源符号,根据其概率采用不等长编码。概率大的分组,使用短的码字编码;概率小的分组,使用长的码字编码。霍夫曼编码把信源符号按概率大小顺序排列,并设法按逆次序分配码字的长度。在分配码字的长度时,首先将出现概率最小的的两个符号的概率相加,合成一个概率;第二步把这个合成的概率看成是一个新组合符号的概率,重复上述做法,直到最后只剩下两个符号的概率为止。完成以上概率相加顺序排列后,再反过来逐步向前进行编码。每一步有两个分支,各赋予一个二进制码,可以对概率大的编为0码,概率小的编为1码。反之亦然。霍夫曼编码的具体步骤归纳如下:(1) 统计概率,得n 个不同概率的信息符号。(2) 将 n 个信源信息符号的 n 个概率,按概率大小排序。(3) 将n 个概率中,最后两个小概率相加,这时概率个数减为n 1 个。(4) 将n1个概率, 按大小重新排序。(5) 重复(3),将排序后的最后两个小概率再相加,相加和与其余概率再排序。(6) 如此反复重复n2 次, 最后只剩两个概率。(7) 分配码字。由最后一步开始反向进行,依次对“最后”两个概率一个赋予“0”码,一个赋予“1”码。构成霍夫曼编码字。编码结束。u 霍夫曼编码产生最佳整数前缀码,即没有一个码字是另一个码字的前缀,可以唯一译码。下面用一个例子说明霍夫曼编码过程。例:5个符号的信源,出现的概率分别为0.4,0.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论