南京工程学院信息论参考试卷信息论与编码的学习要点.doc_第1页
南京工程学院信息论参考试卷信息论与编码的学习要点.doc_第2页
南京工程学院信息论参考试卷信息论与编码的学习要点.doc_第3页
南京工程学院信息论参考试卷信息论与编码的学习要点.doc_第4页
南京工程学院信息论参考试卷信息论与编码的学习要点.doc_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信息论与编码的学习要点自信息自信息表示随机事件xi发生前的不确定性或发生后所包含的信息量,其定义为:互信息互信息表示已知事件yj后所消除的关于事件xi的不确定性,等于事件xi本身的不确定性I(xi)已知事件yj后对xi仍然存在的不确定性I(xi/yj),其定义为:平均自信息平均自信息表示整个信源(用随机变量X表示)的平均不确定性,它等于随机变量X的每一个可能取值的自信息I(xi)的统计平均值,其定义为:离散信源的最大熵离散信源中各消息等概率出现时熵最大,也称最大离散熵定理:联合熵联合熵表示二维随机变量XY的平均不确定性,它等于联合自信息的统计平均值,其定义为:条件熵条件熵表示已知随机变量X后,对随机变量Y仍然存在的平均不确定性,其定义为:各类熵之间的关系为:H(XY)=H(X)+H(Y/X)=H(Y)+H(X/Y)H(X)+H(Y)X,Y统计独立时,H(XY)=H(X)+H(Y)平均互信息平均互信息表示收到一个符号集(用随机变量Y表示)后消除的关于另一个符号集(X)的不确定性,也就是从Y所获得的关于X的平均信息量,其定义为:平均互信息和各类熵之间的关系:I(X;Y)=H(X)-H(X/Y)=H(Y)-H(Y/X)=H(X)+H(Y)-H(XY)当X和Y统计独立时,I(X;Y)=0数据处理定理如果随机变量X,Y,Z构成一个马尔可夫链,则有:I(X;Z)I(X;Y) I(X;Z)I(Y;Z)等号成立的条件是对于任意的x,y,z,有p(x/yz)=p(x/z)和p(z/xy)=p(z/x)数据处理定理中不等式I(X;Z)I(X;Y)表明从Z所获得的关于X的信息量小于等于从Y所获得的关于X的信息量。如果将YZ看成数据处理系统,则通过数据处理后,虽然可以满足我们的某种具体要求,但是从信息量来看,处理后会损失一部分信息,最多保持原来获得的信息,即对收到的数据Y进行处理后,决不会减少关于X的不确定性。(极限熵)熵率极限熵表示离散多符号信源的平均不确定性,它是信源输出的符号序列中平均每个符号所携带的信息量。N时极限存在,则称之为熵率,或极限熵,其定义为:称为平均符号熵,表示随机变量序列中,对前N个随机变量的联合熵的平均:离散平稳无记忆信源的极限熵多符号信源中最简单的是离散平稳无记忆信源,其极限熵H=H(X)M阶马尔可夫信源的极限熵如果信源在某时刻发出的符号仅与此前发出的m个符号有关,即m阶马尔可夫信源,其极限熵为:离散平稳马尔可夫信源,可将上述符号的不确定性问题转化为齐次、遍历的马尔可夫链的状态转移问题:信源的冗余度冗余度的定义为:连续信源的微分熵连续信源的最大熵对于输出信号幅度受限的连续信源,当满足均匀分布时达到最大熵;对于平均功率受限的连续随机变量,当服从高斯分布时具有最大熵。码的分类非分组码分组码:奇异码和非奇异码(非唯一可译码、唯一可译码(即时码、非即时码)无失真定长信源编码定理离散无记忆信源的熵H(X),若对长为N的信源序列进行定长编码,码符号集中有r个码符号,码长为L,则对于任意小的正数,只要满足,则当N足够大时,可实现几乎无失真编码,即译码错误概率为任意小。反之,如果,则不可能实现几乎无失真编码,当N足够大时,译码错误概率为1。克劳夫特不等式无失真变长信源编码定理(香农第一定理)失真函数,单个符号的失真函数或失真度,表示信源发出一个符号xi,而在接收端再现为yj所引起的误差或失真的大小。平均失真信源的平均失真度表示某个信源通过某个信道传输后失真的大小,其定义为:保真度准则如果要求信源的平均失真度所允许的失真D,成为保真度准则。D失真许可的试验信道信息率失真函数对于给定的信源,总存在一种信道使I(X;Y)达到最小。R(D)是关于D的下凸函数,且在定义域内是严格递减函数。限失真信源编码定理(香农第三定理)设为一离散平稳无记忆信源的信息率失真函数,并且有有限的失真测度。对于任意的以及任意足够长的码长n,则一定存在一种信源编码C,其码字个数为:,而编码后的平均失真度。如果用二元编码,取比特为单位,则上式M可写成该定理说明:对于任何失真度,只要码长足够长,总可以找到一种编码C,使编码后每个信源符号的信息传输率,即,而码的平均失真度。信道容量对于给定的信道,I(X;Y)是p(xi)的上凸函数,即总存在一种信源具有某种概率分布,使信道平均传输一个符号接收端获得的信息量最大,也就是说对于每个固定信道都有一个最大的信息传输率,这个最大的信息传输率即信道容量,而相应的输入概率分布称为最佳输入分布。C的定义为:对称信道的C准对称信道的C离散平稳无记忆信道的N次扩展信道的C独立并联信道的CC=NC级联信道的C级联信道的总容量矩阵=级联信道的信道矩阵乘积波形信道的信道容量C译码规则设信道的输入符号集X=xi,i=1,2,.,r,输出符号集Y=yj,j=1,2,s,若对每个输出符号yj都有一个确定的函数F(yj),使yj对应于惟一一个输入符号xi,则称这样的函数为译码规则,记为:F(yj)=xi译码规则共有rs种。错误概率在规定译码规则后,若信道输出端接收到符号yj,则一定译成xi,如果发送端发出的的确是xi,就是正确译码;否则,若发送端发出的不是xi,即为错误译码。则在收到符号yj的条件下,译码正确概率为:pF(yj)/yj=p(xi/yj)译码错误概率为:p(e/yj)=1-p(xi/yj)=1-pF(yj)/yj平均错误概率译码后的平均错误概率PE是p(e/yj)对Y的统计平均值,即表示平均每收到一个符号后的译码错误概率。最大后验概率译码规则选择译码函数F(yj)=x*,使之满足条件:P(x*/yj)p(xi/ yj) x*X,称为最大后验概率译码准则,又称最小错误概率准则。极大似然译码规则选择译码函数F(yj)=x*,使之满足条件:P(yj /x*)p( yj /xi) x*X,称为极大似然译码规则。当输入符号等概时,最大后验概率译码规则=极大似然译码规则。费诺不等式信道疑义度H(X/Y)与平均错误概率PE满足以下关系:表明:接收到Y后,关于X的平均不确定性可以分为两部分,第一部分是指收到Y后是否产生错误的不确定性;第二部分是已知错误发生后,判断是哪个输入符号造成错误的最大不确定性,是(r-1)个符号的最大可能不确定性与的乘积。汉明距离长度相同的两个符号序列xi与yj之间的距离,是两序列对应位置上码元符号不同的位置的个数,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论