信息论与编码试卷及答案2.doc_第1页
信息论与编码试卷及答案2.doc_第2页
信息论与编码试卷及答案2.doc_第3页
信息论与编码试卷及答案2.doc_第4页
信息论与编码试卷及答案2.doc_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

信息论与编码试卷及答案2 (一) 7、某二元信源 一、判断题共 10 小题,满分 20 分. 1. 当随机变量X和Y相互独立时,条件熵H(X|Y)等于信源熵H(X). ( ) 2. 由于构成同一空间的基底不是唯一的,所以不同的基 1?X?0 ?P(X)?1/21/2?,其失真矩阵? ?0a? ,则该信源的Dmax= D?a0? 三、本题共 4 小题,满分 50 分. 1、某信源发送端有2种符号xi(i?1,2),p(x1)?a;接收端 底或生成矩阵有可能生成同一码集.符号 y( j ? 1 ,2) ,转移概率矩阵为 有3 种,3() 3.一般情况下,用变长编码得到的平均码长比定长编码大得多. ( ) 4. 只要信息传输率大于信道容量,总存在一种信道编译码,可以以所要求的任意小的误差概率实现可靠的通 信 ( ) 5. 各码字的长度符合克拉夫特不等式,是唯一可译码存在的充分和必要条件. ( ) 6. 连续信源和离散信源的熵都具有非负性. ( ) 7. 信源的消息通过信道传输后的误差或失真越大,信宿收到消息后对信源存在的不确定性就越小,获得的信息量就越小. 8. 汉明码是一种线性分组码. ( ) 9. 率失真函数的最小值是0 . ( ) 10.必然事件和不可能事件的自信息量都是0. ( ) 二、填空题共 6 小题,满分 20 分. 1 、 码 的 检 、 纠 错 能 力 取 决 于 . 2、信源编码的目的是的目的是 . 3、把信息组原封不动地搬到码字前k位的(n,k)码就叫做 . 4、香农信息论中的三大极限定理 是、. 5、设信道的输入与输出随机序列分别为X和Y,则 I(XN,YN)?NI(X,Y)成立的 条件 6、对于香农-费诺编码、原始香农-费诺编码和哈夫曼编码,编码方法惟一的是 . iP?1/21/20? ?1/21/41/4?. ? (1) 计算接收端的平均不确 定度H(Y); (2) 计算由于噪声产生的不 确定度H(Y|X); (3) 计算信道容量以及最佳入口分布. 2、一阶马尔可夫信源的状态转移 图2-13 图如右图所示, 信源X的符号集为0,1,2. (1)求信源平稳后的概率分布; (2)求此信源的熵; ( 3 )近似地认为此信源为无记忆时,符号的概率分布为 平 X ) 稳分布.求近似信源的熵H(并与H?进行比较. 4 、设二 元( 7 , 4 ) 线 性分组码的生成矩阵为?1101000?G? 0110100?1110010? . ?1010001? ? (1)给出该码的一致校验矩阵,写出所有的陪集首和与之相对应的伴随式; (2)若接收矢量v?(0001011 ),试计算出其对应的伴随式S并按照最小距离译码准则 试着对其译码. (二) 一、填空题(共15分,每空1分) 1、信源编码的主要目的是 ,信道编码的主要目的是 。 2、信源的剩余度主要两个方面,一是 ,二 是。 XY 3、三进制信源的最小熵为 ,最大熵为。 4、无失真信源编码的平均码长最小理论极限制为 。 5、当时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为 和 。 7、根据是否允许失真,信源编码可分为 和 。 8、若连续信源输出信号的平均功率为?2,则输出信号幅度 的概率密度是 时,信源具有最大熵,其值为值 。 9、在下面空格中选择填入数学符号“?,?,?,?”或“?” (1)当X和Y相互独立时,H(XY)H(X)+H(X/Y) H(Y)+H(X)。 (2)H?H?X1X2? H?X1X2X3?2?X2H3?X?3 (3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y) 0, H(Y/X) 0,I(X;Y)H(X)。 三、(16分)已知信源 ?S?s1s2s3s4s5s6?P?0.20.20.20.20.10.1? (1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分) (3)计算编码信息率R?;(2分) (4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分) 四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分) 五、(16分)一个一阶马尔可夫信源,转移概率为 P?S|S23|S1 11?,P?S21?3 ,P?S1|S2?1,P?S2|S2?0。 (1) 画出状态转移图。(4分) (2) 计算稳态概率。(4分) (3) 计算马尔可夫信源的极限熵。(4分) (4) 计算稳态下H1,H2及其对应的剩余度。(4分) 六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。 七、(16分)设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) H?X?,H?Z?; (2) H?XY?,H?XZ?; (3) H?X|Y?,H?Z|X?; (4) I?X;Y?,I?X;Z?; 八、(10分)设离散无记忆信源的概率空间为 ?X?x1x2? P?0.80.2?,通过干扰信道,信道输出端的接收符号? 集为Y?y1,y 2?,信道传输概率如下图所示。 x1 y1 x2 y2 (1) 计算信源X中事件x1包含的自信息量; (2) 计算信源X的信息熵; (3) 计算信道疑义度H?X|Y?; (4) 计算噪声熵H?Y|X?; (5) 计算收到消息Y后获得的平均互信息量。 信息论基础2参考答案 一、填空题(共15分,每空1分) 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为log3 2 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= Hr(S))。 5、当R=C或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为?2 ,则输出信号幅度2的概率密度是高斯分布或正态分布或f? x? 2?x时, 信源具有最大熵,其值为值1 log2?e?22 。 9、在下面空格中选择填入数学符号“?,?,?,?”或“?” (1)当X和Y相互独立时,H(XY)=H(X)+H(X/Y)=H(Y)+H(X)。 (2)HH?X1X2? H?X1X2X3?2?X?2?H3?X? 3 (3)假设信道输入用X表示,信道输出用Y表示。在无噪有损信道中,H(X/Y) 0, H(Y/X)=0,I(X;Y) ?S?s1s2s3s4s5s6? P?0.20.20.20.20.10.1? (1)用霍夫曼编码法编成二进制变长码;(6分) (2)计算平均码长L;(4分) (3)计算编码信息率R?;(2分) (4)计算编码后信息传输率R;(2分) (5)计算编码效率?。(2分) (1) S10.200 S20.21S1.030.20 S140.21 S0 50.11 S6 0.1 1 编码结果为: S1?00S2?01S3?100S4?101 S5?110S6?111 6 (2)L?Pi?i?0.4?2?0.6?3?2.6码元 i?1 (3)R?logr=2.6 (4)R? H?S? ? 2.53 ?0.973bit2.6 其中,H?S?H?0.2,0.2,0.2,0.2,0.1,0.1?2.53 (5)? H?S?S?logr ? H?0.973 评分:其他正确的编码方案:1,要求为即时码 2,平均码长 最短 四、(10分)某信源输出A、B、C、D、E五种符号,每一个符号独立出现,出现概率分别为1/8、1/8、1/8、1/2、1/8。如果符号的码元宽度为0.5?s。计算: (1)信息传输速率Rt。(5分) (1)R1 t?t? H?X?H?X? ? H?X? 18log18?4?112log2?1log8?1 log2 22 ?31 2log2?2log2?2log2?2bitR?2bitt?s ?4?1060.5bps 五、(16分)一个一阶马尔可夫信源,转移概率为 P?S21 1|S1?3,P?S2|S1?3 ,P?S1|S2?1,P?S2|S2?0。 (1) 画出状态转移图。(4分) (2) 计算稳态概率。(4分) (3) 计算马尔可夫信源的极限熵。(4分) (4) 计算稳态下H1,H2及其对应的剩余度。(4分) 解:(1) 1 (2)由公式P?Si?2 P?Si |Sj ?P?Sj ? j?1 有 ? 2 ?P?S1?PS|SPS?2P?S1?P?S2? ?1i?i?i?13?2 ? P? ?S1 2?P?S2|Si?P?Si?P?S1? i?13?P?S1?P?S2?1? ? P?S?3得?1?4 ?P?S12 ?4 (3)该马尔可夫信源的极限熵为: 22 H?P?Si?P?Sj|Si?logP?Sj|Si? i?1j?1 ?34?23?log2311 3?4?3?log 3?1 2?0.578?1 4?1.599?0.681bit符号?0.472nat符号?0.205hart(4)在稳态下: 2 ?P?x?3 311?i?logP?xi?i?1 ?4?log4?4?log4?0.811bit符号 H2?H?0.205hart符号?0.472nat?0.681bit 对应的剩余度为 ?H10.811 1?1H?1?0.189 0?1?2log?1?1?1? ?2?2log?2? ?2?1? H20.681H?1?0.319 0?1?1?2log?2?1?1? 2log?2? 六、设有扰信道的传输情况分别如图所示。试求这种信道的信道容量。 X Y 解:信道传输矩阵如下 ?1 1?2200?011?P220?Y|X ?1?001 ?22?11?2 2? 可以看出这是一个对称信道,L=4,那么信道容量为 C?log4?H?11? ?2,2,0,0? ? L ?logL?p?yj|xi?logp?yj|xi? j?1 ?log4?2?11 2log 2 ?1bit 七、(16分)设X、Y是两个相互独立的二元随机变量,其取0或1的概率相等。定义另一个二元随机变量Z=XY(一般乘积)。试计算 (1) H?X?,H?Z?; (2) H?XY?,H?XZ?; (3) H?X|Y?,H?Z|X?; (4) I?X;Y?,I?X;Z?; H?X?H?1?2,1? 2?1bit H(2)?H?3?4,1? 4? ?0.8113bit (2) H?XY?H?X?H?Y?1?1?2bit对 H?XZ?H?X?H?Z|X?1?11?12H?1,0?1? 2H?2,2? ?1.5bit对 (3) H?X|Y?H?X?1bit H?Z|X? 112H?1,0?2H?11? ?2,2? ?0.5bit (4) I?X,Y?H?Y?H?Y|X?H?Y?H?Y?0 I?X,Z?H?Z?H?Z|X?0.8113?0.5?0.3113bit 八、(10分)设离散无记忆信源的概率空间为 ?X?x1x2? ?P?0.80.2?,通过干扰信道,信道输出端的接收符号? 集为Y?y1,y2?,信道传输概率如下图所示。 x1 y1 x2 y2 (6) 计算信源X中事件x1包含的自信息量; (7) 计算信源X的信息熵; (8) 计算信道疑义度H?X|Y?; (9) 计算噪声熵H?Y|X?; (10) 计算收到消息Y后获得的平均互信息量。 解: (1) I?x1?log0.8?0.322bit?0.0969hart?0.223nat (2) H?X?H?0.8,0.2?0.722bit?0.5nat?0.217hart符号 (3) H?XY?H?2?3,215,320,1? 20? ?1.404bit符号 ?0.973nat?0.423hartH?Y?H?49/60,11/60?0.687bit?0.476nat?0.207hart符号 H?X|Y?H?XY?H?Y?0.717bit?0.497nat?0.216hart (4) H?Y|X?H?XY?H?X?0.682bit?0.473nat符号?0.205hart符号 (5) I?X;Y?H?X?H?X|Y?0.00504bit符号?0.00349nat符号?0.00152hart (三) 一、 选择题(共10分,每小题2分) 1、有一离散无记忆信源X,其概率空间为 ?X?x1 x2x3x4?P?0.50.250.1250.125?,则其无记忆二?次扩展信源的熵H(X2)=( ) A、1.75比特/符号; B、3.5比特/符号; C、9比特/符号; D、18比特/符号。 2、信道转移矩阵为 ?P(1y/1 x)2 P( 1 y/x)0 ?00P3 y(/?2x4P)2y(x?0 0P? 50y3x? 其中P(yj/xi)两两不相等,则该信道为 3、A、一一对应的无噪信道 B、具有并归性能的无噪信道 C、对称信道 D、具有扩展性能的无噪信道 3、设信道容量为C,下列说法正确的是:() A、互信息量一定不大于C B、交互熵一定不小于C C、有效信息量一定不大于C D、条件熵一定不大于C 4、在串联系统中,有效信息量的值() A、趋于变大 B、趋于变小 C、不变 D、不确定 5、若BSC信道的差错率为P,则其信道容量为:() A、 H?p? p log?1?p ?2?1?B、 ?p?p? ? 一、(11)填空题 (1) 1948年,美国数学家 香农发表了题为“通信的数学理论”的长篇论文,从而创 立了信息论。 (2) 必然事件的自信息是 0 。 (3) 离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍 。 (4) 对于离散无记忆信源,当信源熵有最大值时,满足条件为_信源符号等概分布_。 (5) 若一离散无记忆信 源的信源熵H(X) 等于2.5,对信源进 行等长的无失真二 进制编码,则编码 长度至少为 。 (6) 对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是 香农编码。 (7) 已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_个码元错误, 最多能纠正_1_个码元错误。 (8) 设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R_小于_C(大 于、小于或者等于), 则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。 (9) 平均错误概率不仅与信道本身的统计特性有关,还与_译码规则_和_编码方 法_有关 二、(9?)判断题 (1) 信息就是一种消息。 ( ?) 性。 ( ?) (3) 概率大的事件自信息量大。 ( ?) (4) 互信息量可正、可负亦可为零。( ? ) (5) 信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。( ?) (6) 对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。 ( ?) (7) 非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。 ( ? ) (8) 信源变长编码的核心问题是寻找紧致码(或最佳码),霍夫曼编码方法构造的是最佳码。 ( ? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ?) 三、(5?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75(2分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375(2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5?)证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明: I?X;Y?p?xiyj?log XYpxiyjpxi? ?p?xiyj?logp?xi?p?xiyj?logpxiyj?(2分) XY?XY? ?H?X?H?XY? 同理 I?X;Y?H?Y?HYX (1分) 则 ? HYX?H?Y?I?X;Y? 因为 H?XY?H?X?HYX (1分) 故 ? H?XY?H?X?H?Y?I?X;Y? 即 I?X;Y?H?X?H?Y?H?XY? (1分) 五、(18).黑白气象传真图的消息只有黑色和白色两种,求: 1) 黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵H?X?; 2) 假设黑白消息出现前后有关联,其依赖关系为 ,求其熵H?X?。 , ,3)分别求上述两种信源的冗余度,比较它们的大小并说明其物理意义。 解:1)信源模型为 (1分) (2分) 2)由题意可知该信源为一阶马尔科夫信源。 (2分) 由 (4分) 得极限状态概率 (2分) (3分) 3) ?1?1?H(X)?0.119log22 (1分) H?(X)?0.447log22(1分) ?2?1? ?2?1。说明:当信源的符号之间有依赖时,信源输出消息的不确定性减弱。而信源冗余度正是反映信源符号依赖关系的强弱,冗余度越大,依赖关系就越大。(2分) 六、(18).信源空间为 x2x3x4x5x6x7?X?x1?P(X)?0.20.190.180.170.150.10.01? 曼码,计算其平均码长和编码效率(要求有编码过程)。 ?,试分别构造二元香农码和二元霍夫? L?p(ai)li?3.14i?17R?H(X)2.61?0.8313.14L 1.一阶齐次马尔可夫信源消息集X?a1,a2,a3, 状态集S?S1,S2,S3,且令Si?ai,i?1,2,3,条件转移概率为 ? ? ?442? P(a?3?,(1)画出该马氏链的状态转移图; j/Si)?30? ? (2)计算信源的极限熵。 解:(1) ?w1?w2?w3?w1?4w1?3w2?3w3?w2?w1?0.4 (2)?2w1?3w2 ?w3? ?w2?0.3 ? w1?w2?w3?1?w3 ?0.3H(X|S1) =H(1/4,1/4,1/2)=1.5比特/符号 H(X|S2)=H(1/3,1/3,1/3)=1.585比特/符号 H(X|S3)=H(2/3,1/3)= 0.918比特/符号 H?3 wHX|S?0.4?1.5?0.3?1.585?0.3?0.918?1.351比特/符号 i?1 i?i ? 三、计算题 某系统(7,4)码 c?(c6c5c4c3c2c1c0)?(m3m2m1m0c2c1位与信息位的关系为: ? c2?m3?m1?m0?c1?m3?m2? m?1 ?c0 ?m2?m1?m 0(1)求对应的生成矩阵和校验矩阵; (2)计算该码的最小距离; (3)列出可纠差错图案和对应的伴随式; (4)若接收码字R=1110011,求发码。 c0)其三位校验 ?1?0 解:1. G? ?0?0 0100 0010 0001 1011 1?0 ?1 1?1? H?1 ?1?1 ?0 0?1 011111101100 0?01? ? 00?1 2. dmin=3 3. 4. RHT=001接收出错 E=0000001 R+E=C= 1110010 (发码) 四、计算题 已知?X,Y?的联合概率p?x,y?为: 求H?X?,H?Y?,H?X,Y?,I?X;Y? X01 01/30 11/31/3 ?1/ 3 解: p(x?0)?2/3 p(x?1)p(y?0)?1/3 p(y?1)?2/ 3 H?X?H?Y?H(1/3,2/3)?0.918 bit/symbol H?X,Y?H(1/3,1/3,1/3)=1.585 bit/symbolI?X;Y?H(X)?H(Y)?H(X,Y)?0.251 bit/symbol ?1/21/31/6? ? 设有,其转移矩阵为?PY|X?1/61/21/3,若信道输入概率为?1/31/61/2? ?PX?0.5 0.250.25?,试确定最佳译码规则和极大似然译码规则,并计算出相应 的平均差错率。 ?1/41/61/12?解:PXY?1/241/81/12 ?1/121/241/8? ?F(b1)?a1 ? 最佳译码规则:?F(b2)?a1,平均差错率为1-1/4-1/6-1/8=11/24; ?F(b)?a 33?F(b1)?a1 ? 极大似然规则:?F(b2)?a2,平均差错率为1-1/4-1/8-1/8=1/2 ?F(b)?a 33? 设信源为? x2?X?x1 ,试求(1)信源的熵、信息含量效率以及冗余度; ? ?PX?1/43/4? (2) 求二次扩展信源的概率

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论