版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、第二章 信息的度量,根据香农对于信息的定义,信息是一个系统不确定性的度量,尤其在通信系统中,研究的是信息的处理、传输和存储,所以对于信息的定量计算是非常重要的。本章主要从通信系统模型入手,研究离散情况下各种信息的描述方法及定量计算,讨论它们的性质和相互关系,内容提要,2.1 自信息量和互信息量,一个事件的自信息量就是对其不确定性的度量。互信息量则表明了两个随机事件的相互约束程度,对于随机事件集X = x1,x2,xi,xI中的随机事件xi,其出现概率记为p(xi),将两个事件xi ,yj同时出现的概率记为p(xi yj),则p(xi) ,p(xi yj)应满足,且下列关系式成立,一自信息量和条
2、件自信息量,1自信息量,直观地看,自信息量的定义应满足以下四点,1)I(x)应该是p (x)的单调递减函数:概率小的事件一旦发生赋予的信息量大,概率大的事件如果发生则赋予的信息量小; (2)信息量应具有可加性:对于两个独立事件,其信息量应等于各事件自信息量之和; (3)当p(x)=1时,I(x)= 0:表示确定事件发生得不到任何信息; (4)当p(x)=0时,I(x):表示不可能事件一旦发生,信息量将无穷大,综合上述条件,将自信息量定义为,例】若盒中有6个电阻,阻值为1、2、3的分别为2个、1个、3个,将从盒子中取出阻值为i的电阻记为事件xi(i = 1,2,3),则事件集X = x1, x2
3、, x3,其概率分布,计算出各事件的自信息量列表如下,自信息量I (xi) 代表两种含义,事件xi发生以前,表示事件发生的先验不确定性。一个事件不常出现,它的概率就小,当该事件发生时收信者获得的信息量就多,或者说事件携带的信息量大,因此自信息量也可以说是随机事件的一个固有特征。 当事件xi发生以后,表示事件xi所能提供的最大信息量,例】信源消息X0,1,信源等概率分布,计算出自信息量如表所示,可以看出,1bit的信息量就是两个互不相容的等可能事件之一发生时所提供的信息量,推广】二维联合集X Y上元素xi yj的联合自信息量I(xi yj)定义为,2条件自信息量,在已知事件yj条件下,随机事件x
4、i发生的概率为条件概率p(xi/yj),条件自信息量定义为,例】某住宅区共建有若干栋商品房,每栋有5个单元,每个单元住有12户,甲要到该住宅区找他的朋友乙,若,1)甲只知道乙住在第5栋,找到乙的概率有多大?能得到多少信息? (2)甲除知道乙住在第5栋外,还知道乙住在第3单元,他找到乙的概率又有多大?他能得到多少信息,解】用xi代表单元数,yj代表户号,二互信息量和条件互信息量,1互信息量,从通信的角度引出互信息量的概念,信源符号:X=x1, x2, , xI ,xia1,a2,ak,i = 1, 2 , I,xi的概率分布p(xi)称为先验概率,经过信道传输,信宿方接收到符号,信宿符号:Y =
5、 y1, y2, , yJ,yjb1,b2,bD,j = 1, 2, , J,接收到符号yj后,接收者重新估计xi发生的概率,记为条件概率p(xi/yj),也称为后验概率,事件xi是否发生具有不确定性,用I(xi)度量。 接收到符号yj后,事件xi是否发生仍保留有一定的不确定性,用I(xi/yj)度量,观察事件前后,这两者之差就是通信过程中所获得的信息量,为事件xi和事件yj之间的互信息量。用I(xi ; yj )表示,根据概率互换公式 p (xi yj) = p (yj/xi) p( xi ) = p(xi/yj) p ( yj ) 互信息量I(xi ;yj )有多种表达形式,推广】将事件互
6、信息量的概念推广至多维空间,在三维X Y Z联合集中,有,一对事件yjzk发生后,与事件xi之间的互信息量,等于事件yj与xi之间的互信息量加上在事件yj已知的条件下,事件xi与zk的之间的互信息量,类似,在N维U1 U2 UN联合空间,有,2条件互信息量,三维X Y Z联合集中,在给定条件zk的情况下, xi , yj的互信息量I(xi ; yj/zk )定义为,3互信息量的性质,1)互易性(对称性,2)可加性,3)当xi,yj统计独立时,互信息量及条件互信息量均等于零,xi和yj相互独立,表明之间不存在统计约束关系,4)互信息量I(xi;yj)可以是正数,也可以是负数,5)两个事件的互信息
7、量不大于单个事件的自信息量,即有,表2-4为8个三位二进制数对应的各种概率,例2.8】信源包含8个消息x0,x1,x2,x3,x4,x5,x6,x7 ,信源编码器将其对应编成8个三位二进制数000,001,110。各消息的先验概率已知,在接收过程中,每收到一个数字,各消息的后验概率都相应地发生变化。考虑在接受100三个数字的过程中,各后验概率的变化,计算信息量I(x4;100,根据给定的先验概率,可算出,将各种后验概率的计算结果列于表2-4中,再根据式 (2-10)计算出互信息量: I (x4;100 ) = I (x4; 1)+ I (x4; 01)+ I (x4; 010) = =3(比特
8、) 也可直接计算出: (比特,P (x4100) = 1,例:某地二月份气候的概率空间为,则此四种天气状态的不确定性分别为,假如有天气预报说“今天不是晴天”(作为收到的消息y1),收到y1后(假设y1是准确的),再去重新估计各种天气发生的概率,它们之间的互信息量为,收到消息y1之后,使得x2,x3,x4的不确定性各降低了1bit,这是由于互信息量的存在,使得不确定性减少,自信息量减去互信息量是收到消息y1之后,x2,x3,x4仍存在的不确定性,因为不知道到底会发生哪件事情,收到消息y1之后使得x1的不确定性降低了负无穷(增加了无穷大的不确定性),即收到y1之后, x1 基本不会再发生,2.2
9、离散集的平均自信息量,一信 息 熵,1平均自信息量(熵,对于无记忆信源,各个消息的出现概率是相互统计独立的,其平均自信息量定义为各消息自信息量的概率加权平均值(统计平均值),即平均自信息量H(X)定义为,唯一确定事件xi所需要的信息量,唯一确定集合X中任一事件xi所需要的平均信息量,它反映了X中事件xi出现的平均不确定度,集合X的信息熵,简称熵,信息熵和平均自信息量两者在数值上相等,但含义并不相同。信息熵表征信源的平均不确定度,平均自信息量则表示消除不确定度所需要的信息的量度,例】计算下列信源的熵,1)信源一,比特/符号,2)信源二:等概率信源,3)信源三:等概率信源,比特/符号,比特/符号,
10、4)信源四:信源为确定事件,比特/符号,5)信源五:一般情况下的二元信源,比特/符号,2平均条件自信息量(条件熵,1)定义,若事件xi yj的联合分布概率为p(xi yj ),给定yj条件下事件xi的条件自信息量为 I(xi /yj ),则条件熵H (X/Y) 定义为,在联合符号集合XY上的条件自信息量的联合概率加权统计平均值,当X,Y统计独立时,有p (xi yj) p ( xi )p( yj ),p(xi/yj) = p (xi),则,2)物理含义,从通信角度来看,若将X = x1,x2,xi,视为信源输出符号;Y = y1,y2,yj,视为信宿接收符号;I (xi/yj)可看作信宿收到y
11、j后,关于发送的是否为xi仍然存在的不确定性,则,反映了经过通信后,信宿符号yj(j =1,2,)关于信源符号xi(i =1,2,)的平均不确定性,称疑义度,3)条件熵H (YX,若给定xi条件下事件yj的条件自信息量为I (yj/xi),则H (Y/X)定义为,当X,Y统计独立时,有p (xi yj) = p ( xi )p( yj ),p (yj / xi) = p ( yj ),有,从通信角度来看,H (Y/X)是发出确定消息xi后,由于信道干扰而使yj存在的平均不确定性,称H (Y/X)为噪声熵(散布度,3联合熵(共熵,联合熵H (XY) 是定义在二维空间X Y上,对元素xi yj的自
12、信息量的统计平均值,若记事件xi yj出现的概率为p (xi yj),其自信息量为I (xi yj),则联合熵H (X Y)定义为,4各种熵之间的关系,由熵、条件熵、联合熵的定义式可导出三者的关系式,H (X Y) = H (X) + H (Y/X)= H (Y) +H (X/Y,上式反映了信息的可加性。当X,Y统计独立时,有,H(X Y)= H(X)+ H(Y,1凸集合与凸函数 简单介绍凸集和凸函数的概念。 定义2.1 是n维实矢量空间集合R中任意两个n维矢量, 对实数,0 1,有 +(1-) R 则称R为凸集合,二熵函数的性质,从几何上来看,若,是集合R中的任意两点,+(1-)表示这两点间
13、的连线,若该连线也在集合R中,则称R为凸集。下面给出了几个凸集和非凸集合的例子,定义2.2设f(x) = f (x1, x2, , xn) 为一个n元函数,若对任意f (x1), f (x2) f (x) ,任意正数,0 1,有 f (x1) +(1-)f (x2) f x1 +(1-)x2 (2-23,x,则称f(x)为定义域上的型凸函数。 一元型凸函数可用图2-4所示的几何图形表示,定义2.3设f(x) = f (x1, x2, , xn) 为一个n元函数,若对任意f (x1), f (x2) f (x) ,任意正数,0 1,有 f x1 +(1-)x2 f (x1) +(1-)f (x2
14、) (2-24,则称f(x)为定义域上的型凸函数,一元型凸函数可用图2-5所示的几何图形表示,二熵函数的性质,1极大离散熵定理,设信源X中包含M个不同的符号,信源熵H(X)有,当且仅当X中各个符号以等概率出现时,上式取等号,2熵函数的性质,1)对称性,集合X = x1,x2,xN 中的各元素x1,x2,xN任意改变其顺序时,熵只和分布(概率)有关,不关心某个具体事件对应哪个概率,例:某二进制通信系统,信源符号集0,1,由于存在失真,传输时会产生误码,用符号表示下列条件: u0:发“0”;u1:发“1”;v0:收“0”;v1:收“1”。 已知下列概率,则此信道转移概率示意图为,求:(1)已知发出
15、符号“0”,收到一个符号所获得的平均信息量,2)已知发出的符号,收到一个符号所获得的平均信息量,转移概率矩阵p(v/u,联合概率矩阵 p(uv,3)已知发出和收到符号,所获得的平均信息量,或可由定义式求,联合概率矩阵 p(uv,4)收到一个符号后又被告知发出的符号,所获得的平均信息量,联合概率矩阵 p(uv,先求接收符号的概率,后验概率矩阵 p(u/v)= p(uv)/ p(v,或者,2.4 N维扩展信源的熵和平均互信息量,一各种离散信源的熵,信源输出序列为XN= x1 xi xN ,xia0,a1,ak-1,记 XN= x1 x 2 xN的概率分布为p (XN),则信源熵为,1)单符号无记忆
16、信源,由于无记忆,则信源的熵为,2)N维扩展无记忆信源,H (XN) = H ( X1) +H (X2X1) +H (X3X1X2)+ +H (XNX1X2XN -1,p (XN) = p (x1) p (x2x1) p(x3x1x2) p(xNx1x2xN -1),可以计算出其信源熵,一般情况下,同一信源输出的各事件x1 xi xN,其概率分布空间相同(平稳信源),即各xi取值a0,a1,ak-1的概率相同,此时有,例】二进制对称信源只能输出符号0或1,信源概率空间描述为,进行二维无记忆扩展,则信源序列共M224种:00,01,10,11,则将这4种序列看成4个符号,得到一个新的信源,即,3
17、)平稳有记忆N维扩展信源,在信源输出符号相互有关连的情况下,信源输出序列XN= x1 x 2 xN 的概率为p (XN) = p (x1) p (x2x1) p(x3x1x2) p(xNx1x2xN -1),相应可以计算出其信源熵,H (XN) = H ( X1) +H (X2X1) +H (X3X1X2)+ +H (XNX1X2XN -1,根据熵的性质,条件熵小于等于无条件熵,有,可得,等号在信源无记忆(统计独立)时成立,对于平稳信源,有,等号在信源无记忆时成立,当N较小的时候,N维扩展信源的联合熵计算还比较简单,例:某平稳信源 若此信源发出的符号只与前一符号有关,其联合概率矩阵为,其转移概
18、率矩阵为,若不考虑关联性,信源熵,若考虑关联性,条件熵,联合熵,当N较大的时候,N维扩展信源的联合熵计算很困难,随着条件的增加,条件熵越来越小,即条件熵是N的单调非增函数,当N足够大时,H (XNX1X2XN -1)几乎不再随N的增大而减小,而是趋于一个定值,对于平稳有记忆N维扩展信源 ,我们一般求N长符号序列中,平均每个信源符号所携带的不确定性(平均符号熵,定义:XN的平均符号熵,N长随机符号序列中单个符号的平均信源熵,根据条件熵的性质,随着N增大,N维条件熵减小,H(XN)的增加变缓,HN (X)减小 。因此有,离散信源的极限熵(极限信息量、极限符号熵、熵率,若信源输出符号xia0,a1,
19、ak-1,则H0(X)=log k (即假设信源是等概分布的离散无记忆信源,定理(证明略):对任意平稳信源,只要H1(X) ,则有H(X) 存在,且,因此,N长随机符号序列的极限符号熵可以转化为条件熵来计算,实际中,一般的离散平稳信源输出符号的相关性随N的增加而迅速减小(如语言中的词语,句子),此时,N不很大时的条件熵跟极限条件熵就很接近,因此实际中常用有限N时的条件熵来近似H(X),因此,对于有限记忆长度为M(即某时刻发什么符号只与前M个符号有关)的离散平稳信源,可以用有限记忆长度的条件熵来对离散平稳信源进行信息测度,工程上很实用,p(si)为各状态的平稳分布,对于m阶马尔可夫信源,其信源(
20、符号)熵为,4)时齐的有限状态马尔可夫信源 (用上述方法求解,前一时刻m阶马氏信源的状态,信源发出的下一个符号,已知当前状态的条件下,信源发出下一个符号的平均不确定度,这个计算要简单得多,只需要知道转移概率矩阵就可以,例】某二阶平稳时齐马尔可夫信源,设信源符号集为a1,a2,状态集为s1=a1a1,s2=a1a2或a2a2,s3=a2a1,各状态之间的转移情况如图(香农线图)所示,求信源熵,转移概率矩阵为,各状态稳态概率分布,R为零时,信源的实际熵就等于最大值H 0 (X),这表明信源符号之间不但统计独立无记忆,而且各符号还是等概率分布,补充 信源冗余度及信息变差,冗余度也叫多余度或剩余度,它
21、表示一个信源在实际发出消息时所包含的多余消息。冗余度来自两个方面,R越大,信源的实际熵H (X)越小,信源符号之间依赖关系越强,即符号之间的记忆长度越长,信源符号间的依赖性越大,信源的实际熵越小,越趋近H(X),一是信源符号之间的相关性,另一方面是信源分布的不均匀性,信源符号等概率分布时,信源熵最大,而实际中大多数信源是不均匀分布的,使得实际熵H H0(X),H0 最大熵 H实际熵 (1) 相对熵率 = H/H0 (2) 冗余度 R = 1- = I0/H0 (3) 信息变差 I0= H0 - H,R越小,信源的实际熵H (X)越大,信源符号之间依赖关系越弱,即符号之间的记忆长度越短,例 英语
22、26字母加 空格共27个符号。 H0=4.76 bit /符号, H1=4.03 bit /符号, H2=3.32 bit /符号, H3=3.10 bit /符号 H =1.40 bit /符号, 且 = 0.29, R = 0.71, I0= 3.36 bit/符号 说明 英文中,有71%冗余度,是由语言结构决定的,该部分无需传输,可压缩。 于是:冗余度信源可压缩程度,例 将常用的10000个汉字看做10000个符号。 H0=13.288 bit /符号, H1=9.773 bit /符号, = 0.736, R = 0.264 说明 汉语信源中,每个汉字出现的概率不但不相等,而且有一些常
23、用的词组。单字之间有依赖关系,词组之间也有依赖关系。如果将这些依赖关系考虑进去,计算相当复杂,但是实际汉语信源的熵一定也很小,冗余度相当大,2.3 离散集的平均互信息量,一平均互信息量,1平均互信息量,定义xiX和yjY之间的互信息量为I(xi ;yj ),在集合X上对I(xi ;yj )进行概率加权统计平均,可得I ( X ; yj )为,再对集合Y进行统计平均,就可以得到平均互信息量,当X,Y统计独立时,I(xi;yj )= 0,从而I(X ;Y)= 0,例】 二元等概率信源X通过信道转移概率矩阵为P的信道传输,信宿接收符号Y = y0,y1,计算信源与信宿间的平均互信息量I(X;Y,解】
24、(1)根据 得,2)由 求后验概率,3)计算各消息之间的互信息量I(xi ;yj,比特,比特,比特,比特,4)计算平均互信息量,2平均条件互信息量,平均条件互信息量I(X;YZ)是在联合概率空间XYZ,p(xyz)上定义的物理量。由条件互信息量公式,对上式在三维空间XYZ上求概率加权平均值,就得到平均条件互信息量,二平均互信息量的性质,1平均互信息量的性质,1)非负性,2)互易性(对称性,3)平均互信息量小于发送符号、接收符号的信源熵,2平均互信息量与信源熵、条件熵的关系,3平均互信息量的物理意义,从通信的角度来讨论平均互信息量I(X ; Y)的物理意义,1)由第一等式 I(X;Y)= H(X
25、)- H(XY)看I(X;Y)的物理意义,设X为发送消息符号集,Y为接收符号集,H(X)是输入集的平均不确定性,H(XY)是观察到Y后,集X还保留的不确定性,二者之差I (X;Y)就是在接收过程中得到的关于X;Y的平均互信息量,对于无扰信道,I(X ; Y)=H(X)。 对于强噪信道,I(X ; Y)= 0,2)由第二等式I(X;Y)= H(Y)-H(YX)看I(X;Y)的物理意义,H(Y)是观察到Y所获得的信息量(Y 的平均不确定性),H(YX)是发出确定消息X后,由于干扰而使Y存在的平均不确定性, 二者之差I(X ; Y)就是一次通信所获得的信息量,对于无扰信道,有I(X ; Y)=H(X
26、)=H(Y)。 对于强噪信道,有H(YX)= H(Y),从而I(X ; Y) = 0,3)由第三等式I(X;Y)= H(X)+ H(Y)- H(XY)看I(X;Y)的物理意义,通信前,随机变量X和Y可视为统计独立,其先验不确定性为H(X)+ H(Y),通信后,整个系统的后验不确定性为H(XY),二者之差H(X)H(Y)H(XY)就是通信过程中不确定性减少的量,也就是通信过程中获得的平均互信息量I(X;Y,例】已知信源消息集为X=0,1,接收符号集为Y=0,1,通过有扰信道传输,其传输特性如图所示,这是一个二进制对称信道BSC。已知先验概率为等概率,计算平均互信息量I( X;Y)及各种熵,解】设
27、p(x)为信源输入概率;p(y)为信宿输出概率; p(y/x)为信道转移概率;p(x/y)为后验概率,1)由图及 得,2)由 得,3)由 计算后验概率,4)计算各种熵及平均互信息量,信源熵,信宿熵,联合熵,三有关平均互信息量的两条定理,平均互信息量,疑义度,散布度,平均互信息量定义为,上式说明I(X ; Y)是信源分布概率p(x)和信道转移概率p(yx)的函数,下面两条定理阐明了I(X ; Y)与p(x)和p(yx)之间的关系,定理1:当信道给定,即信道转移概率p(yx)固定,平均互信息量I(X ; Y)是信源概率分布p(x)的型凸函数,定理1说明,信道固定时,对于不同的信源分布,信道输出端获得的信息量是不同的。因此,对于每一个固定信道,一定存在一种信源(一种分布)p(x),使输出端获得的信息量最大,定理2:当信源给定,即信源分布概率p(x)固定,平均互信息量I(X ; Y)是信道转移概率p(yx)的型凸函数,定理2说明,信源固定以后,用不同的信道来传输同一信源符号时,在信道输出端获得的信息量是不同的。可见,对每一种信源一定存在一种最差的信道,此信道的干扰最大,而使输出端获得的信息量最小,例2.16】二进制对称信道BSC如图2-10所示,输入符号集X =x1,x2=0,
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 褥疮预防及护理研究中英文
- 2025至2030礼品包装行业绿色发展及可持续性研究报告
- 2026年智能家居语音助手市场分析创新报告
- 2025-2030房地产业市场精确调研及投资价值与策略规划研究报告
- 2025-2030德国高端汽车零部件产业技术革新质量管控研究报告文档
- 2025-2030德国钢铁行业市场现状供需分析及投资评估规划分析研究报告
- 2025-2030德国轨道交通信号系统数字化转型优化方案
- 2025-2030德国网络安全行业市场规模深度调研及行业发展趋势研究报告
- 2025-2030德国精密机械制造行业解决方案研究及市场前景评估报告
- 2025-2030德国精密仪器行业市场供需变化分析及投资发展评估规划方案
- 情境教学在初中数学教学中的应用研究
- 国家教育事业发展“十五五”规划纲要
- 宁夏的伊斯兰教派与门宦
- 昆虫生态学 第三章种群生态学课件
- 2025年自考00009政治经济学财经类04月真题试卷及答案
- SAP-CO-PC-生产成本核算配置与操作
- 唐河县泌阳凹陷郭桥天然碱矿产资源开采与生态修复方案
- 恐龙无处不有(2024年山东泰安中考语文现代文阅读试题)
- 中考数学专项复习:一次函数、反比例函数、二次函数的图象共存问题(重点突围)(解析版)
- 中学学生社团教师工作手册(完整)
- AQ 1064-2008 煤矿用防爆柴油机无轨胶轮车安全使用规范(正式版)
评论
0/150
提交评论