信息论-举例讲解(信息量、熵及互信息量)_第1页
信息论-举例讲解(信息量、熵及互信息量)_第2页
信息论-举例讲解(信息量、熵及互信息量)_第3页
信息论-举例讲解(信息量、熵及互信息量)_第4页
信息论-举例讲解(信息量、熵及互信息量)_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、信息论_举例讲解(信息量、熵及互信息量)信息论基础信息量、熵和互信息量信息量、熵和互信息量信息论_举例讲解(信息量、熵及互信息量) 在上一次课中我们提到香农对信息定性的定义事物运动状态或存在方式的不确定性的描述。事实上,香农对信息不仅作了定性描述,而且还进行了定量分析。 信源发出的消息常常是随机的,具有不确定性。如果信源中某一消息的不确定性越大,一旦发生,并为收信者收到,消除的不确定性就越大,获得的信息也就越大。同时事件发生的不确定性与事件发生的概率有关,概率越小,不确定性就越大。 研究通信系统的目的就是要找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传

2、输系统最优化。 信息论_举例讲解(信息量、熵及互信息量)离散集自信息量的性质离散集自信息量的性质 因此,某事件x发生所提供的信息量I(x)应该是该事件发生的先验概率p(x)的函数:I(x)=f(p(x)(4)当p(x)=0时,I(x)=:表示不可能事件一旦发生,信息量将无穷大。且应满足以下四点:(1)I(x)应该是事件概率p(x)的单调递减函数;(2)信息量应具有可加性:对于两个独立事件,其信息量应等于各自信息量之和;(3)当p(x)=1时,I(x)=0:表示确定事件发生得不到任何信息;信息论_举例讲解(信息量、熵及互信息量)自信息量的计算公式 综合上述条件,在概率上已经严格证明了)(log)

3、(xpdefxI 自信息量的单位:若这里的对数底取2,则单位为比特bit,由于在计算机上是二进制,我们一般都采用比特。其他单位以及相互之间转换关系查阅教材。其中p(x)为消息的先验概率。信息论_举例讲解(信息量、熵及互信息量)计算自信息量的例子例1:信源消息X=0,1,2 的概率模型如下:x xi i0 01 12 2P(xP(xi i) )1/31/31/61/61/21/2x xi i0 01 12 2P(xP(xi i) )1/31/31/61/61/21/2I(xI(xi i) )log3log3log6log6log2log2则该信源各消息的自信息量分别为:单位:比特信息论_举例讲解

4、(信息量、熵及互信息量)自信息量的涵义自信息量的涵义自信息量代表两种含义:二、当事件x发生以后,I(x)表示事件x所提供的信息量(在无噪情况下)。 在通信系统模型中,不仅可以用自信息量来研究信源中的每个消息,对信宿也可同样可以。一、事件x发生以前,I(x)表示事件x发生的不确定性;信息论_举例讲解(信息量、熵及互信息量)自信息量计算的应用自信息量计算的应用例2:假设一条电线上串联了8个灯泡x1,x2,x8,这8个灯泡损坏的可能性是等概率的,假设有也只有一个灯泡损坏,用万用表去测量,获得足够的信息量,才能获知和确定哪个灯泡xi损坏。下面就来看我们最少需要获得多少信息量才能判断出。信息论_举例讲解

5、(信息量、熵及互信息量)( 112)(1log)(1log)()(3232bitxpxpxpIxpI)( 101)(1log)(1log)()(4343bitxpxpxpIxpI第三次测量获得的信息量:故共需要3bit信息量.第二次测量获得的信息量:)( 123)(1log)(1log)()(2121bitxpxpxpIxpI解第一次测量获得的信息量:信息论_举例讲解(信息量、熵及互信息量)信源熵信源熵 前面我们根据信源或信宿的概率模型,通过自信息量的计算,能得到信源以及信宿中每个消息的不确定性。然而,事实上,人们往往关注的并不紧紧是每个消息的不确定性,而是整个系统的不确定性的统计特性即整个信

6、源自信息量的统计平均值熵。 x xi i0 01 1P(xP(xi i) ) 0.50.50.50.5y yi i0 01 1P(yP(yi i) ) 0.990.990.010.01我们先来看一个例子:例3 有两个信源X和Y: 在现实中,能找到很多类似的模型,我们想知道这两个信源本质的区别在哪里?信息论_举例讲解(信息量、熵及互信息量)平均自信息量平均自信息量熵的定义熵的定义 设X是一个集合(即信息系统如信源或信道),其概率模型为xi,p(xi),则定义系统X的平均自信息量熵为:XxxiiiidefiixpxpxIxpXH)(log)()()(熵的单位是比特/符号. 我们知道,I(xi)是唯

7、一确定xi所需要的信息量,那么H(X)就是唯一确定X中任一事件所需的平均信息量。它反映了X中事件xi出现的平均不确定性。信息论_举例讲解(信息量、熵及互信息量)熵的几条性质熵的几条性质(4)极值性最大离散熵定理:设|X|为信源消息的个数,则有H(X)小于等于log|X|,等号当且仅当信源X中各消息等概率时成立,即各消息等概率分布时( p=1/|X|),信源熵最大.(3)确定性:若离散事件是确定事件,则H(X)0(2)非负性:H(X)0;(1)对称性:熵只和分布有关,不关心某一具体事件对应哪个概率;信息论_举例讲解(信息量、熵及互信息量)计算熵的例子计算熵的例子例4 计算下面一个信源的熵:x x

8、i i000000001001010010011011100100101101110110111111q(xq(xi i) )1/41/41/41/41/81/81/81/81/161/161/161/161/161/161/161/1675. 2161log161481log81241log412)(XH 08. 001. 0log01. 099. 0log99. 0YH 15 . 0log5 . 05 . 0log5 . 0XH解由定义有: (比特/符号) 我们再回过头来看一下例3中两个信源熵分别是多少, 结果反映了一个怎样的事实?例3解答由定义有: 显然,H(X)H(Y),这表示信源X的

9、平均不稳定性远远大于信源Y的平均不稳定性。信息论_举例讲解(信息量、熵及互信息量)条件自信息量条件自信息量)(log)(yxpyxIdef 前面我们引入自信息量以及熵的概念,用以描述信源或信宿,事实上,信宿收到的消息是与信源发出的消息密切相关。并且接受信息与发送信息之间的关系往往是判定一个信道的好坏的最佳标准。所以,我们需要引入互信息量。在学习互信息量之前我们先来了解条件信息量的概念。 设消息x发出的先验概率为p(x),收到消息y是由x发出的条件概率为p(x|y),则在收到y是由x发出的条件自信息量I(x|y)定义为:(比特)信息论_举例讲解(信息量、熵及互信息量)计算条件自信息量的例子计算条

10、件自信息量的例子875. 0125. 0125. 0875. 01010/ yxxyp) 1| 1(),0| 1(),1|0(xyIxyIyxI.87) 1| 1(,81)0| 1(,81) 1|0(xypxypyxp. 7log8log) 1| 1(, 38log)0| 1(, 38log) 1|0(xyIxyIyxI例5 在二进制对称信道BSC中,若信道转移概率矩阵为: 计算下列条件自信息量(若p(0)=p(1)=1):解答由已知条件可得: 量的定义得 由条件自信息单位为比特信息论_举例讲解(信息量、熵及互信息量) 我们知道,在通信之前,消息x具有不确定性p(x),其大小为x的自信息量:

11、两者之间的差就是我们通过这一次通信所获得到的信息量的大小。 I(x|y)=-log p(x|y)I(x|y)=-log p(x|y)I(x)=-log p(x)I(x)=-log p(x)当我们收到消息y,它是否由x发出也有一定的不确定性p(x|y),其大小为条件自信息量:信息论_举例讲解(信息量、熵及互信息量)同样,收到的消息为y具有不确定性p(y),其大小为y的自信息量: 两者之间的差也是我们通过这一次通信所获得到的信息量的大小。 I(y|x)=-log p(y|x)I(y|x)=-log p(y|x)I(y)=-log p(y)I(y)=-log p(y)当我们发出消息x,它是否收到y也

12、有一定的不确定性p(y|x),其大小为条件自信息量:信息论_举例讲解(信息量、熵及互信息量)互信息量互信息量)|()()|()(xyIyIyxIxI)|()()|()(),(yxpypxypxpyxp)|()()()|(log)()|(log)|()(xyIyIypxypxpyxpyxIxI 很显然,从通信的角度来看,上述两个差值应该相等,即:事实上,由概率论概率的乘积公式有: 这样,用I(x;y)或I(y;x)记该差式,称为x与y之间的互信息量,单位也为比特。故:信息论_举例讲解(信息量、熵及互信息量)互信息量的性质互信息量的性质一、对称性:I(x;y)=I(y;x),其通信意义表示发出x收

13、到y所能提供给我们的信息量的大小;二、当x与y统计独立时,I(x;y)=I(y;x)=0,表示这样一次通信不能为我们提供任何信息. 上述两条性质与我们实际情况非常吻合.信息论_举例讲解(信息量、熵及互信息量)计算互信息量的例子计算互信息量的例子信源消息信源消息码字码字先验概率先验概率消息后验概率消息后验概率收到收到0 0后后收到收到0101后后收到收到011011后后x0 x00000001/41/41/31/30 00 0 x1x10010011/41/41/31/30 00 0X2X20100101/81/81/61/61/21/20 0X3X30110111/81/81/61/61/21

14、/21 1X4X41001001/161/160 00 00 0X5X51011011/161/160 00 00 0X6X61101101/161/160 00 00 0 x7x71111111/161/160 00 00 0例5 设信源中含有8个消息,其先验概率如下图,试求当我们收到011所能获取到的信息量,即计算互信息量I(x3;011).信息论_举例讲解(信息量、熵及互信息量)信源消息信源消息码字码字先验概率先验概率消息后验概率消息后验概率收到收到0 0后后收到收到0101后后收到收到011011后后x x0 00000001/41/41/31/30 00 0 x x1 1001001

15、1/41/41/31/30 00 0X X2 20100101/81/81/61/61/21/20 0X X3 30110111/81/81/61/61/21/21 1X X4 41001001/161/160 00 00 0X X5 51011011/161/160 00 00 0X X6 61101101/161/160 00 00 0 x x7 71111111/161/160 00 00 0)011 ;()01 ;()0 ;()011;(3333xIxIxIxI)01()011(log)0()01(log)()0(log333333xpxpxpxpxpxp38log211log6121

16、log8161log解法一由互信息量的含义得:单位为比特信息论_举例讲解(信息量、熵及互信息量)信源消息信源消息码字码字先验概率先验概率消息后验概率消息后验概率收到收到0 0后后收到收到0101后后收到收到011011后后x x0 00000001/41/41/31/30 00 0 x x1 10010011/41/41/31/30 00 0X X2 20100101/81/81/61/61/21/20 0X X3 30110111/81/81/61/61/21/21 1X X4 41001001/161/160 00 00 0X X5 51011011/161/160 00 00 0X X6

17、 61101101/161/160 00 00 0 x x7 71111111/161/160 00 00 03811log)()011(log)011;(333xpxpxI解法二直接计算得:单位为比特信息论_举例讲解(信息量、熵及互信息量) 熵是信源平均不确定性的度量,一般情况下,它并不等于信宿所获得的平均信息量,只有在无噪情况下,二者才相等.为此我们需要学习条件熵.同时我们由条件熵引出平均互信息量的概念,其可以用来衡量一个信道的好坏.信息论_举例讲解(信息量、熵及互信息量)条件熵的定义条件熵的定义)(log),()(),(yxpyxpyxIyxpYXHxyxydef 设X是信源的消息集,Y

18、是信宿消息集,对条件自信息量I(x|y)取统计平均值得到条件熵H(X|Y),即: 其中p(x,y)为联合概率,p(x|y)为条件概率. 信息论_举例讲解(信息量、熵及互信息量)平均互信息量的定义平均互信息量的定义)|()()|()();(XYHYHYXHXHYXI 很显然,信源X的熵H(X)与条件熵H(X|Y)的差值和信宿Y的熵H(Y)与条件熵H(Y|X)的差值相等,我们称为X与Y的平均互信息量,记为: I(X;Y)是一个用来衡量信道好坏的非常好的工具。信息论_举例讲解(信息量、熵及互信息量)计算条件熵的例子计算条件熵的例子9 . 01 . 01 . 09 . 0)( xyp)0 , 1 (05. 01 . 05 . 0)0|1 ()0() 1 , 0() 1 , 1 (45. 09 . 05 . 0)0|0()0()0 , 0

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论