信息量和熵2.1离散信源的数学模型和信息测度要求_第1页
信息量和熵2.1离散信源的数学模型和信息测度要求_第2页
信息量和熵2.1离散信源的数学模型和信息测度要求_第3页
信息量和熵2.1离散信源的数学模型和信息测度要求_第4页
信息量和熵2.1离散信源的数学模型和信息测度要求_第5页
已阅读5页,还剩43页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、信息量和熵2.1 离散信源的数学模型和信息测度要求信源信道信宿噪声源编码器译码器消息干扰接收信号消息数字通信系统模型有效性、可靠性Review发送信号信源的数学描述 通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度概率空间来描述信源。 不同的信源输出的消息的随机性质不同,可以根据消息的不同的随机性质来对信源进行分类:按照某时刻信源输出消息的取值集合的离散性和连续性, 信源可分为离散信源和连续信源。按照信源输出消息的所对应的随机序列中随机变量前后之间有无依赖关系, 信源可分为无记忆信源和有

2、记忆信源。 按照信源输出消息的所对应的随机序列的平稳性, 信源可分为平稳信源和非平稳信源。信源的分类离散信源:可能输出的消息是有限的或可数的,每次只输出一个消息,即两两不相容。数学模型:注:X代表随机变量,指的是信源整体;ai代表信源的某个元素。简单信源数学模型:注:这里的p(x)代表概率密度函数。简单信源 连续信源:可能输出的消息数是无限的或不可数的,每次只输出一个消息。离散信源在不同时刻发出的符号之间是无依赖的彼此统计独立的。其中,且离散无记忆信源由离散无记忆信源输出N长的随机序列构成的信源。离散无记忆信源N次扩展信源掷两枚硬币掷一枚硬币离散平稳信源:输出的随机序列 中每个随机变量 取值是

3、离散的,并且随机矢量X的各维概率分布不随时间平移而改变。连续平稳信源:输出的随机序列 中每个随机变量 取值是连续的,并且随机矢量X的各维概率密度函数不随时间平移而改变离散无记忆信源:离散信源在不同时刻发出的符号之间是彼此统计独立的。其它几种常见信源有记忆信源:输出的随机序列X中各随机变量之间有依赖关系,但记忆长度有限。m阶马尔可夫信源:信源每次发出的符号只与前m个符号有关,与更前面的符号无关。随机波形信源:信源输出的消息在时间上和取值上都是连续的。其它几种常见信源 设单符号离散信源的概率空间为自信息量定义 如果知道事件xi已发生,则该事件所给出的信息量称为自信息,定义为:对数换底关系:自信息量

4、定义I (xi) 含义当事件xi发生以前,表示事件xi 发生的不确定性当事件xi发生以后,表示事件xi所含有的信息量I (xi)单位常用对数底是2,信息量的单位为比特(bits);若取自然对数,则信息量的单位为奈特(nats); 1 natlog2e l.433 bit,或(1) I (xi)是非负值(2) 当p(xi) = 1时,I(xi) = 0(3) 当p(xi) = 0时,I(xi) = (4) I(xi)是先验概率p(xi)的单调递减函数,即 当p(x1)p(x2)时,I (x1)I (x2)(5)两个独立事件的联合信息量等于它们分别的信息量之和,即统计独立信源的信息量等于它们分别的

5、信息量之和。自信息的性质二进制码元0,1,当符号概率为p(0)=1/4, p(1)=3/4,则这两个符号的自信息量为: I(0) =-log2 (1/4)=log24= 2 bits I(1) =-log2 (3/4) =0.4151 bits一个以等概率出现的二进制码元(0,1)所包含的自信息量为: 自信息量例题I(0)= I(1)= -log2 (1/2)=log22=1 bits自信息量例题一次掷两个色子,求下列事件发生后提供的信息量。a.仅有一个为3;b.至少有一个为4;c.两个之和为偶数。解:一个色子有6个符号,X=1,2,3,4,5,6,两个色子的总数为36。a. 事件概率为5*2

6、/36=5/18b. 事件概率为(52+1)/36=11/36c. 事件概率为63/36=1/2则: I(a)=log(18/5)=1.848 (bits) I(b)=log(36/11)=1.7105 (bits) I(c)=log2=1 (bits)考虑两个随机事件,其联合概率空间为联合自信息与条件自信息 在事件yj出现的条件下,随机事件xi发生的 条件自信息量 条件自信息量 联合自信息量联合自信息量和条件自信息量关系当X和Y独立时, 信源各个离散消息的自信息量的数学期望(即概率加权的统计平均值)为信源的平均信息量,称为信源的信息熵,也叫信源熵或香农熵,简称熵。熵函数的自变量是X表示信源整

7、体,实质上是离散无记忆信源平均不确定度的度量。与自信息不同,自信息表示某一消息所含有的信息量,它是一个随机变量,不能用它来作为整个信源的信息测度。 信源熵定义信源熵H(X)的物理含义 信源输出后,每个离散消息所提供的平均信息量; 信源输出前,信源的平均不确定度; (反映了随机变量X的随机性) 对该信源输出进行无错编码所需的最小编码长度; 消除信源不确定度所需要的信息的量度.信源熵理解注意: 电视屏上约有 500 600= 3105个格点,按每格点有8个不同的灰度等级考虑,则共能组成 个不同的画面。= 9 105 bits信源熵例题按等概率计算,平均每个画面可提供的信息量为 有一篇千字文章,假定

8、每字可从万字表中任选,则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文可提供的 信息量为 H(X) log2N 1.3 104 bits “一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。 信源熵例题例如有两个信源,其概率空间分别为:因为H(Y) H(X) 所以信源Y比信源X的平均不确定性要大。 信源熵例题 该信源X输出符号只有两个,设为0和1输出符号发生的概率分别为p和q,pq=l,即信源的概率空间为 则二元信源熵为 H(X)= -plogp-qlogq = -plogp- (1- p)log(1-p) =

9、H(p) 信源熵例题0 0.2 0.4 0.6 0.8 110.80.60.40.2pH(p)H(p) = -plogp- (1- p)log(1-p)条件熵是在联合符号集合XY上的条件自信息量的数学期望。在已知随机变量Y的条件下,随机变量X的条件熵定义为:要用联合概率加权条件熵是一个确定值,表示信宿在收到Y后,信源X仍然存在的不确定度。这是传输失真所造成的。有时称H(X/Y)为信道疑义度,也称损失熵。称条件熵H(Y/X)为噪声熵。条件熵联合离散符号集合XY上的每个元素对 的联合自信息量的数学期望。联合熵进一步扩展熵、条件熵、联合熵关系当Ui相互独立时当X和Y相互独立时一个二进信源X发出符号集

10、0,1,经过离散无记忆信道传输,信道输出用Y表示.由于信道中存在噪声,接收端除收到0和1的符号外,还有不确定符号“2”已知: X的先验概率: p(x0)=2/3, p(x1)= 1/3, 符号转移概率: p(y0|x0)=3/4, p(y2|x0)=1/4 p(y1|x1)=1/2, p(y2|x1)=1/2,XY0101 23/41/21/21/4信源熵H(X)例 题得联合概率: p(x0y0) = p(x0) p(y0 |x0) = 2/33/4 = 1/2 p(x0y1) = p(x0) p(y1 |x0) = 0 p(x0y2) = p(x0) p(y2 |x0) = 2/31/4 =

11、 1/6 p(x1y0) = p(x1) p(y0 |x1) = 0 p(x1y1) = p(x1) p(y1 |x1) = 1/31/2=1/6 p(x1y2) = p(x1) p(y2 |x1) = 1/31/2=1/6由例 题 噪声熵 H(Y|X)XY0101 23/41/21/21/4联合熵 H(XY) H(XY)H(X)H(Y|X)=1.8 bits得 p(y0) = p(xiy0) = p(x0y0) +p(x1y0) =1/2+0 = 1/2 p(y1) = p(xiy1) = p(x0y1) +p(x1y1) = 0+1/6 =1/6 p(y2) = p(xiy2) = p(x

12、0y2) +p(x1y2) = 1/6+1/6=1/3 由例 题信道输出熵H(Y)由得同理 p(x0 |y1)=0 ; p(x1 |y1)=1 p(x0 |y2)=1/2; p(x1 |y2)=1/2 信道疑义度 H(X|Y)例 题或 H(X|Y)= 熵的基本性质概率矢量熵函数非负性 非负性 H(X)0 由于0pk1,所以logpk0,-logpk0,则总有H(X)0。 对称性根据加法交换律可以证明,当变量交换顺序时熵函数的值不变, 即信源的熵只与概率空间的总体结构有关,而与各概率分量对应的状态顺序无关。 对称性确定性当信源X的信源空间X,P中,任一概率分量等于1,根据完备空间特性,其它概率分

13、量必为0,这时信源为一个确知信源,其熵为0。 确定性这说明信源空间中增加某些概率很小的符号,虽然当发出这些符号时,提供很大的信息量,但由于其概率接近于0,在信源熵中占极小的比重, ,使信源熵保持不变。 扩展性扩展性 可加性证明:可加性 极值性最大离散熵定理 信源X中包含K个不同离散消息时,信源熵 ,当且仅当X中各个消息出现的概率全相等时,上式取等号。 表明等概信源的不确定性最大,具有最大熵,为 极值性H(p) 0 0.5 1 p 二元离散信源H(p) = -plogp- (1- p)log(1-p)引理1(常用对数不等式):lnx x-1,当且仅当x=1时等号成立。令f(x)=lnx(x-1)

14、 ,则 可见,f(x)是x的上凸函数,且当x=1时,f(x)有极大值。故 即 lnx(x-1)f(x)=lnx-(x-1) 0 证明: 令 ,可得 即等概时熵最大,为 。证明:引理2香农辅助定理 极值性最大离散熵定理 信源X中包含K个不同离散消息时,信源熵 ,当且仅当X中各个消息出现的概率全相等时,上式取等号。 表明等概信源的不确定性最大,具有最大熵,为 极值性定理:1. H(X/Y) H(X) (条件熵不大于无条件熵) 2. H(XY) H(X)+H(Y)证明:基本定理由定理1,得基本定理推广H(X/Y) H(X)H(XY) H(X)+H(Y)相互独立时等号成立 唯一性 香农指出,存在这样的不确定性的度量,它是概率 分布 的函数 ,且该函数应满足:对称性 极值性可加性扩展性 它的形式是唯一的。唯一性本节小结信源的数学模型及分类信源的平均自信息量-信源熵 定义:自信息的数学期望 含义:几种解释 与联合熵、条件熵之间

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论