实验一灰度图像信息熵的相关计算与分析.doc_第1页
实验一灰度图像信息熵的相关计算与分析.doc_第2页
实验一灰度图像信息熵的相关计算与分析.doc_第3页
实验一灰度图像信息熵的相关计算与分析.doc_第4页
实验一灰度图像信息熵的相关计算与分析.doc_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

实验一 灰度图像信息熵的相关计算与分析姓名:学号:姓名:学号:姓名:学号:姓名:学号:一、实验目的1、复习信息熵,条件熵,联合熵,互信息,相对熵的基本定义, 掌握其计算方法,学习互信息与相对熵的区别之处并比较两者的有效性,加深对所学理论理论知识的理解。 2、掌握图像的的基本处理方法,了解图像的编码原理。 3、学习使用matlab,掌握matlab的编程。 4、通过对比分析,。在解决问题的过程中,锻炼自身对问题的研究能力。二、实验内容与要求 1、计算灰度图像的信息熵,条件熵,联合熵,互信息,相对熵,并比较互信息和相对熵在判别两幅图像的联系与区别。 2、利用matlab编程计算,并书写完整实验报告。 三、实验原理 1、信息熵离散随机变量X的熵H(X)为:图像熵是一种特征的统计形式,它反映了图像中平均信息量的多少。图像的一 维熵表示图像中灰度分布的聚集特征所包含的信息量,将图像的灰度值进行数学统计,便可得到每个灰度值出现的次数及概率,则定义灰度图像的一元灰度熵为: 利用信息熵的计算公式便可计算图像的信息熵,求出任意一个离散信源的熵(平均自信息量)。自信息是一个随机变量,它是指某一信源发出某一消息所含有的信息量。所发出的消息不同,它们所含有的信息量也就不同。任何一个消息的自信息量都代表不了信源所包含的平均自信息量。 信息熵的意义:信源的信息熵H是从整个信源的统计特性来考虑的。它是从平均意义上来表征信源的总体特性的。对于某特定的信源,其信息熵只有一个。不同的信源因统计特性不同,其熵也不同。图像的一维熵可以表示图像灰度分布的聚集特征,却不能反映图像灰度分布的空间特征,为了表征这种空间特征,可以在一维熵的基础上引入能够反映灰度分布空间特征的特征量来组成图像的二维熵。选择图像的邻域灰度均值作为灰度分布的空间特征量,与图像的像素灰度组成特征二元组,记为( i, j ),其中i 表示像素的灰度值,j 表示邻域灰度, 上式能反应某像素位置上的灰度值与其周围像素灰度分布的综合特征,其中 f(i, j)为特征二元组(i, j)出现的频数,N 为图像的尺度,定义离散的图像二维熵为: 构造的图像二维熵可以在图像所包含信息量的前提下,突出反映图像中像素位置的灰度信息和像素邻域内灰度分布的综合特征。 2、联合熵离散型随机变量(X,Y)的联合分布函数为,其联合熵:3、条件熵若,则条件熵为: 4、相对熵相对熵是对两种分布之间的偏移的测量,在统计学中,以概率比的对数的期望形式出现。相对熵是两个概率分布P和Q差别的非对称性的度量。是用来度量使用基于Q的编码来编码来自P的样本平均所需的额外的比特个数。典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。相对熵的定义如下: p(x) 和 q(x)之间相关熵为 5、互信息互信息是一个随机变量包含另一个随机变量多少的一个量度,是一个随机变量由另一个随机变量的信息其不确定性的减少。 互信息的定义如下:两个随机变量X和Y,联合概率分布函数p(x, y),边缘概率分布函数为p(x)和p(y),互信息为联合分布和分布乘积之间的相对熵。互信息是一有用的信息度量,指两个事件集合之间的相关性,互信息的值越大(小),相关程度越高(低)。相对熵是两个概率分布差别的非对称性的度量,是用来度量使用基于一个的编码来编码来自另一个的样本平均所需的额外的比特个数,相对熵的值越大(小),非对称性的量度越大(小),侧面反映相关程度的低(高)。两者都可以用来衡量两幅图像的相关程度,但是也有区别。四、实验步骤 1) 输入一幅图像,并将其转换成灰度图像。 2) 统计出图像中每个灰度阶象素概率。 3) 统计出图像中相邻两象素的灰度阶联合分布矩阵。 4) 计算出每幅图像的熵和成对图像的条件熵,联合熵,互信息,相对熵 5)分析实验结果。五、实验结果及分析1)表1.各个图片的信息熵与图一之间的联合熵,互信息,条件熵以及相对熵。信息熵联合熵互信息条件熵相对熵图一7.597614.75570.50427.09930.0174图二7.66247.1581图一7.597614.86690.44257.15500.0395图三7.71197.2693图一7.597614.93640.39927.19840.0599图四7.73807. 3388图一7.597614.52110.73236.86520.0088图五7.65596.92352)实验中生成的灰度图像:图一对比图对比图与图一相同部分3)结果分析:从原始图像可以看出图1分别与图2,图3,图4的差别原来越大。从计算结果上看,它们的互信息的值越来越小、相对熵的值越来越大,与实际相符,结果正确。回顾互信息与相对熵的定义,我们可以了解到互信息是一种有用的信息度量,它是指两个事件集合之间的相关性,因此互信息越大,二者的相似程度就越高。而相对熵基于熵来定义,其直观意义是用p进行编码平均比q多的比特数,也就是p与q的差距,p与q差距越大相对熵就越大。用两者不同的信息去衡量相同的信息,会产生较大的误差。所以在衡量两个随机变量的相关程度时,互信息要比相对熵有优势,效果会更好一些。六、心得体会本次大作业我们首先对之前学过的知识复习一下,加深对信息熵、联合熵、互信息、条件熵以及相对熵的理解。对于KL散度,虽然老师上课有专门讲解过,但是具体操作的时候还是概念不太清晰,为此我们参考网络已有的资料又重新学习了一下。在图像的选择方面,我们刚开始决定用一组图像来计算,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论