




免费预览已结束,剩余36页可下载查看
下载本文档
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
河北工程大学毕业设计(论文) 1 摘要 信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统 计等学科相结合而逐步发展起来的一门新兴交叉学科。而熵是信息论中事件出现概率 的不确定性的量度,能有效反映事件包含的信息。随着科学技术,特别是信息技术的 迅猛发展,信息理论在通信领域中发挥了越来越重要的作用,由于信息理论解决问题 的思路和方法独特、新颖和有效,信息论已渗透到其他科学领域。随着计算机技术和 数学理论的不断发展,人工智能、神经网络、遗传算法、模糊理论的不断完善,信息 理论的应用越来越广泛。在图像处理研究中,信息熵也越来越受到关注。为了寻找快 速有效的图像处理方法,信息理论越来越多地渗透到图像处理技术中。本文通过进一 步探讨概论率中熵的概念,分析其在图像处理中的应用,通过概念的分析理解,详细 讨论其在图像处理的各个方面:如图像分割、图像配准、人脸识别,特征检测等的应 用。 本文介绍了信息熵在图像处理中的应用,总结了一些基于熵的基本概念,互信息 的定义。并给出了信息熵在图像处理特别是图像分割和图像配准中的应用,最后实现 了信息熵在图像配准中的方法。 关键词:信息熵,互信息,图像分割,图像配准 河北工程大学毕业设计(论文) 2 abstract information theory is a new interdisciplinary subject developed in people long-term communication practice, combining with communication technology, theory of probability, stochastic processes, and mathematical statistics. entropy is a measure of the uncertainty the probability of the occurrence of the event in the information theory, it can effectively reflect the information event contains. with the development of science and technology, especially the rapid development of information technology, information theory has played a more and more important role in the communication field, because the ideas and methods to solve the problem of information theory is unique, novel and effective, information theory has penetrated into other areas of science. with the development of computer technology and mathematical theory, continuous improvement of artificial intelligence, neural network, genetic algorithm, fuzzy theory, there are more and more extensive applications of information theory. in the research of image processing, the information entropy has attracted more and more attention. in order to find the fast and effective image processing method, information theory is used more and more frequently in the image processing technology. in this paper, through the further discussion on concept of entropy, analyzes its application in image processing, such as image segmentation, image registration, face recognition, feature detection etc. this paper introduces the application of information entropy in image processing, summarizes some basic concepts based on the definition of entropy, mutual information. and the information entropy of image processing especially for image segmentation and image registration. finally realize the information entropy in image registration. keywords: information entropy, mutual information, image segmentation, image registration 河北工程大学毕业设计(论文) 3 目 录 摘 要1 abstract.2 目 录3 1 引言5 1.1 信息熵的概念 .5 1.2 信息熵的基本性质及证明 .6 1.2.1 单峰性.6 1.2.2 对称性.7 1.2.3 渐化性.7 1.2.4 展开性.7 1.2.5 确定性.8 2 基于熵的互信息理论 9 2.1 互信息的概述.9 2.2 互信息的定义.9 2.3 熵与互信息的关系.9 3 信息熵在图像分割中的应用11 3.1 图像分割的基本概念 11 3.1.1 图像分割的研究现状 .11 3.1.2 图像分割的方法.11 3.2 基于改进粒子群优化的模糊熵煤尘图像分割 12 3.2.1 基本粒子群算法.12 3.2.2 改进粒子群优化算法.13 3.2.3 morlet 变异 13 3.2.4 改建粒子群优化的图像分割方法14 3.2.5 实验结果及分析.16 3.3 一种新信息熵的定义及其在图像分割中的应用 .19 3.3.1 香农熵的概念及性质.19 3.3.2 一种信息熵的定义及证明.19 3.3.3 信息熵计算复杂性分析.21 3.3.4 二维信息熵阈值法.22 3.3.5 二维信息熵阈值法的复杂性分析.24 3.3.6 结论及分析25 4 信息熵在图像配准中的应用27 4.1 图像配准的基本概述 .27 4.2 基于互信息的图像配准 .27 4.3 powell 算法 28 河北工程大学毕业设计(论文) 4 4.4 变换 .28 4.4.1 平移变换 .29 4.4.2 旋转变换 .30 4.5 基于互信息的图像配准的设计与实现 .31 4.5.1 总体设计思路和图像配准实现 31 4.5.2 直方图 33 4.5.3 联合直方图 .33 4.5.4 灰度级差值技术 34 4.4.5 优化搜索办法级结论 .35 5 结 语37 致 谢38 参考文献39 河北工程大学毕业设计(论文) 5 1 引言 1.1. 信息熵的概念 1948年,美国科学家香农(ceshannon)发表了一篇著名的论文通信的数学理 论。他从研究通信系统传输的实质出发,对信息做了科学的定义,并进行了定性和 定量的描述。 他指出,信息是事物运动状态或存在方式的不确定性的描述。其通信系统的模型如 下所示: 信 源 编 码 信 道 信号 解 码 信 宿 干 扰 噪 声 图 1.1 信息的传播 信 息 的 基 本 作 用 就 是 消 除 人 们 对 事 物 的 不 确 定 性 。 信 息 熵 是 信 息 论 中 用 于 度 量 信 息 量 的 一 个 概 念 。 假 定 是 随 机 变 量 的 集 合 , 表 示 其 概 率 密 度 , 计 算 此x)(xp 随 机 变 量 的 信 息 熵 的 公 式 是 :)(xhxplog)()( 表 示 一 对 随 机 变 量 的 联 合 密 度 函 数 , 他 们 的 联 合 熵 可 以 表 示 为 :),(yxp ),(yxh,(l),(),( yxyyxyyx 信息熵描述的是信源的不确定性,是信源中所有目标的平均信息量。信息量是信息 论的中心概念,将熵作为一个随机事件的不确定性或信息量的量度,它奠定了现代信 息论的科学理论基础,如果一条信息是由 个字符连成的字符串组成,并且每个字符n 有 种可能,那么这条信息就有 种不同的排列情况,那么可以用 度量信息量,mnmnm 但这时的信息量随着消息的长度 按指数增加,为了使信息量的度量值按线性增加, hartley 给出了取对数的信息量的定义: (1.1)nh22logl 由上式可以看出,信息量随着消息的可能性组合 增多而增多,如果消息只有一 种可能性时即事件为必然事件时,那么消息中包含的信息量为零 。因此可以01log2 看出,可能收到的不同消息越多,对收到哪条消息的不确定性就越大;相反,收到只有 一种可能性的消息,不确定性为零,hartley 对消息的度量实际是对不确定性的度量。 hartley 度量方法的不足之处是他所定义信息量是假定所有符号发生的概率相同, 但实际情况各符号并不一定都等概发生,为此,shannon 用概率加权来衡量消息出现的 河北工程大学毕业设计(论文) 6 可能性,对 hartley 的度量方法做出改进。 设某一随机过程中有 k 种可能的情况,每种情况发生的概率分别是 , ,1p2 , shannon 给出了熵的如下定义:kp (1.2)iiii pph22log1log 当所有可能的事件均以相等的概率发生时,上式就成了 hartley 定 义的熵,并且这 时熵取得最大值,即 (1.3) nnnnn mmh222 logl1log1 所以,hartley 熵是,shannon 熵的特殊情形,而 shannon 更具有一般性。 shannon 熵包含三种含义:第一种含义是度量信息量,事件发生概率与获得的信息 量成反比,即概率越大,信息量越少,又由式(1.3)知,概率越大,信息量越少,熵越 小,所以可用熵的大小来度量信息量,熵越大,信息量越大;第二是度量事件概率分布 的分散度,概率集中分布时熵值小,分散性越强,熵越大;三含义是度量事件发生的 不确定性,概率越大,事件的不确定性越小,熵越小。利用上面第三个含义,可以用 shannon 熵,来度量图像包含的信息量,图像灰度值的概率分布是每灰度值出现的次数 除以图像中所有灰度值出现的总次数,此时图像的信息量可依据这个概率分布来计算, 一幅图像中不同的灰度值较少,各灰度值出现的概率较高,则对应的灰度值较低,意 味着这幅图像含有的信息量很少。反之,如果一幅图像中含有很多不同的灰度值,且 各灰度值发生的概率又基本一致,则它的熵值会很高,那么这幅图像包含的信息量很 大。 1.2 信息熵的基本性质及证明 1.2.1单峰性 信息熵的单峰性可表述为:先考察由 、 两个事件构成的概率系统,其产生1x2 的概率分别为 和 则该系统的信息p-1 ).1(log)(log(2pph 通过求极限 不难证明:0logim20xx (1) 当 时, 这是一种 产生的概率为0, .0)l)(l2h1x 产生的概率为1 的确定系统。2x (2) 当 时 这是一种 产生的概率为1,p.1log1log(22 产生的概率为0 的确定系统。2 (3) 对函数 可以通过求导数的方式寻找其极值).(l)(l(22pph 河北工程大学毕业设计(论文) 7 点。该函数的一阶导数为 令 则有 ,求得.)1(log2pdh0dhp)1(log20 为该函数的驻点。因为二阶导数 当 时, 恒21p ,ln)1(2 2dh 小于0 , 所以当 时函数有极大值。这说明当 、 两事件产生的概率相同时,21px2 具有最大值,这是一种不确定性最大的不确定系统。h (4) 若概率系统中有 个事件,当每一事件产生的概率相同(均为 )时,则系n n/1 统的信息熵 具有最大值。该结论可以通过以下的讨论来证明: 具有 个事件的概率系统其信息熵可表示为 ,这是在约束条件n niiph12log 下的极值问题。应用 因子法,设: nip1 ni niiph1120 ).(log 将 对 事件的概率 求一阶偏导数,并令 使用约束条件 确定0h1xip0ih nip1 值,可求得 (常数)。同理有 (常数),即当ni n21 时, 有极大值。p21 h 1.2.2 对称性 信息熵的对称性可表述为:设某一概率系统中n 个事件的概率分布为 ),(21np 当对事件位置的顺序进行任意置换后,得到新的概率分布为 ,并有以下关),(21np 系成立: ).,(),(2121 nnphp 它表示概率系统中事件的顺序虽不同,但概率系统的熵h 是不变的,即概率系统 的熵与事件的顺序无关。 1.2.3 渐化性 信息熵的渐化性可表述为:设概率为 的事件可分解为概率分别为 和)(rqpnq 的两个事件,则有:r ).,()(),(,121 121rqhrqphn n 河北工程大学毕业设计(论文) 8 1.2.4 展开性 信息熵的展开性可表述为:设某一概率系统的概率分布为 则系统的信),(21np 息熵具有展开性质: ).0,(),(2121 nnphp 在此基础上,进一步展开有: , ., 根据 上述展开性不难证明。0)log(lim20p 1.2.5 确定性 信息熵的确定性可表述为:设信息系统中,任一事件产生的概率为1,则其他事件 产生的概率为0。这是一种确定的系统,对于这样的系统有: ,0)1(),(h .0)1,()0,1,()0,( hh 根据 很容易证明上述性质。loglim21pp 河北工程大学毕业设计(论文) 9 2 基于熵的互信息理论 2.1 互信息的概述 互信息(mutual information)来自于信息论,是信息论中的一个基本概念,是两 个随机变量统计相关性的测度。当两幅图像达到最佳配准,它们对应像素的灰度互信 息应达到最大。该测度不需要对不同成像模式下图像灰度间的关系作任何假设,也不 需要对图像进行分割或任何预处理,具有自动化程度高的特点。因此,最近几年将互 信息作为图像配准过程的相似性测度,利用最大互信息法进行图像配准成为了图像处 理领域的研究热点。 互信息是基于概率统计论提出的,具有统计特性,它被多数研究者公认为是一个 很好的图像配准准则,许多图像配准算法的研究均是在互信息的基础上加以改进的。 互信息作为医学图像配准的一个相似性测度,多模态医学图像的配准很实用,其配准 原理是两幅基于共同人体解剖结构的图像在配准时具有最大的互信息值。 2.2 互信息定义 定义1:随机变量 和 之间的互信息 定义为:xy);(yxi|);(hi 或定义互信息 为:);(i )|( 可以证明二者是相等的,即 = 。因此, 和 是随机变量);(i);(i;i);(xyi 和 之间相互提供的信息。xy 另一种定义:也可以采用直接定义 与 之间的互信息为:xykkjj jkjkbpabpxi1 )(,log),();( = )(/),(log,| ypxeyxd 可直接导出 及)()(),(hyi .,min;0hi 2.3 熵与互信息的关系 (1) 独立: ,有)(|()|( yxxh, 0);(i (2) 确定: ,则 .0|,y;i 从而,互信息是随机变量之间相互依存度的度量信息。 互信息是信息论中的一个基本概念,通常用于描述两个系统间的相关性,或者是 河北工程大学毕业设计(论文) 10 一个系统中所包含的另一个系统信息的多少,是两个随机变量 和 之间统计相关性ab 的量度,或是一个变量包含另一个变量的信息量的量度。 它可以用熵 和 来描述以及联合熵 ,)(ah)(b),(h (2.1)|(|)(,),( babi 其中 和 分别是系统 和 的熵, 是 , 的联合熵, 表示, )|(abh 一直系统 时 的条件熵和一直系统 时 的条件熵。上述各种熵可分别表示为: (2.2)aaaap)(log)()(2 (2.3)bbbbh (2.4) aaap, 2),(l),(),( (2.5)bbba, |og| (2.6)aaab, |2)(l),()|( 其中, , 和 分别是系统 和系统 完全独立时的边缘概bbaa,pab 率密度, 是系统 和 的联合概率分布, 是已知系统 时 的条件)(pb )|(|apabba 概率分布, 是已知系统 时 的条件概率分布,如果联合概率分布密度| 满足 ,则随机变量 和 相互独立; 如果 和 满足某映),(ab )(,babaa 射关系 使 ,则随机变量 和 最大相关。t,()tptab 在通信系统中,信源 和 信宿是相互联系的,因此,收到 的条件下,对信源xyy 具有一定的了解,但仍然对 有不确定度,即条件熵 ,但总小于绝对熵x )(xh 。对信源 的了解程度(确定度)为 得到结论:差值度量了确)(h)( 定度。同样,在确值信源发送x的条件下,差值 度量了对 的了解程度。|y 河北工程大学毕业设计(论文) 11 3 信息熵在图像分割中的应用 3.1 图像分割的基本概念 图像分割是图像处理和分析的关键步骤,也是一种基本的计算机视觉技术。当今 信息熵主要应用在图像分割技术中。为了识别和分析目标,图像分割把图像分各具特 性的区域。这些特性可以是灰度、颜色、纹理等,目标可以对应单个区域,也可以对 应多个区域。基于熵的图像分割方法,尽可能减少了图像信息的损失,因此可用于复 杂背景,而且这种方法有很多。随着计算机技术和数学理论的不断发展,人工智能、 神经网络、遗传算法、模糊理论的不断完善,以及处理的图像越来越复杂,单一的方 法已不能满足人们的需求,因此,研究多方法的结合是这一领域的趋势。 3.1.1 图像分割的研究现状 图像分割是图像处理中的一项关键技术,也是一经典难题,自 20 世纪 70 年代起 一直受到人们的高度重视,至今已提出了上千种分割算法。但发展至今仍没有找出一 个通用的分割理论,现提出的分割算法大都是针对具体问题的,并没有一种适合所有 图像的通用分割算法。另外,也还没有制定出判断分割算法好坏和选择适用分割算法 的标准,这给图像分割技术的应用带来许多实际问题。 3.1.2 图像分割的方法 (1) 基于阈值的分割 这是一种最常用的区域分割技术,阈值是用于区分不同目标的灰度值。如果图像 只有目标和背景两大类,那么只需选取一个阈值称为单阈值分割。这种方法是将图像 中每个像素的灰度值和阈值比较,灰度值大于阈值的像素为一类,灰度值小于阈值的 像素为另一类。如果图像中有多个目标,就需要选取多个阈值将各个目标分开,这种 方法称为多阈值分割。为区分目标还需要对多个区域进行标记。阈值又可分为全局阈 值,局部阈值和动态阈值,阈值分割的结果依赖于阈值的选取,确定阈值是阈值分割 的关键,阈值分割实质上就是按照某个标准求出最佳阈值的过程。常用的全局阈值选 取方法有利用图像灰度直方图的峰谷法,最小误差法,最大类间方差法,最大熵自动 阈值法以及其他一些方法。 (2) 基于区域的分割 河北工程大学毕业设计(论文) 12 基于区域的分割技术有两种基本形式:区域生长和分裂合并。前者是从单像素出 发,逐渐合并以形成所需的分割结果。后者是从整个图像出发,逐渐分裂或合并以形 成所需要的分割结果。与阈值方法不同,这类方法不但考虑了像素的相似性,还考虑 了空间上的邻接性,因此可以有效地消除孤立噪声的干扰,具有很强的鲁棒性。而且, 无论是分裂还是合并,都能将分割深入达到像素级。 (3) 基于边缘的分割 基于边界的分割方法是利用不同区域间像素灰度不连续的特点检测出区域间的边 缘,从而实现图像分割。边界的像素灰度值变化往往比较剧烈。首先检测图像中的边 缘点,在按一定策略连接成轮廓,从而构成分割区域。边缘检测技术可以按照处理的 顺序分为串行边缘检测及并行边缘检测。在穿性边缘检测中,当前像素点是否属于欲 检测的边缘取决于先前像素的验证结果;而在并行边缘检测技术中,一个像素点是否 属于欲检测的边缘,取决于当前正在检测的像素点以及该像素点的一些相邻像素点, 这样该模型可以同时用于检测图像中的所有像素点。 3.2 基于改进粒子群优化的模糊熵煤尘图像分割 对煤尘图像进行有效的分割是煤尘浓度测量的重要研究内容之一,在煤尘图像分 析和识别中具有重要意义。阈值法是最常用的图像分割方法,其关键是阈值的选取, 用图像灰度模糊熵来确定分割阈值是一种有效的阈值确定方法。图像灰度模糊熵中模 糊参数的寻优实际上是一个优化问题。解决优化问题的方法通常有穷举法、遗传算法、 蚁群算法、粒子群算法等,其中kennedy 和eberhart 提出的粒子群优化算法(pso) 因其 优越性而成为研究的热点。普通粒子群优化算法存在易陷入局部最优以及过早收敛的 缺点, 使得该算法难以得到理想的优化效果。近年来出现了不少改进的pso 算法, 改进算法主要有对惯性因子的改进,以及引入遗传算法中的交叉、变异或进化思想对 部分粒子进行相应的操作。li等人提出的高斯变异粒子群(gmpso) 算法取得了不错的 分割效果,但该算法的分割精度还有待进一步提高。用一种综合morlet 变异和惯性因 子自适应的改进粒子群优化算法,让该算法和模糊熵结合应用于图像分割,利用改进 粒子群优化(ipso) 算法来搜索,使模糊熵最大时的参数值得到模糊参数的最优组合, 进而确定图像的分割阈值。实验结果表明,该算法取得了令人满意的分割结果,算法 运算时间较小,能满足对煤尘浓度实时精确测量的要求。 3.2.1 基本粒子群算法 粒子群优化(pso) 算法是一种进化计算技术,最早由 kenney 和eberhart 于1995 年提出的。源于对鸟群捕食行为研究的pso 算法同遗传算法类似,是一种基于迭代的 优化工具。在pso 算法中,每个个体称为粒子,所有的粒子都有一个由被优化的函数 河北工程大学毕业设计(论文) 13 决定的适应值,每个粒子还有一个速度决定他们飞翔的方向和距离,然后粒子就追随 当前的最优粒子在解空间搜索。假定粒子规模为 搜索空间为 维,则第 个粒子的nmi 位置表示为 ,第 个粒子的速度表示为 ,每个粒子),(21imiixx i ),(21iiivv 具有最好适应值的位置称为个体最好位置,记为 ,整个种群中的最,(21iii pp 好适应值位置称为全局最好位置,记为 。 在找到这两个最优值时,),(21gmgp 每个粒子根据如下公式来更新自己的速度和位置: (3.1),()()()1( 21 txtprandctxtrandctwvtv ijgjijijijij (3.2).vxijijij 其中: 表示第 个粒子; 表示粒子的第 维; 表示第 次迭代; 为加速常i jtt21,c 数,通常在 间取值; 为均匀分布在(0, 1) 上的随机数; 为惯性因子。20()rand 3.2.2 改进粒子群优化算法 普通粒子群优化算法存在易陷入局部最优以及过早收敛的缺点,使得该算法难以 得到理想的优化效果。近年来出现了不少改进的pso 算法,改进算法主要有对惯性因 子的改进,以及引入遗传算法中的交叉、变异或进化思想对部分粒子进行相应的操作。 本文针对惯性因子的改进提出了惯性因子自适应算法,同时引入了morlet 变异操作, 克服了普通粒子群优化算法存在易陷入局部最优以及过早收敛的缺点。惯性因子自适 应粒子群算法,当粒子群中大多数粒子在连续的迭代中未找到最优值前停止更新时, 就会出现过早收敛的现像。当惯性因子 较小或固定时也会出现这种现像,从式(3.1) 可以看出, 当 较小并且 和 很小时, 也很小,)(tvij )(txtpijij)(txtpijgj)1(tvij 即相应的粒子失去搜索能力。这种情况通常会出现在当粒子本身是全局最优时即 和 等于零时的迭代早期阶段,这样在以后的迭代中粒子就失)(txtpijij)(txtpijgj 去了多样性。为了解决该问题,一般将 设为: (3.3)./)(maxinmaxttax 其中: 表示总迭代次数, 和 分别表示最大和最小惯性因子。本文对上maxt min 述方法作了改进,根据粒子距离全局最优值之间的距离对 进行调节,即 (3.4)./(1max0dist 其中: 为当前粒子距离全局最优值之间的欧几里得距离,即idstran;)1,5.0(0 (4) 为 最大距离。这样对 进行调节能保证粒子在偏;2/1(njijgji xpdst maxi 河北工程大学毕业设计(论文) 14 离全局最优时,粒子和全局最优值之间的吸引力将保证粒子不会偏离最优值太远,从 而避免出现过早收敛的现像。 3.2.3 morlet 变异 为了克服过早收敛,还有一种方法就是引入遗传算法中的变异操作,即当用基本 pso 算法对粒子的位置和速度进行更新后,再对部分粒子进行变异操作,使得粒子种 群呈现多样性。 一般可用均匀变异或非均匀变异来进行变异操作,natsuki 引入了高斯 变异操作,有: (3.5).(1()(gausintxtmuijij 其中:为高斯变异后的位置; 为 的高斯分布,s ).1,0( natsuki 指出可以对粒子以一定概率进行高斯变异,也可以当粒子的位置停止更新 时进行高斯变异。本文中的morlet变异能对粒子起到微调的作用, 每个粒子变异的概率为 的大小根据粒子群的维数决定。morlet 变异mp,10 的方程式如下: (3.6).0),()( ;)( minaxttxtuijij jij 其中: 为变异后的 , 和 分别为 的最大最小值, 的计算)(txmij ijmaxi 公式如下: (3.7).(5cos12)( aae 其中: ,5.2a (3.8). )ln()1)(lnmaxgtgwe 这里: 为上式单调递增方程的形状参数, 为 的上限值, 为当前迭代次wm t 数, 为最大迭代次数。axt 3.2.4 改进粒子群优化的模糊熵图像分割算法 图像的最大模糊熵: 根据模糊理论, 图像可看成是一个模糊事件。根据模糊熵理论,若分割阈值nm 将原始图像的像素分成黑和亮两个模糊集,则这两个集合的隶属函数 和t )(,kbd 河北工程大学毕业设计(论文) 15 模糊熵分别为: (3.9) .0)()(1,)(2kcckbaakad, ;,)( ;,; (3.10) .1)()(,2kcckbab, ;,)( ;,; (3.11).)(ln)(250k dkdd pph (3.12).)(l)(250k bkbb 其中:参数 满足 这里 为ca, ,25ca )/(2/)(nmpcak; k 中元素的个数。模糊事件的总模糊熵: kd (3.13).)(bdhc, 由熵理论可知,为了实现目标与背景的最佳分割,模糊事件的模糊熵应为最大, 即得到 使总模糊熵 达到最大值时对应 ,并据此确定最优阈值kd)(cah, )(opttca, (3.14).2/topttoptbt 改进粒子群优化的模糊熵图像分割算法:根据最大模糊熵原理,基于最大模糊熵 的图像分割算法其本质是在图像的整个灰度空间上搜索一组参数 使图像的总模)(ca, 糊熵取最大值的优化问题。并且将改进粒子群优化(ipso) 算法用于搜索一组最优参数 ,提高了算法的分割性能。)(ca, 算法的基本步骤如下: step 1: 初始化。初始化粒子群的位置矩阵 和速度矩阵 ,设定粒子群规模xvn 河北工程大学毕业设计(论文) 16 和维数 (由于需寻优2 个参数, ),设定 d2d (3.15),)(minaxminrdxij (3.16),2 121nxx (3.17),)(2maaxrndvvij (3.18).2 121nvv 其中: 为均匀分布在(0, 1) 上的随机数; 为 的最大值; 和 分别为)(rand maxvmaxin 的最大、最小值,一般取 ,这里 和 分别为图像的x 1inmiaxma l, axlin 最大、最小灰度。 step 2: 选择式(3.13) 作为粒子群算法的适应度函数,计算粒子群中每个粒子的 适应值, 并根据适应值选择每个粒子的当前最好位置pi 和粒子群的全局最好位置 。gp step 3: 根据式(3.3) 计算权重因子, 再根据式(3.1) 和(3.2) 更新粒子的速度和 位置。 step 4: 根据式(3.6) 以一定概率对部分粒子进行morlet 变异。 step 5: 若达到最大迭代次数,则算法结束;否则,转 step 2。 step 6: 求出全局最优解 对应的参数组合 ,计算分割阈值 对图像进gp)(ca, optt 行分割。 3.2.5 实验结果及分析 利用本文算法对不同类型图像进行分割实验,并与其他算法的结果进行对比。实 验中粒子群算法相关参数选择如下:粒子群规模 ,维数 ,最大迭代次10n2d ,普通 pso 算法中的惯性因子 ,学习因子50maxt 4.9.minmax, .morlet变异参数为:随即抽取50% 的粒子进行变异操作, 即变异概率4962.121c 实验中采用的图像分别为lena,boat,共3幅真实煤尘图像,., gpwm 它们代 表几种 不同类 型的图 像。 河北工程大学毕业设计(论文) 17 (a) lena 图像 (b) boat 图像 (c) 煤尘图像 1 (d) 煤尘图像 2 (e) 煤尘图像 3 图 3.1 实验图像直方图 它们的灰度直方图,lena 图像呈多峰模式;boat 图像为明显的双峰; 3 幅煤尘图 像为单峰模式。利用本文(ipso) 算法和基本 pso 算法, (gmpso) 算法对 3 种不同 类型的图像进行了分割效果比较实验,实验效果如图 3.2 所示。图 3.2 中, 为原)(ai 始图像; 为基本 pso 算法的分割结果; 为(gmpso) 算法的分割结果; 为)(bi )(ci d 本文算法的分割结果, 由图 3.2 的分割结果可以看出,本文算法的分割效.521, i 果优于其他两种算法,特别是在对具有单峰特性的第 3 幅煤尘图像,本文算法的优势 非常明显。 河北工程大学毕业设计(论文) 18 (a1) (b1) (c1) (d1) (a2) (b2) (c2) (d2) (a3) (b3) (c3) (d3) (a4) (b4) (c4) (d4) 图 3.2 实验结果比较图 表 3.1 列出了不同算法的分割阈值、运算时间以及广泛使用的无差异测量。无差 异测量定义为 (3.19).)(212minax0lnycujrjjj 其中: 为阈值数量, 为 j 阶分割区域, 为像素 的灰度值, 为 j 阶分割区域cri 灰度平均值, 为图像总的像素点, 和 为图像的最大最小灰度值。nmaxn ,越接近于 1 说明分割效果越好。由表 1 可以看出,本文提出的 ipso 分u, 10 割算法在阈值和分割性能指标上具有明显的优势,同时运算时间也相应增加,但运算 时间最大也在 之内,完全能满足实时精确分割的要求,为煤尘浓度的实时精确s25 测量打下了坚实的基础。 表 3.1 本文算法与其他算法进行图像分割性能比较 图像 算法 阈值 时间/s um lena256psogmpso ipso 134.6105 130.8517 121.7496 0.075 0.078 0.194 0.9764 0.9773 0.9787 boat pso 160.0200 0.078 0.9577 河北工程大学毕业设计(论文) 19 512gmpso ipso 156.8155 144.6209 0.094 0.109 0.9647 0.9752 coal dust 1 psogmpso ipso 110.4098 108.3135 102.5000 0.098 0.125 0.235 0.9670 0.9782 0.9989 coal dust 25psogmpso ipso 117.8226 115.0620 111.9050 0.101 0.132 0.234 0.9680 0.9784 0.9989 coal dust 31psogmpso ipso 114.0127 111.0235 1106.0174 0.110. 0.125 0.242 0.9662 0.9783 0.9984 针对基本粒子群算法存在易陷入局部最优以及过早收敛的问题,提出了一种基于 改进粒子群优化的模糊熵图像分割算法,用惯性因子自适应粒子群来搜索使模糊熵最 大时的参数值,并对部分粒子进行 morlet 变异操作,得到模糊数的最优组合,进而确 定图像的分割阈值。实验结果充分地表明,该算法对不同类型的图像均能取得较好的 分割结果,且计算量较小,稍加改进即可在 dsp 等硬件上实现,因此能满足对煤尘浓 度实时测量的要求。 3.3 一种新信息熵定义及其在图像分割中的应用 3.3.1 香农熵的概念及性质 离散概率分布 ,其中 ,满足条件 ),(21npp),21(ni,21(0ipi 且 。香农在1948年提出了描述信息不确定性程度大小的量(简称为香农熵) ),n 1yip , 。它具有如下的典型性质: nyiihlog( (1) 对于任意离散概率分布 ,则有 p)log(0nph (2) 对于任意离散概率分布 ,则,1,(0 (3) 对于任意离散概率分布 ,则 )n )l( (4) 对于两个独立事件离散概率分 则满足 。q和 )qhp 3.3.2 一种信息熵的定义及证明 从香农熵的表达式来看,因其含有对数运算导致计算所需时间较大,不利于基于 香农熵的图像分割方法在实时场合的使用。为了定义没有对数运算的新息熵,这里首 先引入tsallis熵定义: 河北工程大学毕业设计(论文) 20 (3.20) 1,0)(1)( apaphnia 当式(3.20)中的 时,可以得到:a (3.21) niia1)l()(lim 这里对 tsallis 熵进行如下的修改: (3.22) 1,0)()1anpphiaa 修改后的 tsallis 熵具有如下的性质: (1) )log(l()(lim11niia (2) (3.23)iia npp0) 然而(3.21)中 有可能为零,需将(3.22)进一步修改为如下形式:),(nip (3.24)1,0)(1()( ahai nia 针对(3.24)式,它具有如下的性质: (1) niaiapp11 ,)()(lim (2) (3.25)iia0)l( 为了定义非对数型信息熵,这里引入下面的定理。 定理 1:若 是信息熵,那么 函数也是信息熵。)(ph)(expph 证明:因指数函数 是单调函数,且信息 是有界函数,那么复合函数)exp(n)( 也单调有界函数。对于离散概率分布 ,使得信息熵)(exp )0,1,0 得到最小值,同样也使得复合函数 取最小值。pe( 对于离散概率分布 ,使得信息熵 得到最大值,同样也使得np1, )(p 复合函数 取到最大值。总上所述,复合函数 满足信息熵最基本的)(exphexph 性质。因此,它是一种信息熵。证毕。 根据本文修改的 tsallis 熵公式(3.25) 和定理 1,我们可以构造如下新的信息熵为: niinp1)()( (3.26) 该新的信息熵中仅有加法和乘法运算,其计算量很显然比香农熵 tsallis 熵要少很 多。为了方便,将新信息熵表达式(3.26)简称为乘积型熵。它也具有如下典型性质: (1) 对于任意离散概率分布 ,则有 ;penphn)1()2 河北工程大学毕业设计(论文) 21 (2) 若任意离散概率分布 的乘积型熵 ,当且仅当 p2)(phn )0,1,0(p (3) 对于任意离散概率分布 的乘积型熵 ,当且仅当nn)np1, (4) 对于两个独立事件离散概率分布 则有qp和 )()()(qhpnn 这表明,新信息熵是非可加性信息熵。可加性信息熵仅有香农熵和 renyi 熵,其 它诸如 tsallis 熵、kapur 熵、taneja 熵等众多信息熵都属于非可加性信息熵范畴。 下面给出乘积型熵 性质的证明。其具体过程如下:)(hn 证明:(1) 因 又因)(phn ni niniijniijkniikjiji pppp1111 1)( 且 ,所以有:),2(,0ini1 成立。niijjp niijkniikji pp11 2 又因算术平均和几何平均之间满足不等关系式,若 那么 ),(,0ka ,因此, 成立。综上所 kninia11 niinpph1)()( nnniip1)1 述,不等式 是正确的。又利用极限表达式 ,就有nn1)(2 enn)(lm 成立。eph)( (2) 若任意离散概率分布 则其相应乘积型熵 是很显)0,1,0( 2phn 然的。这里主要是证明任意离散概率分布 的乘积型熵 ,则该概率分布为p2)(n 的成立。因 ,就有 成立。又因)0,1,0(2)(hnniip1 ,10ip 且 。 则由,2ni ip1 iijjinijkniikji11 可以得到 。又因 则 011 1iij niijkniikjij pp ),2(,0ipi 必有 且 ),2,(),2,( njiijnjipkji 、且 niikji1, 中必然有 个取值为 0。仅 1 个取值为 1 的结论。 1i1 (3) 若任意离散概率分布 ,则其相应乘积型熵 是np, nnph)() 河北工程大学毕业设计(论文) 22 很显然的。这里主要是证明任意离散概率分布 的乘积型熵 则该概pnnph)1() 率分布为 时成立。np1, 因 , ,可以得到:nh)() niinpph1)()( 成立,也即有 。定义目 ni ip1log(1log 01log)1log(2nii n 标函数 在约束条件 且 211log)l() niinppf ),(,0ipinip1 下取得最小值为零的必要条件是 其原因在于目标函数 是变),(nii(pf 量 在定义域 上的凸函数,以及目标函数 对变ip),2(n ,0 ) 量 的二阶偏导数构成的 hessian 矩阵是正的。因此,由1i 必然得到 成立。 ni i n1 1log)log( np1, 3.3.3 信息熵计算复杂性分析 在现有的微型计算机中,其cpu 的算术运算单元( alu) 有加法器和乘法器,需 将减法运算变成加法运算,以及除法运算变成乘法运算来执行。假设计算机每执行加 法或减法运算一次需要时间 秒,执行乘法或除法运算一次需要时间 秒,且 。1t 2t21t 下面给出两种的计算复杂性分析。 对离散概率分布 计算乘积型 所需时间 秒,其),(21npp)(1ph12)(nt 计算复杂性为 。香农熵 含对数运算,然而现有cpu 的算术运算单元中没有)(noh 对数运算部件, 需将对数运算转化成加法和乘法运算来执行。传统计算对数函数 是采用幂级数运算来逼近其值。函数 的幂级数展开式为)ln(x )l(x 012132 23 xixi, 在满足一定的计算误差 条件下,计算函数 的值常采用幂级数中前)0()ln( 项来逼近,且正整数 的选取与幂级数的截断误差有关。即1kk ti il xxk01212)n(miarg 假设采用幂级数中的前 项来计算函数 的值,其计算函数 所需时间k)ln( )ln(x 转化为计算多项式 的值所需时间。计算表达式 所需 ti ix0122 12ii 河北工程大学毕业设计(论文) 23 时间 秒,计算整个多项式 所需时间为21)(3titti ix0122 秒,即计算函数 的值所需时 秒。 ki021tk)ln(1(43)kt22(3)kt 因此,计算香农熵 所需时间 秒,)(ph2121(43)()()kttnt 其计算复杂性为 。因此,香农熵的计算复杂性比乘积熵的计算复杂性大得多。2(okn 3.3.4 二维信息熵阈值法 设 表示大小为 的数字灰度图像,图像灰度变化范围为 0 到(,)mnggxyn 。图中任意位置 处的像素灰度值记为 。1l, (,)gxy 在实际应用中,由于噪声等干扰因素的存在,灰度直方图不一定存在明显的波峰 和波谷,仅利用一维最大熵法确定阈值往往会造成错误分割,用最大二维香农对数型 熵阈值法,使分割效果得到很大改善。但是,二维直方图的引入,大大增加了计算所 需时间量。这就在很大程度上限制了该
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 装修公司物业费营销方案
- 施工现场环境管理实施方案及措施
- 2025年康复工程学院康复辅助器具的选用与配置及答案解析
- 2024-2025学年邮政行业职业技能鉴定试题【历年真题】附答案详解
- 2025隧道专项试题及答案
- 2024-2025学年度计算机二级题库及完整答案详解(全优)
- 2025公务员(省考)常考点试卷完整答案详解
- 2025美容化妆人员考前冲刺测试卷(夺冠)附答案详解
- 2024全国统考教师资格考试《教育教学知识与能力(小学)》高分题库含答案详解【突破训练】
- 药店相关技能鉴定自我提分评估附答案详解【B卷】
- 室外消防钢丝网骨架塑料复合PE管施工及方案
- 带秋字的古诗飞花令
- 体育原理完整版
- 超声引导下坐骨神经阻滞
- 【上课用】 高三数学一轮复习-错位相减法课件
- 医院医院质量与安全管理委员会章程
- 小学二年级上册语文全册课件
- 《放飞烦恼-拥抱快乐-》-心理健康p课件
- 隧道施工安全教育培训
- GB 20052-2020 电力变压器能效限定值及能效等级
- 道路运输企业风险辨识风险分级管控清单
评论
0/150
提交评论