[机械模具数控自动化专业毕业设计外文文献及翻译]【期刊】基于稀疏表示的多聚焦图像融合与恢复-中文翻译_第1页
[机械模具数控自动化专业毕业设计外文文献及翻译]【期刊】基于稀疏表示的多聚焦图像融合与恢复-中文翻译_第2页
[机械模具数控自动化专业毕业设计外文文献及翻译]【期刊】基于稀疏表示的多聚焦图像融合与恢复-中文翻译_第3页
[机械模具数控自动化专业毕业设计外文文献及翻译]【期刊】基于稀疏表示的多聚焦图像融合与恢复-中文翻译_第4页
[机械模具数控自动化专业毕业设计外文文献及翻译]【期刊】基于稀疏表示的多聚焦图像融合与恢复-中文翻译_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1 摘要 : 为了得到每个目标都很清晰的一幅图像,通常需要把同一场景 中 不同焦距的图像进行融合。多分辨率变换,如金字塔分解和小波等方法被通常用来解决这些问题。在这篇文章中,提出了一个基于稀疏表示的多聚焦图像融合方法。这种方法首先把源图像用过完备字典稀疏表示,稀疏系数 是 采取最大选择的融合策略,最后,用稀疏系数和过完备字典的 线性 组合得到融合之后的图像。而且在改变稀疏表示的近似准则之后,提出的融合策略也可以用于图像恢复和信息融合。本文提出的方法将和空间梯度法、形态学小波变换、离散小波变换、平稳小波变换、曲波变换和非采样轮廓波变换等方法 针对 多聚焦图像进行实验。实验结果表明, 无论 在主观上和客观上,我们提出的方法都优于其他方法。 关键词 : 图像融合,图像恢复,稀疏表示 一 、 介绍 当今,图像融合成为图像处理中非常重要的一个子领域,对于一个目标或一个场景,通过一个或多个传感器我们可以获得多幅图像,包含着一些可以互补的一些信息,图像融合就是检测图像中的显著特征然后把这些详细信息融合在一幅人工合成图中的一个过程。通过图像融合,合成图像中的图像信息 得到了 扩展和增强。图像融合应用领域非常广泛,例如数字图像、医学图像、遥感图像以及机器视觉。 有一个和本文图像融合相关的例子, 由 于受到景深的限制,光学照相机往往不能使同一幅图像中的所有目标都聚焦清晰,因此,如果同一个场景中的某一个目标聚焦时,不同距离的其他目标就会散焦,因此就变的模糊不清。使一幅图像中的所有目标都很清晰的的方法就是多聚焦图像融合技术。在这种技术中,基于同一场景中的不同目标分别聚焦得到几幅图像 , 用这些图像进行融合然后得到每个目标都很清晰的理想结果图像。 有多种的方法可以进行图像融合,基本上,这些方法可以被分为两类,一种是基于空域的方法,这种方法是直接把源图像融合成强度值,另一中方法是变换域方法,它是把把源图像按特定的频率或时频变换进行融合。 假设 表示融合算子,空域上的融合方法)(F可以总结为: (1) ).,(21KFII最简单的空域融合方法仅仅是对源图像中的每个像素进行平均,然而,这种方法往往会有不可预料的副作用,例如降低对比度, 如果原图像没有完全配准,那么基于单像素的方法,如空间梯度方法,往往会导致融合图像有缺陷。因此,一些融合图像的一些其他合理的方法被提出来了,这些是基于分块的或分割区域的非单像素的方法,然而基于块融合的方法往往会受到块度的影响,基于区域的融基于稀疏表示的多聚焦图像融合与恢复 Bin Yang and Shutao Li,Member,IEEE 2 合方法,首先对源图像进行分割得到区域,然后根据它们的属性 (如空间频率或空间梯度 )进行融合,分割也往往是复杂的,也很 耗时 ,这对于融合质量来说也是至关重要的。 近年来,人们发现了一种关于多尺度变换的非常受欢迎的方法,它们使用的多尺度变换通常包括各种塔形分解、离散余弦变换、复数小波变换、脊波变换 、 曲波变换等。基于变换域的方法可以被总结为: (2) )(,)(,(211 KF ITITI 代表多尺度变换, 是所用的融合算子。 )F塔形分解是最早用于图像融合的多尺度变换,在这种方法中,每个源图像首先被分解为一些不同分辨率的图像序列,在塔形分解中拥有最大特征值的每一个位置的变换图像被选中,然后用这些合成图像的逆变换得到融合图像。基于小波变换的方法是用和塔形方法同样的方案,然而,多分辨率变换方法受到位移不变的限制,它是由欠降采样引起的,离散小波变换的位移不变延伸可以产生过完备信号表示,这是非常适合图像融合的,进一步,这几年,许多先进的几何多尺度变换方法得到的进一步探索,像曲波变换,脊波变换和轮廓波变换,并且得到了很好的效果,然而,因为用变换域方法得到融合图像,在变换域下的融合图像的单个系数会全局的发生一些小的变化,这些将导致空间域中的每个像素发生变化。因此,在某些情况下,基于多分辨率变换的方法将会在图像融合过程中产生意想不到的缺陷。 显然,完整有效的提取原始图像的基本信息会使融合图像更加精确。与多尺度变换方法不同的是,稀疏表示方法是构建一个包含信号原型的一个过完备字典,然后用这些字典原子的线性组合来表述信号,稀疏表示两个主要属性是过完备性和稀疏性,过完备的意思是字典的原子数据目要大于图像的像素数目或信号的维数,为了使信号更稳定和更有意义表示,过完备字典里包含有丰富的变换基,稀疏就是与信号对应的系数 是 稀疏的,也就是说,只有一部分数据可以描述与目标相关的信息,得益于它的稀疏性和过完备性,稀疏表示理论成功的应用到了许多领域,包括压缩,去噪,特征提取分类等,最近研究表明,普通图像特征可以用少量的系数来表示,这些少量的系数对应图像的显著特征,我们设计一个基于稀疏表示的图像融合方案。一般而言,稀疏表示是全局的运算,他是基于灰度图像的这个内容,然而,融合图像的质量依赖于源图像局部显著特征的精确表示,因此,我们采用滑动窗口技术,通过获得局部显著特征和保持位移不变性来获得理想的效果。 在建议的方法中,第一步,把源图像分成许多小块,这样就会得到每个图像过完备字典,这样的字典维数比较小,第二步,基于标准的信号原子对图像块进行分解成相对应的系 数,稀疏系数越大,包含的显著特征就越多,第三步,根据“选择最大”的融合规则,把对应的源图像组合起来得到融合图像,最后,用最大的稀疏系数对应的图像块则和组合成融合图3 像。在稀疏表示中,过完备字典通常是由实现定义的函数获得的,如离散余弦变换,快速傅里叶变换,小波,曲波变换和轮廓波。复杂一些的字典可以通过训练样本得到。 既然大多数的融合图像都是假设源图像是没有噪声,因此,在假设合理的情况下,这些融合算法都能得到高质量的融合图像,然而,实际上,图像在转换和获得的过程中往往会受到噪声的污染,对于基于多尺度变换的方法,通常先对源图像进行降噪处理,首先,把所有小于零的系数限制在一定的阈值之下,并保持其他的系数不变,然后,滤波之后的图像就是融合图像,我们所建议的方法的优势在于可以对源噪声图像同时进行降噪和融合。 本文的剩余部分可以分为 5个部分,第二部分介绍基本的稀疏表示理论,第三部分,基于稀疏表示理论给出融合方案,并讨论怎样同时进行图像恢复和融合,在第四部分给出了数值实验,第五部分给出了建议方案的优势与不足,也对后续工作做出了建议。 二 、 信号稀疏表示的基础理论 稀疏表示是基于假设自然信号可以由字典原子的线性组合或近似表示。对于信号,稀疏表示理论假设存在一个字典nR,包含 T个原始信号的相关原子,对D于任何一个信号 都存在一个字典的线性x组合来对其进行近似。更正式的讲,存在使得 ,向量 包含 在,TRsxDsxD里边的系数,经常假设 暗指字典 是 冗,nT余的,解通常不是唯一的,针对下面的优化公式,求解拥有最小非零数的 。 sx-subject omin0s(3) 在这里 表示 中的非零数目。 0上述优化问题是一个难题,且只能系统地测试潜在的列的线性组合来解决,因此,可以考虑一个近似的解来代替,最简单的一个算法是匹配追踪 (MP)算法,和正交匹配追踪 (OMP),它们是贪婪算法通过连续的选择字典的列,这个方法涉及到信号和字典原子的内积。 匹配追踪算法的目标是学习得到 ,Dsx表示内积,初始化残差为 , (4) ,xr然后循环信号原子,在 D中找到一个符合下式的原子,该原子的索引为 , *lt(5) tltl drt,maxg*得到一个和字典原子和数相同维数的一个稀疏向量, (6) *,)(*ltldrts更新残差 : *)(1ltll dsr(7) 直至达到 (8) 21*2)(litil idsxr或者达到先验的一个数值。 因为匹配追踪算法的收敛速度很慢,在本文中我们用的是正交匹配追踪算法,正交匹配追踪算法这样更新残差的: (9) xdPxrlttspanl *21,14 P表示子空间上的正交映射,为了有效地计算映射,正交匹配追踪算法在计算原子的过程中并行地对其选择的原子进行施密特正交化处理,理想情况下,迭代次数和 中的非零个数是一s致的。其他著名的追踪算法包括基追踪 (BP)算法,迭代聚焦算法 (FOCUSS),在公式 (3)中, BP算法用 范数替代 范数,然而, FOCUSS算法1l0l用 范数代替 范数。 p三、 图像融合方法 A .用于图像融合的稀疏表示方法 既然稀疏表示方法可以全局的处理一幅图像,我们就不能直接把他用于图像融合,。因为图像融合依赖于源图像的局部信息,在我们的方法中,我们把图像分成许多小块,然后结合小字典来解决这个问题,滑动窗口技术使得系数表示方法具有唯一不变性,这对图像融合时非常重要的。 我们假设图像 I被分解成许多图像小块,如图1所示,为了促进分析,大小为 的第 个nj小块被写成 这种向量 形式来进行排序。则jv可以表示成 jvtTtjjds)(1(10) 是给定过完备字典中的一个原子,t,包含有 T个原子,TldD1是从 (3)中得到的稀jjjj ss)()(疏表示。 假设图像的中所有小块组成矩阵 V,那么矩阵 V可以写成 (11) J是图像块的个数,使得 则JsS,21公式 (11)可以写成 V=DS (12) S是一个稀疏矩阵。 B 建议的融合框架 假设有 K个注册的源图像,大小为 NM, ,则假设的融合框架是基于稀疏I,1表示的,如图 2所示,按以下的融合步骤进行。 5 用滑动窗口方法把源图像 从左上角到kI右下角分成许多小块,块大小为 ,和字n典原子的维数是一致的,把所有的图像块向量化并进行排序,则所有的向量组成一个矩阵,每一列代表图像 中的一个小块, 大kVkIkV小为 对于矩阵).1()() nMn中的第 列向量 ,用 OMP方法求的它的kjikv稀疏表示,当迭代满足误差表示条件时将停止迭代,则可以得到一个 的稀疏向量 ,对jkjks于 , 的活动水平可以表示为 kIjs1jjA(13) 融合源图像稀疏矩阵 对应的列KkS ,1,来得到对应的活动级 , 的第 j列可以由以下FS公式得到 )(maxrgk,*j* jjjj kkFAs(14) 融合图像 中的向量表示可以这样计算 VFDS(15) 最后融合图像 由 重构得到,把 中的列FIFV重整成 大小的矩阵然后放在融合图像jFvn的对应的位置,这可以看做是图 1所示过程I的一个反变换,因此,每个像素位置,是几个块像素值的叠加,最后这个位置的像素值要除以叠加的次数。 C 修复和融合 在实际中,用于融合的源图像往往在获得和传送的过程中受到噪声的污染,在传统的方法中,图像修复和融合时分开进行的,没有人试图把两个过程结合起来,建议方法的一个优点是把图像融合和图像修复通过稀疏并表示的优势同时进行,假设一个原图像受到标准差为的高斯噪声的污染,对图像 I中的第 j个块jv,用最大后验估计量进行求解, CDssjjjj 2j0vubect omin(16) C是一个常数,每个块的系数表示向量组成稀疏表示矩阵 S。 对于源图像 对应的重叠块向量矩阵,1KI为 ,它们的稀疏表示V21, 可以通过公式 (16)得到,恢复后的S,图像矩阵可以由得到,恢KSDD21, 复后和融合后的向量表示 可以由FV重构得到,设 为融合算子,则 ,21KV )(17) )(21FSS融合图像的向量表示可以由以下公式得到 (18) D最后,从修复图像得到的融合图像可以由 重FV构。 四 、 实验 建议的方法将会和已有的特别的所聚焦融合算法相比较, (例如, SG方法 10和形态学小波变换方法 8)和常规的多聚焦图像融合方法(DWT1,5,6,平稳小波变换方法(SWT)7,24和 CVT29,非采样轮廓变换方法(NSCT),27,28). A 实验设置 在多分辨率图像融合中有三个关键的问题: 1)活动度测量; 2),系数组合; 3),一致性校验6 。在我们的试验中我们选的是大家常用的设置。 1)活动度测量:在每个系数对应的位置选取系数绝对值最大的。 2)系数组合,在每个像素对应的位置选取绝对值最大的系数 (取大原则 )。3)一致性校验:用一个小的主成分滤波器 (基于窗口的校验 ),窗口大小为 3*35,对于所有的四个多分辨率方法,源图像被分解为四个级别,DWT和 SWT的基是“ db1”,对于 NSCT, 2,8,8和 16方向的用于高频率范围,对于多分辨率的去噪,我们用 K-sigma阈值求解 27,阈值为 KTH(19) 对于每个部分的系数, K是常数, 是噪声的标准偏差。 对于建议的方法,用了 DCT字典的过完备版本,用离散余弦波在不同频率的应用,由于其具有快速应用和良好的性能。在以下的实验中我们选取的滑动窗口的步长为 1个像素 .所有的实验将会在 MATLAB6.5版本的环境下实验,计算机的配置为,奔腾处理器, 1.7HZ主频,512M内存。为了进行主观评价,选取了两个评价准则 1)均方差 (RMSE)1和 2) 来度量不F/ABQ同的融合结果, RMSE越小,融合结果越小,应该尽可能的接近 1. F/ABQB 清晰图像的融合结果 在实验一中,有四对有噪声的图像,如图 3所示,用于测试建议的方法,图 3(a)是近聚焦的,时钟是聚焦的,是清晰的,然而聚焦以外的那个学生确实模糊的,图 3(b)是远聚焦的,时钟和学生的状态反了过来,图 3中的其他图像,也有相似的状态,都是图像的左边是近目标,而右边是远目标。 对于建议的方法,得注意两个参数, 1)图像块的大小和 2)公式 (3)中的全局误差 ,首先,我们固定全局误差 为 0.1,以及图像块的大小,然后,为了探索全局误差的影响,图像块的大小为 8*8,对于均方差,在图 3中,清晰的区域用矩形框标记出来了,不同块大小和不同全局误差对 RMSE和 的影响显示在图F/ABQ4(a)-(d),从图 4(a)-(d)我们可以显然的总结出来,建议的方法得性能会随着图像块的增大和全局误差的减小而变好。然而,在这种情况下,也增加了运行时间,如图 4(e)和 (f)所示,但是我们相信,随着计算机硬件的高速发展,这不是一个问题,另外,我们可以从图 4(b)和 (d)看出,当全局误差小于 2时,融合结果一直会很好。 7 图 3 多聚焦融合图像 在全局误差为 5和 10时,图 3(a)和 (b)的融合结果如图 5所示,当全局误差为 5时,融合结果如图 5(a)所示,丢失了一些细节信息,如时钟的秒针和桌子的细节信息,然而,大部分重要的细节信息保留了下来,尽管全局误差为 10,结果仍然是 图 4 本文方法在不同的块大小和全局误差下的效果 可以接受的,建议的方法也没有导致融合图像人为的失真,从分析中,把公式 (3)中的阈值 设为 0.1和块的大小设为 8*8是合理的。 我们也调查了滑动窗口的步长对融合结果的影响,当没有重叠时用大距离窗口,得到的融合结果有很明显的缺陷,因为大距离窗口不具有位移不变性,步长从 1变到 8从滑动窗口到大距离窗口,附加的实验很好的展示了建议的方法在最小步长的情况下的效果最好。 8 图 5 本文方法在不同的全局误差下的融合结果, (a)和 (b)分别是全局误差为 5和 10的情况下的融合结果 现在,在以上设置的情况下的融合结果将和 SG, MWT, DWT, SWT, CVT和 NSCT作比较,考虑到篇幅限制,图 6中只显示了建议方法的融合结果,事实上,图 3(a)和 (b)中学生的图有轻微的运动,为了更容易观察,在图 7中我们用不同的方法放大了学生的头部区域,用 SG, MWT,和 DWT方法的融合结果有严重的重构缺陷, CVT方法的融合图像有模糊圈影响,是由于降低采样率的原因,尽管 SWT和NSCT的融合方法比 DWT和 CVT的效果要好,但是对比度在一定的程度上下降了,建议的方法展示了一个具有良好的视觉效果的融合结果图像。 在表 I中给出了这其中方法的关于源图像和融合图像的 RMSE和 结果,黑体字表F/ABQ示了在这几种方法中具有最高的融合质量,从表 I中我们可以看到,在 RMSE和 参F/AB数结果上,建议的方法明显优于其他六种方法,我们的方法仅仅是在图 3的 (g)和 (h)实验中,没有 NSCT方法好。 图 6 :不同算法的融合结果 图 7:不同方法头部区域放大的融合效果 C 加噪图像的融合结果 本文方法的恢复和融合结果将和基于 CVT和 NSCT的方法的结果进行比较,这两种方法都是在图像去噪应用方面非常有用的,对于基于 CVT和和 NSCT的方法,在应用比较成功的情况下 ,公式 (19)中的 K设置为 4是最佳参数,在其他情况下设置为 3也是为了得到一个良好9 的效果 27。图 3中的多聚焦源图像被零均值,标准差为 15的高斯加性噪声污染,公式 (16)中的常数 C设置为 1.1534,我们首先测试图像块的尺寸对于本文方法的影响,图 8中的结果显示,图像块的尺寸设置为 8*8最为合适。 表 一:不同方法的客观评价指数 图 8:本文方法在不同块尺寸对噪声图像的处理效果 图 9:修复和融合结果, (a)和 (b)是两幅噪声图像, (c)-(e)是用 CVT, NSCT和 SR方法的修复和融合结果, 图 3(a)和 (b)的加噪后的图像,用 CVT和NSCT和本文方法的修复和融合结果如图 9所示,基于 CVT方法的融合结果保留细节部分,如桌子上的纹理,这些细节在图 9的 (d)和 (e)中没有显示出来,但是多了一些人造的边缘,图 9(d)比 (c)的视觉效果要好,但是比 (e)多了一些人工的修复,因此,用本文方法得到的融合图像比其他两种方法的效果要好,清晰图像以及修复融合之后的图像的 RMSE和 列在表 II中,F/ABQRMSE和 的值说明本文方法比基于 CVT的F/ABQ方法和基于 NSCT的方法要好的多。 然后,对于以上三种不同的方法,用加不同量噪声的图像进行测试,对于图 3(a)和 (b)分别加标准差为 5, 10, 15, 20的噪声。对应的参数估 10 表二:不同算法的修复和融合结果 计结果列在表 III中,从图 (3)中可以看出,随着标准差的变大,三种方法的融合修复图像的效果越来越差。然而,在少量噪声的情况下,本文所建议的方法明显要比 CVT和 NSCT的效果要好。 表三:不同噪声图像的修复和融合结果 图 10 20幅真实图像 D 人工图像的融合结果 为了进一步说明本文方法的有效性,图(10)中列出了 20幅标准图像,这些都是实况图像,对于每一幅图像,用高斯模糊仿真产生两幅散焦图像,这两幅图像就作为要处理的源图像,原始图像将作为参考图像。用 SG, MWT, DWT, SWT, CVT, 和 NSCT等方法作为比较对象 .在试验中,公式 (3)中的全局误差 设为 0.1,块的尺寸设置为8*8。另外,图 (10)中的模糊图像添加了标准差为 15的高斯噪声,然后,给出了 CVT, NSCT和本文方法的修复融合结果,表 IV中给出了不同方法的 RMSE值和 值,报告结果是 20幅图F/ABQ像的平均标准偏差,对于清晰的图像,在表 IV中我们可以看出,基于 SR的方法在 RMSE和值上要好的多,而且, NSCT方法和 SWTF/ABQ方法仅次 。 表四:不同方法对仿真图像的平均客观评价 于本文方法,基于 SG的方法,也具有较好的效果, DWT, CVT,和 MWT的效果比较差,对于噪声图像的恢复和融合,我们也可以从表 IV中看出,要明显的优于 CVT和 NSCT方法。 五总结 在本文中,我们给出了基于稀疏表示理论的多聚焦图像融合方法,本文的贡献可以总结为两个方面。首先,我们用系数表示理论来解11 决图像融合问题,也实现了在融合的同时进行图像恢复。第二,用滑动窗口技术解决位移变化问题,这会增加计算复杂度,但随着计算机硬件的快速发展,这将不是一个难题。融合结果和 SG, MWT, DWT, SWT,和 CVT和NSCT等方法进行比较,实验结果表明了本文方法的可行性和有效性。在本文中,只用了DCT字典,也有其他的一些方法,例如用基于学习的方法,来得到字典,在以后的研究中,我们将会调查不同的字典对融合结果的影响。 致谢 在这里,作者非常感谢仔细阅读这篇文章的无名读者,也欢迎提出宝贵的意见和建设性的建议。 参考文献 1 Z. Zhang and R. S. Blum, “A categorization of multiscale-decompositionbased image fusion schemes with a performance study for a digital camera application,” Proc. IEEE, vol. 87, no. 8, pp. 13151326, Aug. 1999. 2 Z. Liu, D. S. Forsyth, M.-S. Safizadeh, andA. Fahr, “Adata-fusion scheme for quantitative image analysis by using locally weighted regression and DempsterShafer theory,” IEEE Trans. Instrum. Meas., vol. 57, no. 11, pp. 25542560, Nov. 2008. 3 A. A. Goshtasby and S. Nikolov, “Image fusion: Advances in the state of the art,” Inf. Fusion, vol. 8, no. 2, pp. 114118, Apr. 2007. 4 V. S. Petrovic and C. S. Xydeas,“Gradient-based multiresolution image fusion,” IEEE Trans. Image Process., vol. 13, no. 2, pp. 228237,Feb. 2004. 5 G. Pajares and J. Cruz, “A wavelet-based image fusion tutorial,” Pattern Recognit., vol. 37, no. 9, pp. 18551872, Sep. 2004. 6 G. Piella, “A general framework for multiresolution image fusion: From pixels to regions,” Inf. Fusion, vol. 4, no. 4, pp. 259280, Dec. 2003. 7 S. T. Li, J. T. Kwok, I. W. Tsang, and Y. N. Wang, “Fusing images with different focuses using support vector machines,” IEEE Trans. Neural Netw., vol. 15, no. 6, pp. 15551561, Nov. 2004. 8 I. De and B. Chanda, “A simple and efficient algorithm for multifocus image fusion using morphological wavelets,” Signal Process., vol. 86, no. 5, pp. 924936, May 2006. 9 A. Kubota, K. Aizawa, and T. Chen, “Reconstructing dense light field from array of multifocus images for novel view synthesis,” IEEE Trans. Image Process., vol. 16, no. 1, pp. 269279, Jan. 2008. 10 H. A. Eltoukhy and S. Kavusi, “A computationally efficient algorithm for multi-focus image reconstruction,” in Proc. SPIE Electron. Imaging, 2003, vol. 5017, pp. 332341. 11 S. T. Li, J. T. Kwok, and Y. N.Wang, “Combination of images with diverse focuses using the spatial frequency,” Inf. Fusion, vol. 2, no. 3, pp. 169 176, Sep. 2001. 12 P. L. Lin and P. Y. Huang, “Fusion methods based on dynamicsegmented morphological wavelet or cut and paste for multifocus images,” Signal Process., vol. 88, no. 6, pp. 15111527, Jun. 2008. 13 S. T. Li and B. Yang, “Multifocus image fusion using region segmentation and spatial frequency,” Image Vis. Comput., vol. 26, no. 7, pp. 971979, Jul. 2008. 14 P. T. Burt and E. H. Andelson, “The Laplacian pyramid as a compact image code,” IEEE Trans. Commun., vol. COM-31, no. 4, pp. 532540, Apr. 1983. 15 Z. Liu, K. Tsukada, K. Hanasaki, Y. K. Ho, and Y. P. Dai, “Image fusion by using steerable pyramid,” Pattern Recognit. Lett., vol. 22, no. 9, pp. 929 939, Jul. 2001. 16 A. Toet, “Image fusion by a ratio of low-pass pyramid,” Pattern Recognit. Lett., vol. 9, no. 4, pp. 245253, 1989. 17 A. Toet, “A morphological pyramidal image decomposition,” Pattern Recognit. Lett., vol. 9, no. 3, pp. 255261, May 1989. 18 H. Li, B. Manjunath, and S. Mitra, “Multisensor image fusion using the wavelet transform,” Graph. Models Image Process., vol. 57, no. 3, pp. 235245, May 1995. 19 P. Hill, N. Canagarajah, and D. Bull, “Image fusion using complex wavelets,” in Proc. 13th Brit. 12 Mach. Vision Conf., Cardiff, U.K., 2002, pp. 487496. 20 B. Forster, D. van de Ville, J. Berent, D. Sage, and M. Unser, “Complex wavelets for extended depth-of-field: A new method for the fusion of multichannel microscopy images,” Microsc. Res. Tech., vol. 65, no. 1/2, pp. 3342, 2004. 21 T. Chen, J. P. Zhang, and Y. Zhang, “Remote sensing image fusion based on ridgelet transform,” in Proc. IEEE Int. Conf. Geosci. Remote Sens. Symp., Seoul, Korea, 2005, vol. 2, pp. 11501153. 22 F. Nencini, A. Garzelli, S. Baronti, and L. Alparone, “Remote sensing image fusion using the curvelet transform,” Inf. Fusion, vol. 8, no. 2, pp. 143156, Apr. 2007. 23 H. H. Song, S. Y. Yu, L. Song, and X. K. Yang, “Fusion of multispectral and panchromatic satellite images based on contourlet transform and local average gradient,” Opt. Eng., vol. 46, no. 2, pp. 020502-1020502-3, Feb. 2007. 24 O. Rockinger, “Image sequence fusion using a shift-invariant wavelet transform,” in Proc. Int. Conf. Image Process., Washington, DC, 1997, vol. 3, pp. 288291. 25 S. T. Li, J. T. Kwok, and Y. N. Wang, “Discrete wavelet frame transform method to merge Landsat TM and SPOT panchromatic images,” Inf. Fusion, vol. 3, no. l, pp. 1723, Mar. 2002. 26 M. Beaulieu, S. Foucher, and L. Gagnon, “Multi-spectral image resolution refinement using stationary wavelet transform,” in Proc. IEEE Int. Geosci. Remote Sens. Symp., Vancouver, BC, Canada, 1989, vol. 6, pp. 4032 4034. 27 L. D. Cunha and J. P. Zhou, “The nonsubsampled contourlet transform: Theory, design, and applications,” IEEE Trans. Image Process., vol. 15, no. 10, pp. 30893101, Oct. 2006. 28 B. Yang, S. T. Li, and F. M. Sun, “Image fusion using nonsubsampled contourlet transform,” in Proc. IEEE 4th Int. Conf. Image Graph., Chengdu, China, 2007, pp. 719724. 29 L. Tessens, A. Ledda, A. Pizurica, and W. Philips, “Extending the depth of field in microscopy through curvelet-based frequency-adaptive image fusion,” in Proc. IEEE Int. Conf. Acoust., Speech Signal Process., 2007, pp. 18611864. 30 B. A. Olshausen and D. J. Field, “Emergence of simple-cell receptive field properties by learning a sparse coding for natural images,” Nature, vol. 381, no. 6583, pp. 607609, Jun. 1996. 31 G. Davis, S. Mallat, and M. Avellaneda, “Adaptive greedy approximations,” Constr. Approx., vol. 13, no. 1, pp. 5798, Mar. 1997. 32 M. Aharon, M. Elad, and A. Bruckstein, “K-SVD: An algorithm for designing overcomplete dictionaries for sparse representation,” IEEE Trans. Signal Process., vol. 54, no. 11, pp. 43114322, Nov. 2006. 33 I. F. Gorodnitsky and B. D. Rao, “Sparse signal reconstruction from limited data using FOCUSS: A re-weighted norm minimization algorithm,” IEEE Trans. Signal Process., vol. 45, no. 3, pp. 600616, Mar. 1997. 34 M. Elad and M. Aharon, “Image denoising via sparse and redundant representations over learned dictionaries,” IEEE Trans. Image Process., vol. 15, no. 2, pp. 37363745, Dec. 2006. 35 S. Chen, D. Donoho, and M. Saunders, “Atomic decomposition by basis pursuit,” SIAM Rev., vol. 43, no. 1, pp. 129159, 2001. 36 N. Mitianoudis and T. Stathaki, “Joint fusion and blind restoration for multiple image scenarios with missing data,” Comput. J., vol. 50, no. 6, p

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论