第八章图像压缩_第1页
第八章图像压缩_第2页
第八章图像压缩_第3页
第八章图像压缩_第4页
第八章图像压缩_第5页
已阅读5页,还剩104页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

.,第八章图像压缩,.,8.1基础知识8.2图像压缩模型8.3信息论要素8.4无误差压缩8.5有损压缩8.6图像压缩标准,.,为什么要进行图像压缩?,一幅640480的真彩色图像,24b/像素的灰度图像占据64048024=7.37Mb(兆比特),约占0.9MB(字节)的磁盘空间;一个1GB容量的硬盘只能存储1000多幅,而若以每秒25帧的速度显示,其传输速率要求达到184Mb(兆比特/秒)由此可以看出一幅图像的数据在存储过程中将占据大量的存储容量,在传输过程中所用传输信道也较宽。这样一来,对图像信息的存储、处理、及传输的应用发展造成了很大的限制,因此,图像数据的压缩是非常必要的。,.,8.1基础知识,数据与信息之间的关系:数据是信息传送的手段;相同数量的信息可以用不同数量的数据表示;数据压缩指减少表示给定信息量所需的数据量;图像压缩所解决的问题是尽量减少表示数字图像时所需的数据量;,相对数据冗余:,压缩率:,在数字图像压缩中,可以确定三种基本的数据冗余:编码冗余、像素间冗余和心理视觉冗余.数据中存在信息冗余,就有可能对图像数据量进行压缩,针对数据冗余的类型不同,可以有多种不同的数据压缩方法.,.,假设用0,1内的一个随机变量表示图像的灰度,则每个灰度级出现的概率为,8.1.1编码冗余,图像灰度可用不同的编码表示,若为表示为所用的比特数,那么表示每个像素所需的平均比特数为:,这样,对一幅大小为MN的灰度图像进行编码所需的比特数为。,.,变长编码的说明,灰度图像最简单的编码方式:M比特自然二进制编码,冗余水平,.,图8.1用变长编码的数据压缩基本原理的图表表示,.,例析1:,如果用8位表示下面图像的像素,我们就说该图像存在着编码冗余,因为该图像的像素只有两个灰度,用一位即可表示。,.,图8.2两幅图像和它们的灰度级直方图以及沿着某条线计算的归一化自相关系数,8.1.2像素间冗余,直方图,自相关系数,自相关系数:,其中,.,像素之间的相关性表明一种重要的数据冗于形式像素冗余。因为任何给定像素的值可以根据与这些像素相邻的像素进行适当的预测,所以由单个像素携带的信息相对较少.单一像素对于一幅图像的多数视觉共享是多余的;它的值可以通过相邻像素进行推测.,行程编码是一种熵编码,其编码原理相当简单,即将具有相同值的连续串用其串长和一个代表值来代替,该连续串就称为行程,串长称为行程长度。例如,有一字符串“aabbbcddddd”,则经行程长度编码后,该字符串可以只用“2a3b1c5d”来表示;行程编码比较适合于二值图像的编码。,行程编码,.,行程编码的简单说明,(a)原图(b)标记了线100的二值图像(c)线状剖面和二值化门限(d)行程编码,1024343个像素,每个像素用1个比特表示,12166个行程,每个行程用11比特表示,.,例析2:,由于任何给定的像素值,原理上都可以通过它的邻居预测到,单个像素携带的信息相对是小的。对于一个图像,很多单个像素对视觉的贡献是冗余的。这是建立在对邻居值预测的基础上。如:原图像数据:25025325125225040bit压缩后数据:250312014bit,.,8.1.3心理视觉冗余,由于人眼对所有视觉信息感受的灵敏度的不同,因此,在正常的视觉处理过程中,各种信息的相对重要程度不同。那些不重要的信息称为心理视觉冗余.消除视觉冗余会导致一定量的信息丢失,这一过程常称为”量化”,.,IGS量化过程,例8.3通过量化进行压缩,(a)256个灰度级的原图像(b)均匀量化为16个灰度级(c)用IGS量化为16个灰度级,出现假轮廓,.,视觉心理冗余:一些信息在一般视觉处理中比其它信息的相对重要程度要小,这种信息就被称为视觉心理冗余。,33K,15K,例析:,.,8.1.4保真度准则,保真度准则是一种评价丢失信息的性质和范围的定量方法,主要包括两类(1)客观保真度准则(2)主观保真度准则,当信息损失的程度可以表示成初始图像或输入图像以及先被压缩而后被解压缩的输出图像的函数时,就说这个函数是基于客观保真度准则的.假设表示输入图像,表示由对输入先压缩得到的估计量,则和之间的误差可定义为:,总体误差,.,主观保真度准则:,均方根误差,均方信噪比误差,.,8.2图像压缩模型,图8.5一个常用的图像压缩系统模型,信源编码:完成原数据的压缩信道编码:为了抗干扰,增加一些容错、校验位实际上是增加冗余通道:如Internet、广播、通讯、可移动介质,.,8.2.1信源编码器和信源解码器,转换器:减少像素冗余,如使用RLE编码,或进行图像变换量化器:减少视觉心理冗余,仅用于有损压缩符号编码器:减少编码冗余,如使用哈夫曼编码,.,信道带有噪声或易于出现错误,信道编码器和解码器通过向信源编码数据中插入预制的冗余数据来减少信道噪声的影响。最有用的信道编码技术是由R.W.Hamming于1950提出来的,其基本思想就是在被编码数据中加入足够的位数,以确保可用的码字间变化的位数最小。(具体方法参见教材,本节内容不作要求),8.2.2信道编码器和信道解码器,.,图像压缩模型中的信源是数字图像,经过取样、量化过程的数字图像信源是离散信源。离散信源可以表示为由N个符号组成的符号集,各个符号出现的概率为,且有,8.3信息论要素,在信息论中,若从信源中相继发出的各个符号是相对独立的,则把这一类信源称为“无记忆信源”;如果信源相继发出的各个符号并不是相互独立的,而往往具有统计相关性,这种信源称为“有记忆信源”,图像和视频就是属于有记忆信源。,信源的定义:信源指能够产生信息的事物。在数学上信源是一概率场,若信源X可能产生的信息是,这些信息出现的概率分别是,那么信源可以表示为,.,信息量的概念,根据信息论,信源发出某一符号的信息量可以用这一符号的不确定性来描述。如果一个符号的出现可以比较准确的预测,那么这个符号就只有很小的信息量,一个符号的出现很难预测,则这个符号就具有较大的信息量。若一个信源记为X,其中某个信源符号为xk,如果它出现的概率是pk,则xk的信息量为,如果概率pk用2为底的对数表示,则信息量的单位是比特。信息量概念直观地理解:一个符号出现的不确定性越大,它的信息量就越大,.,例析:,要辨识1到32中选定的某一个数,可先提问:“是否大于16?”,得到回答就消去半数可能事件。每提问一次得到回答,可以得到1bit信息量(二进制位)。这里共需5次,因此所需的信息量为。,.,熵的概念,如果求一个离散、无记忆信源所发出的符号集中各符号的信息量的统计平均值,则有,H(x)就称为信源的熵,其单位是比特/符号。它可以理解为发出一个符号所携带的平均信息量。,如果是一个有记忆的信源,并且信源发出的一个符号的概率和此前相继发出的J各符号相关,则信源的熵定义如下,是联合概率,是条件概率,.,离散、无记忆信源的无失真编码定理设单符号、离散、无记忆信源的熵为H(X),若用二元码对其作变字长、非延续编码,一定可以找到一种编码方式,其平均码长lavg满足H(X)lavgH(X)+1由此可以看出,信源的熵是作无失真二元变长字编码时平均码长的下限,这中变字长的统计编码又称为熵编码离散、有记忆信源的无失真编码定理设单符号、离散、有记忆信源的熵为H(z/v),若用二元码对其作变字长、非延续编码,一定可以找到一种编码方式,其平均码长lavg满足H(z/v)lavgH(z/v)+1,编码定理,.,编码应用中,熵表示信源中消息的平均信息量,在不考虑消息间的相关性时,是无失真代码平均长度比特数的下限。,说明该信源编码平均码长最短情况下为7/4,不能再小,否则就会引起错误,而平均码长比此数大许多时,就表明还有待改进。,例如,.,设信源X表示为,信源熵,则,各信源符号的信息量:,编码方法:a,b,c,d用码字00,01,10,11来编码,每个符号用2个比特.平均码长也是2比特.,几个熵编码的实例:,每一符号的概率为,.,信源熵,则,各信源符号的信息量:,设信源X表示为,每一符号的概率为,a,b,c,d用码字00,01,10,11来编码,a,b,c,d分别用码字0,10,110,111来编码,.,几个重要的结论:信源的平均码长lavg=H(X);也就是说熵是无失真编码的下界.如果所有I(xk)都是整数,且l(xk)=I(xk),可以使平均码长等于熵.对非等概率分布的信源,采用不等长编码其平均码长小于等长编码的平均码长.如果信源中各符号的出现概率相等,信源熵值达到最大,.,编码的分类,根据对象的不同,可以分为静止图像编码、活动图像编码、传真文件编码;黑白图像编码、彩色图像编码;二值图像编码、多值图像编码等等;根据压所过程有无信息损失,可分为有损编码和无损编码,或者称为不可逆编码和可逆编码;根据编码算法中是否采用自适应技术,可分为自适应编码和非自适应编码;最常见的方法是按照算法的原理进行分类,如预测编码,变换编码,统计编码等等。,.,8.4.1变长编码,8.4无误差压缩,霍夫曼编码步骤如下:(1)将信源符号按其出现概率递减顺序排列;(2)将最小的概率的两个信源符号进行组合相加,得到一辅助符号,计算其出现的概率;(3)将前面得到的辅助符号与其余符号一起重新依出现概率递减顺序排列,再将最小概率的两个符号组成一个新的辅助符号,计算其出现概率;(4)重复第(3)步,直到出现只有两个信源符号为止;(5)从最小信源开始,依次对简化后信源中概率最小的两个符号用0和1(或者1和0)进行编码,一直到原始的信源;(6)按照从右到左的方式写出每个信源符号所对应的1、0序列,即可得到非等长的Huffman码.,.,霍夫曼编码实例,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S2=00,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S3=011,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S4=0100,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S5=01010,例析,.,Huffman编码,输入S1S2S3S4S5S6,输入概率0.40.30.10.10.060.04,第一步0.40.30.10.10.1,第二步0.40.30.20.1,第三步0.40.30.3,第四步0.60.4,01,01,01,01,01,S6=01011,例析,.,Huffman树结构,例析,下面是一首英文歌曲:BecauseImbad,IambadcomeonBad,badreally,reallybadYouknowImbad,ImbadBad,badreally,reallybadYouknowImbad,Imbadcomeon,youknowBad,bad-really,reallybad,.,Huffman树结构,例析,.,Huffman树结构,例析,S6,S5,S3,S2,S1,B0.43(Bad),1,0,(1.00),S4,01,00,I0.17(Im),R0.17(Really),Y0.11(Youknow),C0.06(Comeon),B0.03(Because),I0.03(It),000,001,011,010,0000,0001,00000,00001,(0.57),(0.23),(0.12),(0.06),(0.34),.,Huffman树结构,例析,平均码长R=0.03x5+0.17x3+0.43x1+0.06x4+0.03x5+0.17x3+0.11x3=2.32熵H=-(0.03xlog0.03+0.17xlog0.17+0.43xlong0.43+0.06xlog0.06+0.03xlog0.03+0.17xlog0.17+0.11xlog0.11)=2.29编码前:xlog27=98.3编码后:位,压缩比约,.,霍夫曼编码实例,.,Huffman编码的特点是:(1)Huffman编码构造程序是明确的,但编出的码不是唯一的,其原因之一是两个概率分配码字“0”和“1”是任意选择的(大概率为“0”,小概率为“1”,或者反之)。第二原因是在排序过程中两个概率相等,谁前谁后也是随机的。这样编出的码字就不是唯一的。(2)Huffman编码结果,码字不等长,平均码字最短,效率最高,但码字长短不一,实时硬件实现很复杂(特别是译码),而且在抗误码能力方面也比较差。(3)Huffman编码的信源概率是2的负幂时,效率达100%,但是对等概率分布的信源,产生定长码,效率最低,因此编码效率与信源符号概率分布相关,故Huffman编码依赖于信源统计特性,编码前必须有信源这方面的先验知识,这往往限制了哈夫曼编码的应用。(4)Huffman编码只能用近似的整数位来表示单个符号,而不是理想的小数,这也是Huffman编码无法达到最理想的压缩效果的原因。,.,算术编码不是向霍夫曼编码那样用一个特定的代码表示一个信源符号,而是用个浮点数值表示一个信源符号。算术编码将编码的信源符号表示成实数半开区间0,1)中的一个数值区间,这个区间随着信息流中每一信源符号的加入逐步减小,每次减小的程度取决于当前加入信源符号的先验概率,在该区间内选择一个代表性的小数,转化为二进制作为实际的编码输出。信源中的每个元素都要缩短为一个区间。信源中元素越多,所得到的区间就越小,当区间变小时,就需要更多的数位来表示这个区间。采用算术编码每个符号的平均编码长度可以为小数。算术编码的过程将产生一个大于或等于0,并且小于1的一个数值,这个数值唯一地被解码,可以精确地恢复原始的信源符号流。,算术编码,.,算术编码实例,low=low+range*range_lowrange和low为上一个被编码符号的范围和低端值;high=low+range*range_highrang_low和range_high为被编码符号已给定的出现概率范围的低端值和高端值.,符号编码范围的确定准则,.,可以用0.10144表示“a1a2a3a4a2”的惟一编码,.,算术编码的解码过程,(1)通过查看哪一个信源符号拥有已编码信息所落入的数值范围,找到消息中的第一个信源符号。例如前面编码实例中的0.10144在0,0.2)之间,所以第一个符号为“a1”(2)从编码数值中消除第一个符号的影响,即首先减去“a1”的下限值,然后除以“a1”对应的范围宽度,即(0.10144-0)/0.2=0.50720(3)查表找到该结果中落入哪一个符号对应的数值范围,得到第二个符号;(4)重复(2)(3)将第二个符号影响消除,再找到第三个符号。方法重复直到解出整个符号流。需要注意的是,一个符号流的末尾应有一个结束符作结束标记,它随信源符号一起编码。,.,算术编码的特点:,1.实际的计算机精度有限,会产生溢出问题;2.对整个消息只产生一个编码,因此译码器必须接受到这个实数后才能译码;3.对错误很敏感;,.,8.4.2LZW编码,LZW编码是一种降低像素间冗余度的无误差压缩编码方法。这种编码对相继出现的、由单个信源符号所构成的、长度可变的符号序列,用固定长度的码字进行编码,且不需要了解有关被编码符号的出现先验知识。LZW编码的基本思想是,建立一个包含所有待编码信源符号的码书或“字典”,将输入的信源符号映射成定长的码字输出。实际上输出的是字典中的位置。,.,LZW编码算法的具体过程:(1)将字典初始化为包含所有可能的单个信源符号,并将当前识别序列P初始化为空;(2)当前信源符号C的内容为当前识别序列中的下一个信源符号;(3)判断P+C是否在字典中(1)如果“是”,则开始识别下一个信源符号C,令P=PC;(2)如果“否”,则输出当前识别序列P的位置到码字流;将PC添加到字典中;令当前识别序列P=C;(4)判断输入字符流中是否还有码字要编码(1)如果“是”,就返回到步骤2;(2)如果“否”把当前识别序列P的位置输出到码字流;结束。,.,PC,.,LZW编码的特点:,1.编码过程中的字典是在数据编码的过程中产生的,解码的时候同样能建立一个相同的解码书;2.由于字典的大小有限,因此,通常情况下需要一个处理字典溢出的策略;简单的解决办法是当字典内的位置将被占满时重新初始化,然后用重新初始化的字典继续编码,.,位平面编码的基本思想就是将一幅多级图像分解为一系列二值图像,然后采用二值图像编码的方式对每幅二值图像进行编码。位平面分解:,8.4.3位平面编码,.,m比特的格雷码(graycode),m比特的灰度图像的格雷码表示如下,其中,表示异或运算这种编码方式的唯一特性是连续码字只在一比特位置上不同,因灰度级小的变化不太可能影响所有m个位平面,.,数值自然码格雷码000000000100010001200100011300110010401000110501010111601100101701110100810001100910011101101010111111101111101211001010131101101114111010011511111000,自然码,格雷码,.,行程编码,二值图像通常采用行程编码进行无损压缩;行程编码(RunLengthEncoding)是一种利用空间冗余度压缩图像的方法,对某些相同灰度级成片连续出现的图像,行程编码也是一种高效的编码方法。行程编码是一种熵编码,其编码原理相当简单,即将具有相同值的连续串用其串长和一个代表值来代替,该连续串就称为行程,串长称为行程长度。,.,每一行图像都由k段长度为lk、灰度值为gk的片段组成,那么该行图像就可以由一系列的偶对(gk,lk)来表示。每个偶对就是一个灰度级行程。,Graylevel,Pixel,.,行程编码分为定长和不定长编码两种。定长编码是指编码的行程长度所用的二进制位数固定,而变长行程编码是指对不同范围的行程长度使用不同位数的二进制位数进行编码。使用变长行程编码需要增加标志位来表明所使用的二进制位数。行程编码比较适合于二值图像的编码,一般用于量化后出现大量零系数连续的场合,用行程来表示连零码。如果图像是由很多块颜色或灰度相同的大面积区域组成的,那么采用行程编码可以达到很高的压缩比。如果图像中的数据非常分散,则行程编码不但不能压缩数据,反而会增加图像文件的大小。为了达到较好的压缩效果,一般不单独采用行程编码,而是和其他编码方法结合使用。,.,8.4.4无损预测编码,无损预测编码又称信息保持型预测编码,因为在编码过程中不引入量化,因此是一种不产生量化误差的预测编码系统;预测编码的基本思想是建立在图像中相邻像素间高度相关的事实基础上;预测编码的技术特点是不直接传送像素值,而对实际像素值与其预测值之间的差值进行编码和传送,这种差值就是预测误差;,.,无损预测编码系统框图,编码器,解码器,.,预测误差定义式,预测误差由符号编码器编码采用变长编码的方式,生成压缩数据流的一个元素.,预测编码系统的解码过程是通过解码器解码后得到的en序列与解码端的预测值相加,从而得到序列fn,由于预测误差是由当前像素前已经穿出的若干相邻像素为参考像素估计出来的,因此,预测误差可以认为是当前像素所携带的新信息,在传送信息流时,后续时刻传送的只是新信息,从而可以实现数据压缩。,.,是预测系数,round为四舍五入函数,预测编码中的最基本预测方法是采用几个像素值的线性加权和的形式,,m称为预测器的阶。如果预测系数ai是固定不变的常数,则称为线性预测。线性预测法通常称为差值脉冲编码调制法(DifferentialPulseCodeModulation),简称DPCM。,.,对于图像数据压缩而言,常见的几种线性预测方案如下:(1)前值预测,即(2)一维预测,即用同当前行的前面几个像素值进行预测。(3)二维预测,即不但用当前行的前面几个像素值,还要用前几行中的像素值一起来预测,也叫帧内预测。(4)三维预测,除了用当前行和前面几行的像素外,还要考虑先前帧的像素来进行预测,也叫帧间预测;(预测编码实例如教材365366页),.,8.5有损压缩,为了获得更高的图像压缩比,充分利用人的主观视觉特性,引入量化,在不引起图像可察觉失真,即在不引起图像主观质量明显下降的情况下,实现更进一步的数据压缩,由于量化必然产生量化噪声,丢失一部分信息,客观失真不可避免,这就是有损编码。无失真编码的压缩比在13倍左右。而有失真编码可以取得更高的压缩比。有损编码是以在图像重构的准确度上做出让步而换取压缩能力增加的概念为基础的。如果产生的失真是可以容忍的,则压缩能力上的增加就是有效的。有损压缩主要包括:有损预测编码,变换编码,.,在无损预测编码模型上添加一个数字量化器,并分析在重构准确度和压缩性能之间得到的折中,就构成有损预测编码系统。量化器的作用是将预测误差映射成有限范围内的输出,表示为:,量化器决定了有损预测编码的相关的压缩比和失真量。,8.5.1有损预测编码,.,有损预测编码模型,.,8.16德尔塔调制其预测器和量化器定义如下:,.,设输入序列为14,15,14,15,13,15,15,14,20,26,27,28,27,27,29,37,47,62,75,77,78,79,80,81,82,83.用德尔塔调制编码。,.,最佳预测器,在预测编码过程中,一个线性预测器的性能好坏,直接影响到数据率的大小。最佳线性预测器就是选择合适的系数使得编码器中误差信号的均方误差最小,即取得最小。,.,最佳预测器的设计,就是要通过计算信号的均方误差的最小值,从而确定预测系数aian。因此,可以通过对各预测系数求导,令导数为零来计算各预测系数的值,则有,假设,则有,.,其中,由此也可以看出,对任意图像的最优线性预测的系数a仅仅依赖于原始图像中像素的自相关性;预测模型的复杂程度取决于线性预测中所使用的以前样本数目,样本数目越多,预测器也越复杂;对于样本点的选取,一般来说,刚开始时,随着样本点个数m的增加,会减少,但可以证明,当m足够大时,再增加样本点数,也不会减少。,.,最优量化,在有损预测编码过程中,量化的过程会导致图像的失真,因此在量化比特数确定的情况下,可以根据不同的优化准则和输入概率密度函数选择最佳的量化方法,或者说在保证量化误差满足应用要求,在视觉不可觉察的情况下,尽可能减少量化比特数;本书只考虑比特数确定的情况下,根据量化均方误差最小原则设计最优量化器。,.,量化的均方误差表示如下,要使量化的均方误差最小则分别对si和ti求导,并令导数为零则可以求出si和ti的值。,如果,则有,.,从上面可以看出ti是si和si+1的形心。,.,2.变换编码,典型的变换编码系统中编码器有四步:(1)子图像分割(2)变换(3)量化(4)编码,子图像分割,正变换,量化器,反变换,符号解码器,符号编码器,合并子图像,输入图像,压缩图像,压缩图像,解压缩图像,.,在变换编码中值得注意的两点:(1)先将整幅图像分成的子图像后分别处理,主要是小块图像的变换计算容易,距离较远的像素之间的相关性比距离较近的像素之间的相关性小;(2)压缩并不是在变换步骤中取得,而是在量化变换系数和编码时取得的。,.,(1)变换选择,在变换编码中变换方式的选择取决于可允许的重建误差和可用的计算资源;假设一幅NN图像,其正向离散变换为T(u,v),则图像的正变化和反变换过程可以表示如下,正变换,反变换,分别称为正向和逆向变换核函数,.,几种典型的核函数,傅立叶变换,.,二维离散余弦变换(DCT),由于二维离散余弦变换的可分离性,二维DCT可以用一维DCT来实现,.,Wash-Hadamard变换(WHT),一维离散哈达玛变换,一维离散哈达玛反变换,.,二维离散哈达玛变换,二维离散哈达玛反变换,.,在变换编码中,子图像的大小将影响变换编码误差和计算的复杂程度。根据实践证明子图像尺寸取44、88、1616适合作图像的压缩,这是因为:(1)如果子图像尺寸取得太小,虽然计算速度快,实现简单,但压缩能力有一定的限制。(2)如果子图像尺寸取得太大,虽然去相关效果变好,因为象DFT、DCT等正弦型变换均具有渐近最佳性,但也渐趋饱和。若尺寸太大,由于图像本身的相关性很小,反而使其压缩效果不显示,而且增加了计算的复杂性。,(2)子图像尺寸选择,.,这里考虑对子图像经过变换后,要截取的变换系数的数量和保留系数的精度。在大多数变换编码中,选择保留的系数办法有以下二种:根据最大方差进行选择的,称为区域编码。根据最大值的量级选择,称为阈值编码。而整个对变换后的子图像的截取、量化和编码过程称为比特分配,(3)比特分配,.,典型的区域模板,区域编码,具有最大方差的变换系数携带着图像大部分信息并在编码处理的过程中应该保留下来。,最大方差的系数通常被定位在图像变换的原点周围。,区域取样处理可看成每个T(u,v)与相应的区域模板中的元素相乘。,(a),(b),.,典型的阈值模板和系数排序序列,阈值编码(门限编码),对任何子图像,最大量级的变换系数对重构子图像的品质具有最大的影响.因为不同子图像的最大系数的位置是变化的,所以通常将m(u,v)T(u,v)的元素重新排列成一个一维行程编码.,.,有3种基本途径对一幅变换后的子图像进行门限处理(即生成子图像门限模板函数),对所有的子图像使用单一的全局门限;对不同图像的压缩等级不同.对每幅图像使用不同的门限;对每幅子图像丢弃相同数目的系数,编码率恒定.门限随子图像中每个系数的位置函数的变化而变化.编码率变化,但是可以将门限处理和量化过程结合起来.,.,是取阈值和量化近似,Z是变换的归一化矩阵,使用下式代替m(u,v)T(u,v),将取阈值和量化结合起来,.,(a)一条门限编码量化曲线,对Z(u,v)赋予某个常数c,(b)JPEG编码标准中的DCT量化步长矩阵Z,.,使用88DCT系数的12.5%,门限编码,区域编码,利用DCT标准化阵列的压缩,34:1,67:1,8:1,误差,.,8.6图像压缩标准,图像编码技术的发展和广泛应用促进了许多有关国际标准的制定。这方面的工作主要是由国际标准组织(ISO)和国际电信联盟(ITU)进行的。到目前为止,由上述2个组织制定的有关图象编码的国际标准已覆盖了从二值到了灰度(彩色)值的静止和运动图象。根据各标准所处理图象的类型不同,我们可将它们分成

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论