(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf_第1页
(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf_第2页
(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf_第3页
(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf_第4页
(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf_第5页
已阅读5页,还剩116页未读 继续免费阅读

(计算机应用技术专业论文)基于纹理合成的图像视频编码方法研究.pdf.pdf 免费下载

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

己t r 、 。 本 究成果。尽我所知,除了文中特别加以标注和致谢的地方外,论文中不包含其他 人已经发表或撰写过的研究成果,也不包含为获得北京工业大学或其它教育机构 的学位或证书而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均 已在论文中作了明确的说明并表示了谢意。 签名:塾必望垂日期:幽垒:笸: 里 关于论文使用授权的说明 本人完全了解北京工业大学有关保留、使用学位论文的规定,即:学校有权 保留送交论文的复印件,允许论文被查阅和借阅;学校可以公布论文的全部或部 分内容,可以采用影印、缩印或其他复制手段保存论文。 ( 保密的论文在解密后应遵守此规定) 1 签名:蝉导师签名:稗 摘要 摘要 高效的图像视频压缩编码是以数字化存储和传输为核心的多媒体应用中亟 待解决的基础科学问题之一。图像视频压缩方法大体上可分为目前广泛采用的 基于信号入一q 缱码方法和基于视觉的编码方法两类。前者主要利用数字信号处 理技术,通过k飞和熵编码去除图像中的时空冗余和统计冗余。后者利用 人类视觉研究成果 。除视觉冗余。纹理区域内容的相似性导致了纹理区域 、 存在大量的视觉冗余,趴合成技术为基于视觉的编码方法提供了一种新的 途径。为此,本课题以研究湫 视频编码的纹理合成技术为核心,结合基 于信号处理的图像视频编码的优趴虼于低分辨率和低频信息辅助纹理合 成技术的图像视频信号码方法,该编k地保留了原始图像重要的视觉 特征,大幅度地降低了码率。主要 1 提出以低分辨率数据为辅助信, 句括如下3 个方面: 法。现有纹理合成方 法不能直接用于图像的压缩,需要借助指导信息辅助纹 。程。基于指导信 息辅助纹理合成的编码方法本质就是降质图像的恢复问题, 嚆本、指导 信息等编码信息的选择,纹理合成算法,以及二者的匹配是影响 三个 关键因素。为此,本课题以上述三个关键因素为核心,针对图像的低 具有包含了图像的主要视觉特征、便于编码等特点,建立了低分辨率辅助 制;从逆纹理合成思想出发,提出了基于纹理合成算法指导的纹理样本的选择, 法,有效地解决了编码信息选择与纹理合成算法的匹配问题:结合低分辨率辅助、 指导机制和纹理区域的选择准则,建立了以低分辨数据为辅助指导信息的纹理合 成算法,实现了该纹理合成方法与现有的编码框架的融合,有效地提高图像的编 码效率。 2 针对随机性视频纹理,提出了g r a p h c u t 与d c 补偿相结合的纹理合成编码方 法。随机性纹理具有视觉冗余较高而统计冗余较低的特点,采用现有的基于信号 的编码方法无法实现帧内和帧问的高精度预测,从而导致了编码效率的低下。该 方法充分利用g r a p h c u t 方法合成纹理边界融合质量高的特点,合理地平衡纹理 合成质量和纹理合成指导信息的选择,以尽可能少的指导信息,实现对随机性视 频纹理的高效率压缩,从而最大限度地挖掘纹理合成的自身潜力。在此基础上, 北京工业大学工学博十学位论文 结合人类视觉系统对随机纹理的低频信息具有较高的敏感性,编码端采用现有基 于信号处理的编码方法对随机性纹理块的d c 分量进行编码,以用于在解码端补 偿纹理合成区域的低频成分,从而进一步地提升重建图像质量。 3 针对基于纹理合成的视频编码,提出了动态的纹理合成区域选择方法。在将 基于纹理合成方法集成到现有视频编码框架中时,由于两种编码方法使用不同的 评价标准,因此纹理合成区域与非纹理合成区域之间的频繁交替会造成主观质量 的下降。我们通过为每一帧动态分配纹理合成区域面积的方法,实现了纹理合成 区域在相邻帧间的平滑过渡,最大限度地减小了由于纹理合成区域分配引起的主 观质量降低。 关键词图像编码;视频编码;纹理合成;纹理合成区域选择 a b s t r a c t a b s t r a c t t h ee f n c i e n ti m a g ea n dv i d e oc o d i n gi saf u n d a m e n t a lp r o b l e mi nm u k i m e d i a a p p l i c a t i o nw h i c hi sb a s e do nd i g i t a ls t o r a g ea n dt r a n s m i s s i o n i m a g ea n dv i d e o c o m p r e s s i o nc a n b ed i v i d e di n t ot w om a i nc l a s s e s ,t h a ti s ,c u r r e n t l yw i d e l ya p p l i e d s i g n a lp r o c e s s i n gb a s e dc o d i n ga n dv i s i o nb a s e dc o d i n g 1 1 1 ef o r m e re m p l o y sd i g i t a l s i g n a lp r o c e s s i n gt e c h n o l o g yt or e d u c et h es p a t i a l ,t e m p o r a la n ds t a t i s t i c a lc o r r e l a t i o n b yu s i n gp r e d i c t i o n , t r a n s f o r m a t i o na n de n t r o p ye n c o d i n gm e t h o d s ,w h i l et h el a t e r i n c o r p o r a t e st h er e s e a r c h i n gr e s u l t so fh u m a nv i s u a ls y s t e mi n t ot h ei m a g e v i d e o c o d i n gs t r a t e g yi no r d e rt or e d u c et h ev i s u a lr e d u n d a n c y 1 1 1 et e x t u r er e g i o n sc o n t a i n l o t so fv i s u a lr e d u n d a n c yd u et oi t ss e l f - s i m i l a r i t y h e n c e ,t h et e x t u r es y n t h e s i si sa p r o m i s i n gt e c h n o l o g yi nt h ev i s i o nb a s e di m a g ea n d v i d e oc o d i n g t i l i st h e s i sf o c u s e s o nt h et e x t u r es y n t h e s i sf o ri m a g ea n dv i d e oc o d i n g ,i n c o r p o r a t et h es i g n a lp r o c e s s i n g b a s e di m a g ea n dv i d e oc o d i n gt e c h n o l o g y , a n dp r e s e n t sa ni m a g ea n dv i d e oc o d i n g m e t h o dw h i c hi sb a s e do nl o wr e s o l u t i o nd o m a i na n dl o wf r e q u e n c yi n f o r m a t i o n g u i d e dt e x t u r es y n t h e s i ss t r a t e g y a n dt h em e t h o dc a ne f f e c t i v e l yp r e s e r v et h e i m p o r t a n tv i s u a li n f o r m a t i o na n dg r e a t l yr e d u c et h eb i tr a t e n l em a i nc o n t r i b u t i o n s a r e 1 an o v e l l o wr e s o l u t i o nd o m a i na i d e dt e x t u r es y n t h e s i sm e t h o df o ri m a g ec o d i n g t h eb l i n dt e x t u r es y n t h e s i sc a n tb ed i r e c t l yu s e di ni m a g ec o d i n g w h i c hu s u a l l y n e e d st h eh e l po fs i d ei n f o r m a t i o n s u b s t a n t i a l l y , t h ec o r eo fs i d ei n f o r m a t i o n a i d e dt e x t u r es y n t h e s i sb a s e di m a g ec o d i n gi st h er e c o v e r yp r o c e d u r eo fd e g r a d e d i m a g e h e n c e ,t h es e l e c t i o no ft e x t u r es a m p l e ra n ds i d ei n f o r m a t i o n ,t h es y n t h e s i s a l g o r i t h m ,a n dt h er e l a t i o n s h i pb e t w e e nt h e ma r et h r e ek e yi s s u e s t oc o d i n g e 伍c i e n c yi nt h et e x t u r es y n t h e s i sb a s e di m a g ea n dv i d e oc o d i n g b a s e do nt h e t h r e ek e yi s s u e s t h i st h e s i st a k ea d v a n t a g eo fl o wr e s o l u t i o ni n f o r m a t i o n ,w h i c h c o n t a i n sm a i nv i s u a lf e a t u r ea n di se a s yt ob ee n c o d e da n di n t e g r a t e di n t ot h e c u r r e n tc o d e cf r a m e w o r k ,e s t a b l i s ht h el o wf r e q u e n c yd o m a i na i d e di m a g ec o d i n g s t r a t e g y i n s p i r e db yi n v e r s et e x t u r es y n t h e s i s ,w es e tu pt h er u l eo ft e x t u r e s a m p l e rs e l e c t i o nt o a c h i e v et h ep e r f e c tm a t c h i n gb e t w e e ns i d ei n f o r m a t i o n s e l e c t i o na n dt h et e x t u r es y n t h e s i sa l g o r i t h m c o m b i n e dw i t hl o wr e s o l u t i o na i d e d s t r a t e g ya n ds a m p l e rs e l e c t i o nr u l e an o v e ll o wr e s o l u t i o nd o m a i na i d e dt e x t u r e s y n t h e s i sm e t h o df o ri m a g ec o d i n gi sp r o p o s e d ,w h i c hc a ng r e a t l yi m p r o v et h e c o d i n ge f f i c i e n c ya n d c a nb ee a s i l yi n c o r p o r a t e di n t ot h ee x i s t i n gc o d i n g f r a m e w o r k 2 an o v e lt e x t u r es y n t h e s i sb a s e dv i d e oc o d i n ga l g o r i t h mf o r s t o c h a s t i ct e x t u r e u s i n gg r a p h c u ta n dd cc o m p e n s a t i o n f o rv i d e os e q u e n c ec o n t a i n i n gs t o c h a s t i c t e x t u r e i t sn o tn e c e s s a r yt oe n c o d et e x t u r ea r e a si nd e t a i lw i t hl o t so fb i t s , b e c a u s et h e r ei sm o r ev i s u a lr e d u n d a n c yt h a ns t a t i s t i c a lr e d u n d a n c yi ns t o c h a s t i c t e x t u r er e g i o n s ,a n di t sd i 伍c u l tt op e r f o r ma c c u r a t ei n t r aa n di n t e rp r e d i c t i o no n t h e s er e g i o n s t a k i n gf u l lu s eo ft h ep r o p e r t yt h a tg r a p h c u tc a nf i n das e a m l e s s b o u n d a r yb e t w e e ns y n t h e t i cr e g i o na n dn o n - s y n t h e t i cr e g i o n ,t h i sm e t h o db a l a n c e s 北京工业大学工学博上学位论文 t h eq u a l i t yo fs y n t h e s i z e dr e g i o na n dt h es e l e c t i o no fg u i d i n gi n f o r m a t i o nt o a c h i e v eh i g hc o m p r e s s i o ne m c i e n c yw i t hl e s sg u i d i n gi n f o r m a t i o na sp o s s i b l e , w h i c hi n v e s t i g a t e st h ep o t e n t i a lo ft e x t u r es y n t h e s i st oag r e a te x t e n t f u r t h e rm o r e u t i l i z i n gt h ef e a t u r et h a th u m a nv i s u a ls y s t e mi sm o r es e n s i t i v et ot h el o w f r e q u e n c yi n f o r m a t i o no f 也es t o c h a s t i ct e x t u r e d e c o d e ru s et h ee x i s t e n te n c o d i n g m e t h o d sb a s e do ns i g n a lp r o c e s s i n gt oe n c o d e 也ed cc o m p o n e n to ft h es t o c h a s t i c t e x t u r eb l o c k ,t oc o m p e n s a t et h el o wf r e q u e n c yc o m p o n e n ti ns y n t h e t i cr e g i o n sa t d e c o d e ls oa st of u r t h e ri m p r o v et h eq u a l i t yo fr e c o n s t r u c t e di m a g e s 3 ad y n a m i cs y n t h e t i cr e g i o ns e l e c t i o ns t r a t e g yf o rt e x t u r es y n t h e s i sb a s e dv i d e o c o d i n gt oi m p r o v et h es u b j e c t i v eq u a l i t yo ft h er e c o n s t r u c t e ds e q u e n c e 。晒e n m e r g i n gt e x t u r es y n t h e s i si n t on o w a d a y s v i d e oc o d i n gs t a n d a r d ,t h es u b j e c t i v e q u a l i t yw i l ld e s c e n dg r e a t l yd u et ot h ef r e q u e n ts w i t c hb e t w e e ns y n t h e t i cr e g i o n a n dn o n - s y n t h e t i cr e g i o n ,f o rt h eu s eo fd i f f e r e n tc o d i n gc r i t e r i o n w es o l v et h i s p r o b l e mt h r o u g hd y n a m i c a l l ya l l o c a t i n gs y n t h e t i cr e g i o nf o ra d j a c e n tf r a m e st o a c h i e v eas m o o t ht r a n s i t i o n ,a n dg r e a t l yr e d u c et h ev i s u a la r t i f a c t sc a u s e db yt h e a l l o c a t i o nf o rt e x t u r es y n t h e t i cr e g i o n s k e y w o r d si m a g ec o d i n g ;v i d e oc o d i n g ;t e x t u r es y n t h e s i s ;s y n t h e t i cr e g i o n s e l e c t i o n - i v - 目录 曼曼! 曼! 曼曼曼曼! ! 曼曼曼! 曼曼! 曼! 曼! 曼曼皂曼皇曼皇曼曼曼曼曼曼曼! 曼! 曼曼曼! 曼! 皇曼鼍曼曼曼! 曼曼曼! ! ! ! ! 曼曼! 蔓蔓曼! 曼! 曼曼皇曼曼曼曼曼鼍曼 目录 摘要i a b s t r a c t i i i j 葑图i i i f i g u r e 第1 章绪论1 1 1 弓i 言1 1 2 基于信号的图像视频编码方法2 1 2 2 图像编码的标准与技术3 1 2 3 视频编码的标准与技术。4 1 3 基于视觉的图像视频编码方法9 1 4 纹理合成技术12 1 4 1 纹理区域划分技术j - 1 2 1 4 2 图像纹理合成1 3 1 4 3 视频纹理合成一1 6 1 5 研究内容及论文结构17 第2 章基于纹理合成的图像视频编码框架一1 9 2 1 基于纹理合成的图像视频编码框架- 1 9 2 2 基于纹理合成的图像视频编码的流程分析一2 1 - 2 3 基于纹理合成的图像视频编码中的几个问题2 4 2 3 1 抛弃分量的确定一2 4 2 3 2 纹理合成区域与纹理样本选择2 5 - 2 3 3 纹理合成指导信息2 6 - 2 4 本章小结2 8 一 第3 章基于低分辨率辅助纹理合成的图像编码一2 9 3 1 引言一2 9 3 2 基于低分辨率辅助纹理合成一3 0 - 3 2 1 基于全变分的纹理区域分割方法3 卜 3 2 2 低分辨率辅助指导机制一3 9 3 2 3 合成算法指导的纹理样本选择方法4 l - 3 2 4 基于低分辨率辅助的纹理合成算法4 3 3 3 基于低分辨率辅助纹理合成的图像编码“一 3 4 实验结果一4 5 - 3 5 本章小结一4 7 一 第4 章基于低分辨率、低频辅助纹理合成的视频编码方法一4 9 4 1 弓i 言一4 9 4 2 面向快速运动视频的纹理合成编码5 0 - 北京t 业大学丁学博1 :学位论文 4 2 1 面向快速运动视频的低分辨率辅助纹理合成5 0 4 2 2 基于低分辨率辅助纹理合成的快速运动视频编码5l _ 4 2 3 实验结果5 8 4 3 面向随机性纹理视频的纹理合成编码6 0 4 3 1 相关工作6l - 4 3 2 基于g r a p h c u t 和d c 补偿的纹理合成6 2 4 3 3 基于g r a p h c u t 和d c 补偿纹理合成的随机性纹理视频编码方法6 3 4 3 4 实验结果7 0 4 3 5 解码端复杂度分析7 5 4 4 本章小结7 7 第5 章基于纹理合成视频编码的合成区域选择与码率控制。 7 9 5 1 引言7 9 5 2 基于纹理合成视频编码中的纹理合成区域选择策略7 9 5 2 1 现有纹理合成区域选择方法8 0 5 2 2 纹理合成区域选择方法81 5 2 3 纹理合成区域选择的评价方法8 3 5 3 基于纹理合成图像视频编码的码率控制。8 5 5 3 1 传统码率控制8 5 5 3 2 基于纹理合成图像视频编码的码率控制8 6 5 4 本章小结8 8 结论 论文的创新研究和总结。9 1 研究工作的展望9 2 参考文献9 5 攻读博士学位期间取得的研究成果。 致谢。 一 0 5 i i 插图 曼! 曼! 曼曼皇! ! 曼曼曼曼曼! 曼曼寰曼曼曼鼍曼! 曼! 曼! 曼曼皇曼罡曼l |m 一i i 皇蔓! 曼! 皇曼曼曼曼曼! 苎皇曼曼曼皂! 曼曼曼曼 插图 图1 1 前向预测示意图5 图1 2 双向预测示意图5 图1 3h 2 6 4 儿w c 编码框架6 图l - 4h 2 6 4 a v c 解码框架7 图1 5h 2 6 4 ,a v c 帧内编解码框架8 图1 6h 2 6 4 a v c 中宏块的划分9 图2 1 相似纹理的比较19 图2 2 基于纹理合成的图像视频编码2 0 图2 3 基于纹理合成的图像视频编解码器框架2 1 图2 4 本文中基于纹理合成的图像视频编解码策略2 2 图2 5 基于纹理合成编码方法配中的符号定义2 3 图3 1 梯度方向的扇区划分3 5 图3 2 现有基于边界提取的图像分割3 6 图3 3 基于图像分解的图像分割方法3 6 图3 4 基于图像分解的图像分割与方现有方法的比较。3 7 图3 5 图像分解后进行边界提取3 9 图3 _ 6 低分辨率辅助的前向纹理合成4 0 一 图3 - 7 低分辨率辅助的图像编解码框架4 5 图3 8 低分辨率辅助图像编码实验数据4 6 图4 。l 基于上采样的快速运动视频编码框架5 2 图4 2 快速运动估计方法5 3 图4 3 纹理合成区域面积增加时的纹理合成区域选择5 4 图4 4 纹理合成区域面积减少时的纹理合成区域选择5 6 图4 5 基于上采样的快速运动视频合成方法比较6 0 图4 - 6 基于纹理合成的随机性视频纹理编码框架6 4 图4 7 扩展纹理样本z 的例子6 7 图4 8g r a p h c u t 算法示意图6 9 图4 9 随机性视频纹理合成方法实验结果7 4 图4 1 0 纹理合成单元大小与g r a p h c u t 所需处理边界的关系7 6 一 图4 1 lb 值与g r a p h c u t 所需处理边界的关系7 6 图5 1 现有纹理合成区域面积分配的示例8 0 一 图5 - 2 纹理合成区域面积分配示意图8 2 图5 3 纹理合成区域面积分配的示例一8 3 一 图5 - 4 我们的方法与z h u 方法的s a v 值比较一8 5 图5 5 不同量化步长下口与节省码率之间的关系8 8 i i i 北京工业大学t 学博十学位论文 i v f i g u r e 曼曼! 曼曼曼曼! 苎曼苎! 曼舅皇曼i ii i 一-_ 一 i i i i 曼鼍曼鼍曼! 曼鼍 f i g u r e f i g u r e1 - 1f o r w a r dp r e d i c t i o n 5 f i g u r e1 2b i d i r e c t i o n a ip r e d i c t i o n 5 f i g u r el 一3f r a m e w o r ko fh 2 6 4 a v ce n c o d e r 6 f i g u r el - 4f r a m e w o r ko fh 2 6 4 a v cd e c o d e r 7 f i g u r el 一5f r a m e w o r ko f i n t r ac o d i n gi nh 2 6 4 ,a v c 8 f i g u r el 一6p a r t i t i o no fh 2 6 4 a v cm a c r o b l o c k 9 f i g u r e2 - 1c o m p a f i s o no fs i m i l a rt e x t u r e 1 9 f i g u r e2 2t e x t u r es y n t h e s i sb a s e di m a g e v i d e oc o d e c 2 0 f i g u r e2 3f r a m e w o r ko ft e x t u r es y n t h e s i sb a s e di m a g e v i d e oc o d e c 21 f i g u r e2 _ 4s t r a t e g yo fo u rt e x t u r es y n t h e s i sb a s e di m a g e v i d e oc o d e c - 2 2 一 f i g u r e2 5s y m b o ld e f i n ei nt e x t u r es y n t h e s i sb a s e dc o d i n g 一2 3 一 f i g u r e3 - 1 p a r t i t i o no f g r a d i e n td i r e c t i o n - 3 5 一 f i g u r e3 - 2d i r e c t l ya p p l y i n gc a n n yo p e r a t o rt oi m a g ew i t hr i c ht e x t u r e - 3 6 f i g u r e3 - 3i m a g es e g m e n t a t i o nv i ai m a g ed e c o m p o s i t i o n - 3 6 - f i g u r e3 4c o m p a r i s o n o fi m a g ed e c o m p o s i t i o nb a s e ds e g m e n t a t i o na n dc a n n yo p e r a t o r - 3 7 一 f i g u r e3 - 5a p p l y i n gc a n n yo p e r a t o ra f t e ri m a g ed e c o m p o s i t i o n 一3 9 一 f i g u r e3 - 6l o wr e s o l u t i o nd a t aa i d e df o r w a r dt e x t u r es y n t h e s i s 4 0 f i g u r e3 - 7f r a m e w o r ko fl o wr e s o l u t i o na i d e di m a g ec o d i n g 一4 5 一 f i g u r e3 - 8e x p e r i m e n t a lr e s u l t so fl o wr e s o l u t i o nd a t aa i d e di m a g ec o d i n g 一4 6 一 f i g u r e4 - 1f r a m e w o r ko fu p s a m l i n gb a s e dr a p i dm o t i o nv i d e oc o d i n g 一一5 2 - f i g u r e4 - 2e s t i m a t i o no f r a p i dm o t i o n 5 3 一 f i g u r e4 - 3s y n t h e t i cr e g i o ns e l e c t i o nw i t hi n c r e a s i n gs y n t h e t i ca r e a - 5 4 - f i g u r e4 4s y n t h e t i cr e g i o ns e l e c t i o nw i t hd e c r e a s i n gs y n t h e t i ca r e a 。- 5 6 - f i g u r e4 - 5e x p e r i m e n t a lr e s u l t so fu p s a m p l i n gb a s e dt e x t u r es y n t h e s i s 一6 0 f i g u r e4 - 6f r a m e w o r k o ft e x t u r es y n t h e s i sb a s e ds t o c h a s t i ct e x t u r ev i d e oc o d i n g 6 4 - f i g u r e4 - 7ad e s c r i p t i o nf o rt h et e x t u r eb l o c ka d d e di n t oz 一6 7 f i g u r e4 - 8g r a p h c u ta l g o r i t h md e m o n s t r a t i o n 一6 9 f i g u r e4 - 9e x p e r i m e n t a lr e s u l t so f t e x t u r es y n t h e s i sb a s e ds t o c h a s t i ct e x t u r ev i d e oc o d i n g - 7 4 f i g u r e4 10b o u n d a r yp i x e l st ob ep r o c e s s e db yg r a p h c u tv s a r e ao fs y n t h e t i cu n i t 7 6 - f i g u r e4 - 1 1b o u n d a r yp i x e l st ob ep r o c e s s e db yg r a p h c u tv s b 7 6 一 f i g u r e5 - 1i l l u s t r a t i o no fz h ua n dp a t i r e ss y n t h e t i cr e g i o na l l o c a t i o n 8 0 f i g u r e5 - 2a l l o c a t i o no fs y n t h e t i cr e g i o n 一8 2 - f i g u r e5 - 3a ne x a m p l eo f s y n t h e t i cr e g i o na l l o c a t i o n 一一8 3 - f i g u r e5 - 4t h es a vc o m p a r i s o no fo u rp r o p o s a la n dz h u sm e t h o d - 8 5 f i g u r e5 - 5b i t - r a t es a v i n gv s a u n d e rv a r i o u sq p s 一8 8 一 - v 1 1 1 北京t 业大学_ t 学博十学位论文 第l 章绪论 i i 1 1 引言 第1 章绪论 随着信息技术的迅猛发展,图像视频作为视觉信息的主要载体,已深入人 们的日常生活,图像视频压缩编码技术的应用也越来越广泛【1 刀】。从服务于家庭 生活的电子产品,到专业级的通信应用,编码技术无处不在发挥着巨大作用 4 , 5 , 6 1 。 网络带宽也不断得到提高,光纤入户已经可以达到l o m b i t s 的宽带连接速率,在 无线网络领域,第三代移动通信技术的成熟也大大提高了无线网络带宽。高分辨 率摄像机,高分辨率显示设备的出现对视频编码提出了极高要求。同时支持 1 0 8 0 p 的液晶电视、数字电影也逐渐走入人们的生活,使得现有以客观质量为衡 量标准的图像视频编码标准受到了极大挑战。巨大的数据量使目前以预测、变 换、熵编码为主要技术的视频编码方法难以满足数字图像视频存储和传输的新 需要。因此,近年来研究开发以主观质量为衡量标准的图像视频编码方法逐渐 走入研究人员的视野,并成为当前信息技术的一个热点。在主观质量不变的情况 下,怎样以最少的编码比特表示原始图像视频包含的信息,是研究人员关心的 主要问题。本章我们将介绍现有视频数据压缩技术以及纹理合成技术的发展。 在数字图像视频编码和压缩中,有以下几种基本数据冗余【2 】:空间冗余,时 间冗余,统计冗余,心理视觉冗余。如果能减少或者消除其中的一种或多种冗余, 就能够取得压缩的效果,图像视频编码就是去除各种冗余的过程。 空间冗余。同一景物表面上采样点的颜色之间往往存在着空间连贯性,相邻 像素值较为接近。在同一图像中空间上相邻像素之间的这种相关性导致空间冗余 信息的产生,空间冗余是静态图像中存在的最主要的一种数据冗余。现有视频编 码中通过帧内编码技术去除图像中的空间冗余信息。 时间冗余。由于视频序列中相邻帧图像之间的运动变化很小,因此存在着极 强的相关性,这就产生了时间冗余信息。在视频编码中,通过帧间编码技术去除 图像间的时间冗余信息。 统计冗余。在对信息进行熵编码的过程中,若采用不同的编码方法

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论