图像压缩综述.docx

上传人:b****5 文档编号:5941235 上传时间:2023-01-02 格式:DOCX 页数:13 大小:253.14KB
下载 相关 举报
图像压缩综述.docx_第1页
第1页 / 共13页
图像压缩综述.docx_第2页
第2页 / 共13页
图像压缩综述.docx_第3页
第3页 / 共13页
图像压缩综述.docx_第4页
第4页 / 共13页
图像压缩综述.docx_第5页
第5页 / 共13页
点击查看更多>>
下载资源
资源描述

图像压缩综述.docx

《图像压缩综述.docx》由会员分享,可在线阅读,更多相关《图像压缩综述.docx(13页珍藏版)》请在冰豆网上搜索。

图像压缩综述.docx

图像压缩综述

图像压缩综述

摘要:

随着信息时代的不断发展,数字图像处理技术得到了广泛的应用,而作为数字图像处理技术的重要组成部分——数字图像压缩,也得到了迅猛的发展。

本文从数字图像压缩的概念、发展历史、图像压缩的必要性和可能性、图像压缩标准、图像压缩基本方法和图像压缩效果评价等方面进行了综述。

引言

在当前这个信息化社会中,新信息技术革命使人类被日益增多的多媒体信息所包围。

多媒体信息主要是由图像、文本和声音三大元素组成。

图像作为其主要元素之一,发挥着越来越重要的作用。

而传输和存储图像需要占用大量的数据空间,这严重影响了传输速率和实时处理量,极大地制约了图像通信的发展。

其中,数据量最大的是数字视频数据。

未经处理的数字视频信息需要消耗巨大的存储资源,以主流高清视频为例,在分辨率为1280×720,帧率为30帧每秒的视频应用中,存储一分钟的视频信息,需要约18.5G(以常4:

2:

0视频,每像素12比特)比特存储空间,一部120分钟高清电影约需要2225G比特的存储空间。

可见未经处理的视频信息量非常大,为了满足存储和传输需求,视频信息的压缩是十分必要的。

在同等的通信容量下,如果图像数据可以压缩之后再传输,就可以使传输的数据量变得很小,也就能够增加通信能力。

因此图像压缩编码技术受到了越来越多的关注及广泛的应用。

如数码相机、USB摄像头、可视电话、视频点播、视频会议系统、数字监控系统等等,都使用到了图像或视频的压缩技术。

数字图像压缩是以尽可能少的比特数代表图像或图像中所包含的信息量的技术,图像通过压缩处理去掉其中的数据冗余、符号冗余、视觉冗余等各种冗余信息,提高传输速率,节省存储空间。

1图像压缩的发展历史

自1948年提出的电视信号数字化设想后,即开始了图像压缩的研究,到现在已有60多年的历史。

20世纪五六十年代的图像压缩编码主要集中在预测编码、哈夫曼编码等技术的研究,还不成熟。

1969年在美国召开的第一届“图像编码会议”,标志着图像编码作为一门独立学科的诞生。

到了七八十年代,图像压缩技术的主要成果体现在变换编码技术上,矢量量化编码技术也有较大的发展。

80年代末,小波变换理论、分形理论、人工神经网络理论、视觉仿真理论建立,人们开始突破传统的信源编码理论,图像压缩编码向着更高的压缩率和更好的压缩质量的方向发展,进入了一个崭新的发展时期。

2图像压缩的可能性

图像之所以能够进行压缩有以下几个方面的原因:

一是原始图像数据是高度相关的,存在很大的数据冗余。

如图像内相邻像素之间的空间冗余度、系列图像前后帧之间的时间冗余度、多光谱遥感图像各频谱间的频率域冗余度等,它们造成了大量的比特数浪费,消除这些冗余就可以节约码字,大大减少数据量,达到数据压缩的目的。

二是信源符号出现的概率不同,若用相同码长表示不同出现概率的符号,就会造成符号冗余度。

如果采用可变长编码技术,对出现概率高的符号用短码字,对出现概率低的符号用长码字表示,就可以消除符号冗余度,从而节约码字。

三是人眼具有视觉冗余,允许图像编码有一定的失真。

人类视觉系统(HVS)是有缺陷的,人眼对于某些失真不敏感难以察觉。

在许多场合中,并不要求经压缩及复原以后的图像和原始图像完全相同,可以允许有少量的失真,只要这些失真并不被人眼所察觉即可。

这就为压缩比的提高提供了十分有利的条件,这种有失真的编码称为限失真编码。

在多数应用中,人眼往往是图像信息的最终接受者,图像编码方法如果能充分利用人眼的视觉特性,就可以在保证复原图像主观质量较好的前提下取得较高的压缩比。

四是还可以利用先验知识来实现图像编码,降低知识冗余度。

例如,在可视电话中,编码对象可为人的头和肩等,这时可利用对编码对象的先验知识为编码对象建立模型,通过提取模型参数,对参数进行编码而不对图像直接进行编码,可以达到非常高的压缩比。

3图像压缩编码标准

国际标准化协会(ISO)、国际电子学委员会(IEC)、国际电信协会(ITU)等国际组织,于90年代领导制定了许多重要的多媒体数据压缩标准如JPEG、H.261、H.263、H.264、HEVC、MPEG一1、MPEG一2、MPEG一4等等。

这些标准已在数字电视、多媒体领域得到广泛应用。

[1]

目前国际主流的视频编码国际标准主要有两大系列,分别为H.26X系列和MPEG系列。

H.26X系列包括H.261[2]、H.262[3]、H.263[4]、H.263+[5]、H.263++[6]和H.264[7]、H.265。

其制定者为国际电信联盟电信标准化部门(ITU-T:

InternationalTelecommunicationUnion-TelecommunicationStandardizationSector)。

MPEG系列包括MPEG-1[8]、MPEG-2[9]、MPEG-4[10]以及正在制定中的MPEG-H[11]。

其制定者为国际标准化组织(ISO:

InternationalOrganizationforStandardization)和国际电工委(IEC:

InternationalElectronicsCommittee)下属的运动图像专家组(MPEG:

MovingPictureExpertsGroup)。

为了推动视频编码技术的发展,两大标准组织共同制定了H.262和H.264/AVC标准。

目前,为适应视频技术发展的趋势,两大组织再一次合作,共同开发新一代高性能视频编码标准HEVC(HighEfficiencyVideoCoding)。

下图为两大系列标准的发展历史图。

图3-1H.26X系列发展图

图3-2MPEG系列发展图

不同的视频标准有不同的社会需求背景,同时所面向的应用也有所不同。

下表所示为各编码标准面向应用情况[12]。

表3-3编码标准面向应用

除了两大国际标准以外,还有我国自主知识产权的AVS编码标准。

AVS标准的制定是为了适应我国信息产业快速崛起崛起而提出的,随着我国在视频编码技术研发方面的不断积累,相信其影响力将会不断的增强。

4图像压缩方法

如下图为图像压缩系统的一般模型

图4-1图像压缩系统的一般模型

4.1压缩方法的分类

研究图像压缩方法实际是研究图像压缩的算法(或者称为“编码’),随着研究的不断深入,出现了多种压缩(“编码’)方法。

显然,各种编码方法的并存是十分必要的。

图像压缩编码可以有多种分类方法:

1以恢复的图像与原图像关系分:

无失真编码和限失真编码。

②以使用方法的原理分:

基于图像统计特性、基于人眼视觉特性和基于图像特性提取编码。

③以图像的光学特性分:

静止图像、慢速图像和实时图像编码。

④以采用的基本理论不同分:

变换法和分形法编码。

4.2压缩方法算法

4.2.1空间法

空间域图像压缩可以有六种形式,其中包括脉冲编码调制、预测编码、差分脉冲码调制、Delta调制、内插编码及比特平面编码这六种方法。

空间域图像压缩的主要特点有:

(1)脉冲编码调制

这种压缩方法可接受的图片质量是由每像3比特量化值,压缩比C=2.6至C=1.0,颤动法可以用来改进图像的质量,全然没有利用人的视觉特性。

(2)预测编码

预测编码的理论基础是现代统计学和控制论。

预测编码是根据某一模型利用以往的样本值,对于新样本值进行预测,然后将样本的实际值与其预测值相减得到一个误差值,对这一误差值进行编码,如果模型足够好且样本序列在时间上的相关性较强,那么误差信号的幅度将远小于原始信号,从而可以用较少的数据类对其差值量化得到较大的数据压缩结果。

利用预测编码的方法压缩图像数据的空间和时间冗余性,这种方法直观、简捷、易于实现,它的不足在于压缩能力有限。

现在常用的一种线性预测编码方法是差分脉冲编码调制DPCM(differentialpulsecodemodulation)[13]

线性预测形式如下:

S’(n1,n2)=c1s(n1—1,n2—1)+c2s(n1—1,n2)+c3s(n1一1,n2+1)+c4s(n1,n2—1)。

最佳线性预测选择系数使均方误差最小:

minE((s一s’)T(s一S’))

预测法通常不利用人的视觉系统的特性,对于8比特的规范形式运用两维预测所获得的压缩比约为4:

1。

若预测参量以适当方式与数据自适应,则预测法便为自适应的。

例如,一局部性测量可以定义,则预测参量在每一显著的变化时可以被修正。

用自适应修正,压缩比可以增加百分之一到二十左右。

预测的特例是差分脉冲编码调制。

(3)差分脉冲编码调制

脉冲编码调制可获得压缩比为2.5:

1,自主适应脉冲编码调制可使压缩比达3.5:

1。

(4)Delta调制

用这种方法所获得的压缩比虽然不高,但方法相当简单。

(5)内插编码

最通用的内插方法是零阶和一阶内插器,它能获得大约4:

1的压缩比。

高阶多项式或样条函数也能使用,但是其计算复杂性不能证明其结果的有效性,再则是未利用人的视觉系统的性质。

(6)比特平面编码

用比特平面编码法在未涉及人的视觉系统特性时可以获得平均压缩比约为4:

1。

4.2.2变换编码

变换编码先对图像进行某种函数变换,从一种表示空间变换到另一种表示空间,然后在变换

后的域上,对变换后信号进行编码。

目前在图像压缩中经常使用的变换有:

(1)Karhunen-Loeve变换(KLT)。

它是一种最优变换。

KLT可以有效地去除原始数据的相关性,从而实现高效压缩。

但是由于KLT变换的核不是固定的,是随原始数据而变的,并且不存在快速算法,限制了它在实际上的应用,一般常作为其他方法的参照。

(2)离散余弦变换(DCT)。

对于像素间呈现高度相关的典型图像,DCT的性能与KLT的性能没有实质的区别。

DCT的

快速实现算法也已经实现。

与Walsh-Hadamard变换相比,DCT具有更强的信息集中能力,并

且易于软硬件的实现,正是由于这些优点,DCT已经成为当前图像压缩中应用最广泛的技术。

(3)Walsh-Hadamard变换(WHT)。

与DCT相比,WHT的压缩方面的性能要逊色许多,但

由于实现起来算法简单,且具有简洁的去相关能力,以及特别有利于硬件实现,使得WHT

也成为一种比较流行的算法。

(4)小波变换。

小波变换把图像分解成逼近图像和细节图像之和,它们分别代表图像的不同结构,然后采用快速算法(Mallat)进行压缩,可以获得很高的压缩比。

基于小波变换的图像压缩算法首先使用某种小波基函数将图像作小波变换,再根据4个通道的不同情况,分别量化编码,比如对低频频段(LL)采用较多的量化级别,而对中间频段(LH,RH)采用较少量化级别,对高频频段(HH)采用很少几个量化级别,这样根据重构时对复原信号的重要程度分别对待的方式可以有效地提高压缩比而又不产生明显的失真。

小波变换在静态图像压缩中的作用已经得到公认,为JPEG2000标准所采纳。

小波变换应用于图像压缩时,本质上是对原始图像的小波系数进行重组处理,然后用处理后的小波系数恢复图像,在实际的信号压缩标准中(如JPEG2000),一般采用支集长度为9和7的双正交小波,该方法容错性比较好,因此更适合实际的应用。

目前3个最高等级的小波图像编码分别是嵌入式小波零树图像编码(EZW),分层树中分配样本图像编码(SPIHT)和可扩展图像压缩编码(EBCOT)。

1.EZW算法

EZW算法中采用的零树结构充分利用了不同尺度间小波系数的相似特性,有效地剔除了对高频小波系数的编码,极大的提高了小波系数的编码效率。

EZW算法以极低的复杂度获得了高效的压缩性能,产生的码流还具有嵌入的特性,支持渐进传输,因此EZW算法在小波图像编码史上就有里程碑式的意义。

零树小波编码基于三个关键的思想:

(1)用小波变换去相关;

(2)利用小波变换的内在自相似性在各级之间预测重要信息的位置;(3)用自适应算法编码进行无损压缩。

一个零树的数据结构可以定义如下:

一个小波系数x,对于一个给定的阈值T,如果|x|

如果一个小波系数在一个粗的尺度上对于给定的阈值T是不重要的,而且在较细的尺度上在同样空间位置处的所有小波系数对于阈值T也是不重要的,则称这些小波系数形成了一个零树。

这时,粗尺度上的小波系数称为父节点,它是树根,在较细尺度上相应位置上的小波系数称为子节点。

采用这种零树结构可以使得用于描述重要系数位置的信息大为减少。

EZW算法使用了四个符号进行编码:

零树根、孤立零点、正重要值、负重要值。

孤立零点表示当前系数值是不重要的,但它的子孙中至少有一个是重要的。

正/负重要值表示当前系数是一个正/负的重要值。

通过这四个符号,各子带按一定顺序对小波系数进行扫描,对小波系数进行判断,并将相应的符号放入一个表中,从而形成了一个符号表。

在EZW编/解码过程中,始终保持着两个列表:

主表和副表。

主表包括编码中的不重要的集合或系数,其输出信息起到了恢复各重要值的空间位置的作用;而副表包括编码中的有效信息,输出为各重要系数的二进制值。

编码分为主通、副通两个过程。

在主通过程中,在给定阈值下,主表进行扫描编码,若为重要系数,则将其幅值加入副表,然后将该系数在数组中置为零,这样当阈值减小时,该系数不会影响新零树的出现;在副通过程中,对副表中的重要系数进行细化,细化过程相当于比特平面的编码过程。

零树结构和SAQ相结合构成的编码器的工作过程可以概括如下:

首先给出初始化阈值,进行第一次主扫描,若是重要系数,则将其幅值加入副表,然后将该系数在数组中置为零;接下来进行第一次副扫描,细化重要值的表示。

更新阈值,进行新一轮主扫描,对已经发现的重要小波系数的位置不再扫描;主扫描结束,进入副扫描,对原已发现的重要值和新发现的重要值进行细化处理。

重复上述过程,直到满足要求为止。

EZW的编码思想是不断扫描变换后的图像,生成多棵零树来对图像进行编码。

由于编码时它形成多棵零树,因而需要多次扫描图像,造成效率很低。

而在一颗零树中包含的元素越多,则越有利于数据压缩,在EZW算法中存在这样的树间冗余。

人们通过对小波系数的分析发现,在同一子带中相邻元素间有一定的相关性,尤其在高频子带中存在大量的幅值很低的系数,所以可以通过子带的集合把这种大量的系数组织到一起,达到数据压缩的目的,而EZW算法并没有充分利用这种相关性。

在EZW算法的基础上,许多学者又进行了深入的研究,并提出了一些更为高效的小波图像编码方法,这类编码器被统称为“零树编码器”。

2.EBCOT算法

EBCOT算法包括嵌入式块编码和分层装配两个结构。

嵌入式块编码是EBCOT的基础,其输出的码流不仅包含块信息,而且也包含附加信息。

EBCOT将待编码的小波图像分成尺寸相对较小的独立编码子块,对每个子块进行独立编码得到嵌入式码流,进而对块间的码流进行组织以进一步提高压缩性能,它的编码过程如下:

①将原始图像进行小波变换,得到小波图像以降低图像数据的相关性;

②把小波图像分成许多较小的编码子块Bj,Bj是独立压缩编码的主体,通过对Bj的独立优化编码,可充分利用块内数据冗余,获取较高的压缩性能;

③将位平面进一步细分为“分数位平面”以获取更多的可截取点,并对这些截取点进行优化,达到更好的可嵌入性;

④设置专门的“第二层编码”,组织相互独立的块码流,从而提供功能上的丰富性。

在EBCOT算法中,最小编码单位是编码子块,简称“码块”,用字母Bj表示,码块的分割是在图像经小波变换后得到的子带图像中进行。

编码前需把小波图像中各个子带图像tbj分割成码快Bj(j=1,2,⋯,q),分割完成的编码子块应互不交叉,同时编码子块不跨越子带边界,而且除边缘码块外其余的码块形状与大小均需相同。

一般,编码子块的形状取正方形,大小为2n×2n像素。

量化是有损压缩的基础,通过量化处理可以进一步提高图像压缩倍数,这种压缩倍数的提高是以牺牲重构图像质量为代价。

EBCOT算法中量化产生的编码是嵌入式的,它包含两重含义:

①分辨层渐进编码,即优先保留低分辨率系数,然后逐步加入高分辨率细节系数;②质量层渐进编码,即在同一码块内先保留系数的高位比特。

对于每个子带图像,用户根据视觉特性或者编码比特率控制的要求选择合适的量化步长,将子带中的小波系数进行量化,量化过程会产生量化误差。

最终的压缩数据由各个编码块的码流组成。

每一个编码块都在一个固定的分辨率上,所以这种简单的封包形式具有“分辨率可伸缩性”。

同时,因为每一个编码块只影响图像的一个区域,所以此封包形式还具有一定的“空间可伸缩性”,这样,如果对一个空间域上的图像感兴趣,就可以把感兴趣图像所在的编码块识别出来,然后进行相应的处理。

尽管有些封包格式中每一个编码块都是嵌入式表示的,但是它并不具有“失真率可伸缩性”。

为了解决这一问题,EBCOT算法中引入了“质量层”的概念,每一个质量层Qi由不同编码块的一部分码流组成。

需要强调的是,一些编码块在某一层中可以为空。

这样,由“质量层结构”构成的码流形式具有失真率可伸缩性,编码后的压缩数据就具有渐进传输的性质了。

3.SPIHT算法

SPIHT算法继承了EZW算法的三个主要思想:

①把小波系数按照幅值排序编码传输,同时解码器也按同样的算法,以实现从执行中复制编码的排序信息;②细化重要系数的位平面传输;③利用小波系数不同尺度同一方向的系数间的自相似性。

SPIHT算法同样利用了树的结构,并且对重要的树集合进行进一步的分割,目的是使更多不重要系数包含在同一个集合里,从而提高压缩效率。

在SPIHT算法中,使用了如下的集合定义:

其中Z(i,j)为系数x(i,j)及其所有后代节点的集合,D(i,j)是系数x(i,j)的所有后代节点集合,O(i,j)是系数x(i,j)的直接后代节点的集合,L(i,j)是系数x(i,j)除去直接后代的其它所有后代节点的集合,集合分割策略为:

Z(i,j)=x(i,j)+D(i,j)①

D(i,j)=O(i,j)+L(i,j)②

L(i,j)=ΣD(i,j),(k,j)③

SPIHT算法通过初始化、分类扫描、细化扫描和阈值更新四个子过程来完成图像的编码,过程中使用了三个链表来记录相关信息:

不重要系数链表、不重要集合链表以及重要系数链表。

初始化就是把整个系数矩阵分成了树头节点x(i,j)(放入不重要系数链表)和剩余集合D(i,j)(放入不重要集合链表)。

分类扫描就是从以上的所有x(i,j)和D(i,j)中找出重要系数并放入重要系数链表中,以供细化处理,在这个过程中就用到了集合分割策略,不断地对重要集合进行分割,直到找出所有的重要系数,并放入重要系数链表中。

细化扫描,就是对重要系数链表中的每一项(除了在当前阈值进入重要系数链表的系数)。

在阈值为2n时,输出它的第n个位平面的值。

阈值更新,就是将n减1,即阈值减半,然后又重复进行分类扫描和细化扫描,直到编码结束,或达到目标码率,停止编码。

(5)子带编码

子带编码属于分析-综合类的编码技术。

子带编码的基本思想是,在编码端,将图像信号在频率域分裂成若干子带(subband),而后对各个子带用与其统计特性相适合的编码器及比特分配方案进行数据压缩;在解码端,将分别解码后的各子带信号再综合成重建图像。

子带编码有三方面的优点。

①一个子带内的编码噪声(失真)不会扩散到其他子带,所以,图像经过子带编码后,其能量较弱的高频细节仍能较好地保持。

②可以根据视觉特性控制编码噪声的频谱,使之适应人眼对不同频带噪声的敏感程度,将编码比特数在各个子带之间合理分配,有利于提高图像的主观质量。

③子带编码由于其本身具备的频率分裂特性,非常适合于分辨率可分级、质量可分级的图像编码,也非常适合嵌入式的码流结构。

除了通过专门设计的正交镜像滤波器实现的经典子带编码方法之外,小波变换是目前使用最多的子带编码方法。

早期的综合高频编码、塔型编码也属于子带编码的范畴。

4.2.3统计编码

统计编码又称熵编码,它是对于有不同概率的事件分配以不同长度的码字,对概率大的

事件分配以短的码字,从而使平均码字最短。

统计编码实现事件出现的概率与码字长度的最

佳匹配。

典型的统计编码法有哈夫曼编码(huffman)、算术编码和行程编码等。

(1)Hufman编码

无失真编码方法中,Hufman编码是一种较有效的编码方法。

Huffman编码是一种长度不均匀的,平均码率可以接近信息熵值的一种编码。

它的编码思想是:

对于出现概率大的信息,采用字短的码,对于出现概率低的信息采用字长的码,以达到缩短平均码长,从而实现数据的压缩。

Huffman编码小变字长编码方法是最佳的,其码字平均长度很接近信息符号的熵值。

Huffman编码的最高压缩效率可达到8:

1。

(2)算术编码

算术编码完全抛弃了用特殊字符代替输入字符的思想。

在算术编码中,输入的字符信息

用0到1之间的是数进行编码,它用到两个基本的参数:

符号的频率及其编码间隔。

于输入的字符信息,算术编码后形成一个唯一的浮点数。

算术编码的特点是①算术编

码在自适应模式下,不必预先统计符号概率②当信源个符号的概率比较接近时,算

术编码的效率优于哈夫曼编码③算术编码的实现比哈夫曼编码复杂一些。

(3)行程(Run—Length)编码

在一个逐行存储的图像中,具有相同灰度值的一些像素组成的序列称为一个行程。

在编码时,对于每个行程只存储一个灰度值的码,再紧跟着存储这个行程的长度。

这种按照行程进行的编码被称为行程编码(RunLengthEncoding)。

行程编码是相对简单的一种编码,是指一行扫描的像素中,比较相邻像素的幅度(如:

亮度),当幅度有显著变化时,就说有一个行程存在。

随终点位置标记方法不同,行程编码可分为“行程终点编码”和“行程长度编码”。

行程编码对于仅包含很少几个灰度级的图像,特别是二值图像,比较有效。

4.2.4合成高系统

合成高系统的产生和发展经过了近三十年的历史,这一方法的重要性是它导致了第二代数据压缩技术的进展。

在过去没有很好发展的直接原因是由于其计算量大而又使电脑存储量大,而在上世纪八十年代以来由于电脑速度猛增,使得这一方法的实现和普及得到令人满意的程度。

它同现代一些方法相比,它能获得很高的压缩比。

同时它为发展第二代图像编码压缩技术提供一条有益,而且十分有效的新途径。

国际上许多研究都是基于把一幅图片分解成低频成份和高频成份两部份,它是直接或间接地利用合成高系统分别进行编码压缩,然后进行综合,获得原始图像的很高系统的压缩性能。

合成高系统用的信息序列以下述方式来选择。

原始图片分成两部份:

低通图片没有很锐的围线而给出一般的面积亮度,高通图片含有很锐的边缘信息,根据两维抽样定理,低通图片可由很少的样本表示。

这些样本是说明规范形式的低通信息的样本。

边缘检测可用梯度算子或拉普拉斯算子来实现。

非线性运算—取门限是对高通图片执行的,以确定是否边缘点是重要的。

于是,这一方法是成为无损信息的。

最后,每一个选择的边缘点的位置和幅值被编码。

这些变量是说明高通图片的迅息。

两维重建滤波,其特性唯一地用于低通图片的低能滤波来确定,同时用于综合从边缘信息来的高频分量。

合成高系统精巧地利用了视觉系统的特性。

利用横向禁止现象在早期处理级考虑视觉系统的性能。

因而,它允许降低较大的剩余度。

在合成高系统中,门限的正确利用是十分重要的。

这样可以获得很高的压缩比及良好的图像质量。

若门限选得太低,虽然图像质量很好,但压缩比很小。

反之,若门限选择得太高,图像质量差,但压缩比很大。

在压缩比和图像质量之间的折衷方法目前还没有,可以运用经验方法来获得很好的结果。

指向性分解法是合成高系统的细化,在那里提取边缘和对边缘编码可以运用指向性滤波器。

4.2.5分形编码法

分形法是基于物质的自相似性,在编码时将信号分解为若干分形子图,然后每一个子图像对应一个迭代函数,子图像以迭代函数存储,迭代函数越简单,压缩比也就越大。

同样解码时只要调出每一个子图像对应的迭代函数反复迭代,就可以恢

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 医药卫生 > 基础医学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1