视频编码的基本原理.docx
《视频编码的基本原理.docx》由会员分享,可在线阅读,更多相关《视频编码的基本原理.docx(18页珍藏版)》请在冰豆网上搜索。
视频编码的基本原理
视频编码的基本原理.txt两个男人追一个女人用情浅的会先放弃。
两个女人追一个男人用情深的会先放弃。
╰︶ ̄—你的话,我连标点符号都不信男女授受不亲,中国哪来13亿人口。
视频编码的基本原理
视频图像数据有极强的相关性,也就是说有大量的冗余信息。
其中冗余信息可分为空域冗余信息和时域冗余信息。
压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。
去时域冗余信息
使用帧间编码技术可去除时域冗余信息,它包括以下三部分:
-运动补偿
运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
-运动表示
不同区域的图像需要使用不同的运动矢量来描述运动信息。
运动矢量通过熵编码进行压缩。
-运动估计
运动估计是从视频序列中抽取运动信息的一整套技术。
注:
通用的压缩标准都使用基于块的运动估计和运动补偿
去空域冗余信息
主要使用帧间编码技术和熵编码技术:
-变换编码
帧内图像和预测差分信号都有很高的空域冗余信息。
变换编码将空域信号变换到另一正交矢量空间,使其相关性下降,数据冗余度减小。
-量化编码
经过变换编码后,产生一批变换系数,对这些系数进行量化,使编码器的输出达到一定的位率。
这一过程导致精度的降低。
-熵编码
熵编码是无损编码。
它对变换、量化后得到的系数和运动信息,进行进一步的压缩。
视频编码的基本框架
H.261
H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。
H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。
只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。
支持两种图像扫描格式:
QCIF和CIF。
H.263
H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:
半像素精度的运动估计、PB帧预测等,使它性能优于H.261。
H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。
H.263支持多种分辨率:
SQCIF(128x96)、QCIF、CIF、4CIF、16CIF。
与H.261和H.263相关的国际标准
与H.261有关的国际标准
H.320:
窄带可视电话系统和终端设备;
H.221:
视听电信业务中64~1920Kb/s信道的帧结构;
H.230:
视听系统的帧同步控制和指示信号;
H.242:
使用直到2Mb/s数字信道的视听终端的系统。
与H.263有关的国际标准
H.324:
甚低码率多媒体通信终端设备;
H.223:
甚低码率多媒体通信复合协议;
H.245:
多媒体通信控制协议;
G.723.1.1:
传输速率为5.3Kb/s和6.3Kb/s的语音编码器。
JPEG
国际标准化组织于1986年成立了JPEG(JointPhotographicExpertGroup)联合图片专家小组,主要致力于制定连续色调、多级灰度、静态图像的数字图像压缩编码标准。
常用的基于离散余弦变换(DCT)的编码方法,是JPEG算法的核心内容。
MPEG-1/2
MPEG-1标准用于数字存储体上活动图像及其伴音的编码,其数码率为1.5Mb/s。
MPEG-1的视频原理框图和H.261的相似。
MPEG-1视频压缩技术的特点:
1.随机存取;2.快速正向/逆向搜索;3.逆向重播;4.视听同步;5.容错性;6.编/解码延迟。
MPEG-1视频压缩策略:
为了提高压缩比,帧内/帧间图像数据压缩技术必须同时使用。
帧内压缩算法与JPEG压缩算法大致相同,采用基于DCT的变换编码技术,用以减少空域冗余信息。
帧间压缩算法,采用预测法和插补法。
预测误差可在通过DCT变换编码处理,进一步压缩。
帧间编码技术可减少时间轴方向的冗余信息。
MPEG-2被称为“21世纪的电视标准”,它在MPEG-1的基础上作了许多重要的扩展和改进,但基本算法和MPEG-1相同。
MPEG-4
MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。
MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。
在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和操作。
MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。
于是MPEG-4新的目标就是定义为:
支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。
编码系统也是开放的,可随时加入新的有效的算法模块。
应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。
JVT:
新一代的视频压缩标准
JVT是由ISO/IECMPEG和ITU-TVCEG成立的联合视频工作组(JointVideoTeam),致力于新一代数字视频压缩标准的制定。
JVT标准在ISO/IEC中的正式名称为:
MPEG-4AVC(part10)标准;在ITU-T中的名称:
H.264(早期被称为H.26L)
H264/AVC
H264集中了以往标准的优点,并吸收了以往标准制定中积累的经验,采用简洁设计,使它比MPEG4更容易推广。
H.264创造性了多参考帧、多块类型、整数变换、帧内预测等新的压缩技术,使用了更精细的分象素运动矢量(1/4、1/8)和新一代的环路滤波器,使得压缩性能大大提高,系统更加完善。
H.264主要有以下几大优点:
-高效压缩:
与H.263+和MPEG4SP相比,减小50%比特率
-延时约束方面有很好的柔韧性
-容错能力
-编/解码的复杂性可伸缩性
-解码全部细节:
没有不匹配
-高质量应用
-网络友善
监控中的视频编码技术
目前监控中主要采用MJPEG、MPEG1/2、MPEG4(SP/ASP)、H.264/AVC等几种视频编码技术。
对于最终用户来言他最为关心的主要有:
清晰度、存储量(带宽)、稳定性还有价格。
采用不同的压缩技术,将很大程度影响以上几大要素。
MJPEG
MJPEG(MotionJPEG)压缩技术,主要是基于静态视频压缩发展起来的技术,它的主要特点是基本不考虑视频流中不同帧之间的变化,只单独对某一帧进行压缩。
MJPEG压缩技术可以获取清晰度很高的视频图像,可以动态调整帧率、分辨率。
但由于没有考虑到帧间变化,造成大量冗余信息被重复存储,因此单帧视频的占用空间较大,目前流行的MJPEG技术最好的也只能做到3K字节/帧,通常要8~20K!
MPEG-1/2
MPEG-1标准主要针对SIF标准分辨率(NTSC制为352X240;PAL制为352X288)的图像进行压缩.压缩位率主要目标为1.5Mb/s.较MJPEG技术,MPEG1在实时压缩、每帧数据量、处理速度上有显著的提高。
但MPEG1也有较多不利地方:
存储容量还是过大、清晰度不够高和网络传输困难。
MPEG-2在MPEG-1基础上进行了扩充和提升,和MPEG-1向下兼容,主要针对存储媒体、数字电视、高清晰等应用领域,分辨率为:
低(352x288),中(720x480),次高(1440x1080),高(1920x1080)。
MPEG-2视频相对MPEG-1提升了分辨率,满足了用户高清晰的要求,但由于压缩性能没有多少提高,使得存储容量还是太大,也不适和网络传输。
MPEG-4
MPEG-4视频压缩算法相对于MPEG-1/2在低比特率压缩上有着显著提高,在CIF(352*288)或者更高清晰度(768*576)情况下的视频压缩,无论从清晰度还是从存储量上都比MPEG1具有更大的优势,也更适合网络传输。
另外MPEG-4可以方便地动态调整帧率、比特率,以降低存储量。
MPEG-4由于系统设计过于复杂,使得MPEG-4难以完全实现并且兼容,很难在视频会议、可视电话等领域实现,这一点有点偏离原来地初衷。
另外对于中国企业来说还要面临高昂的专利费问题,目前规定:
-每台解码设备需要交给MPEG-LA0.25美元
-编码/解码设备还需要按时间交费(4美分/天=1.2美元/月=14.4美元/年)
H.264/AVC
H.264集中了以往标准的优点,在许多领域都得到突破性进展,使得它获得比以往标准好得多整体性能:
-和H.263+和MPEG-4SP相比最多可节省50%的码率,使存储容量大大降低;
-H.264在不同分辨率、不同码率下都能提供较高的视频质量;
-采用“网络友善”的结构和语法,使其更有利于网络传输。
H.264采用简洁设计,使它比MPEG4更容易推广,更容易在视频会议、视频电话中实现,更容易实现互连互通,可以简便地和G.729等低比特率语音压缩组成一个完整的系统。
MPEGLA吸收MPEG-4的高昂专利费而使它难以推广的教训,MPEGLA制定了以下低廉的H.264收费标准:
H.264广播时基本不收费;产品中嵌入H.264编/解码器时,年产量10万台以下不收取费,超过10万台每台收取0.2美元,超过500万台每台收取0.1美元。
低廉的专利费使得中国H.264监控产品更容易走向世界。
监控中视频编码分辨率的选择
目前监控行业中主要使用以下分辨率:
SQCIF、QCIF、CIF、4CIF。
SQCIF和QCIF的优点是存储量低,可以在窄带中使用,使用这种分辨率的产品价格低廉;缺点是图像质量往往很差、不被用户所接受。
CIF是目前监控行业的主流分辨率,它的优点是存储量较低,能在普通宽带网络中传输,价格也相对低廉,它的图像质量较好,被大部分用户所接受。
缺点是图像质量不能满足高清晰的要求。
4CIF是标清分辨率,它的优点是图像清晰。
缺点是存储量高,网络传输带宽要求很高,价格也较高。
分辨率新的选择-528x384
2CIF(704x288)已被部分产品采用,用来解决CIF清晰度不够高和4CIF存储量高、价格高昂的缺点。
但由于704x288只是水平分辨率的提升,图像质量提高不是特别明显。
经过测试,我们发现另外一种2CIF分辨率528x384,比704x288能更好解决CIF、4CIF的问题。
特别是在512Kbps-1Mbps码率之间,能获得稳定的高质量图像,满足用户较高图像质量的要求。
目前这一分辨率已被许多网络多媒体广播所采用,被广大用户所接受。
比如杭州网通网上影院是采用512x384分辨率,在768k下能稳定地获得近似DVD的图像质量。
监控中实现视频编码的最佳方式
目前视频编码正处于一个技术日新月异的时期,视频编码的压缩性能在不断得到提升。
在监控中主要使用ASCI和DSP两种方案。
由于ASIC芯片的设计、生产周期过长,使它已跟不上视频编码的发展速度。
而DSP芯片,由于它的通用设计,使它能实现各种视频编码算法,并且可以及时更新视频编码器,紧跟视频编码的发展速度。
另外使用DSP芯片可以比ASIC更灵活的配置编码器,使编码器达到最佳性能。
海康威视产品目前达到的技术水准
海康威视产品采用最先进的H.264视频压缩算法和高性能的DSP处理器。
强大的H.264视频压缩引擎使产品获得极高的压缩比、高质量的图像质量和良好的网络传输性能。
高性能的DSP处理器能灵活的配置视频编/解码器:
动态设置分辨率、帧率、码率、图像质量等;可以双码流输出,达到本地存储和网络传输分别处理的功能。
使用TM130XDSP的产品,单个芯片能实时压缩一路以下分辨率的视频:
SQCIF、QCIF、CIF、2CIF(PAL:
704x288或528x384)。
使用DM642DSP的产品,单个芯片能实时压缩4路以下分辨率的视频:
SQCIF、QCIF、CIF、2CIF(PAL:
704x288或528x384)。
单个芯片能实时压缩2路4CIF视频。
*******************************************************************************
压缩技术与电视有很大的关系,交织技术是最简单的压缩形式,它使带宽以2:
1的比例降低。
人的视觉系统总要用一定时间才能识别图像元素,如果在一定的刷新频率下,每帧图像的停留时间长于人眼观察所需要的时间,那么在下一帧图像的显示过程中,第一幅图像仍然会残留在人的视觉印象中。
这种视觉残留可以消除画面的闪烁现象,将连续的画面呈现在人们眼前。
电影的帧速率为24帧/秒,但在显示每一帧画面的中间有一次中断,所以实际的刷新率是48帧/秒。
因此对电影而言画面更新率是24而刷新速率是48。
电视则采用隔行扫描以获得同样的效果。
电视没有采用电影的24帧而是采用了25帧与30帧是为了和电网频率同步降低对电源的要求。
用色差信号代替GBR信号是另一种压缩形式,利用了人眼对色彩细节不敏感的特性。
YUV(亦称YCrCb)是被欧洲电视系统所采用的一种颜色编码方法(PAL)。
YUV主要用于优化彩色视频信号的传输,使其向后兼容老式黑白电视。
与RGB视频信号传输相比,它最大的优点在于只需占用极少的带宽(RGB要求三个独立的视频信号同时传输)。
其中“Y”表示明亮度(Luminance或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色。
“亮度”是通过RGB输入信号来创建的,方法是将RGB信号的特定部分叠加到一起。
“色度”则定义了颜色的两个方面—色调与饱和度,分别用Cr和CB来表示。
其中,Cr反映了GB输入信号红色部分与RGB信号亮度值之间的差异。
而CB反映的是RGB输入信号蓝色部分与RGB信号亮度值之同的差异。
PAL、NTSC、SECAM都是压缩的形式,称为复合视频系统(CVBS?
),他们在保留了黑白电视的频道结构的同时增加了色彩信号。
信号的细节取决于应用的视频标准或者“制式”--NTSC(美国全国电视标准委员会,NationalTelevisionStandardsCommittee)、PAL(逐行倒相,PhaseAlternateLine)以及SECAM(顺序传送与存储彩色电视系统,法国采用的一种电视制式,SEquentialCouleurAvecMemoire)。
NTSC和PAL彩色视频信号是这样构成的--首先有一个基本的黑白视频信号,然后在每个水平同步脉冲之后,加入一个颜色脉冲和一个亮度信号。
因为彩色信号是由多种数据“叠加”起来的,故称之为“复合视频”。
S-Video则是一种信号质量更高的视频接口,它取消了信号叠加的方法,可有效避免一些无谓的质量损失。
它的功能是将RGB三原色和亮度进行分离处理。
在所有实际的节目内容中有两种信号分量:
一种是异常而无法预见的,另一种是可以预见的。
异常分量叫作熵,它是信号中的真实信息。
余下的部分叫作冗余,因为它不是必需的。
冗余可能是空间性的,它位于画面的大片单色区域中,相邻的象素几乎具有相同值。
冗余也可能是时间性的,它是连续画面间相似部分使用的地方。
所有压缩系统的工作方式都是在编码器中将熵从冗余中分离出来。
只有熵被录制或传输,而解码器则计算传输信号中的冗余。
理想的编码器会提取出所有的熵,并仅将它们传送给解码器。
理想的解码器则会重新制作原始信号。
实际上,“理想的”是很难达到的。
在压缩系统中当发生质量损耗时,说明压缩不合理。
如果可用的比特率不足,最好通过降低输入画面的熵来回避该区域。
这可用滤波器来实行,因滤波引起的分辨率损耗要比压缩副产物更容易被接受。
帧内编码是一项利用空间性冗余或画面中冗余的技术;而帧间编码则是利用时间性冗余的技术。
帧内编码可以单独使用,如用于静止画面的JPEG标准,或者如在MPEG中那样与帧间编码一起组合起来使用。
帧内编码依赖于典型图象中的两个特点。
首先,并非所有的空间频率会同时出现。
其次,空间频率越高则幅度可能越低。
帧内编码需要对图象中的空间频率进行分析。
该分析是诸如弱波和DCT(离散余弦变换)那样的变换的目的。
变换产生描述每个空间频率大小的系数。
一般来讲,许多系数均为零,或接近于零。
这些系数可以被省略,从而使数据率降低。
帧间编码则依赖于找到连续画面的相似之处。
如果解码器中有了一个画面,那么下一个画面可以通过仅仅发送画面差异来创建。
当物体移动时,画面差异会增加,但由于移动物体在画面之间一般不大改变其外形,所以画面差异的大小可以通过运动补偿来抵销、如果运动可以被度量,那么可以通过将前面画面中的部分内容移动到新位置上的方法来创建当前画面中的近似值。
这个移动处理过程由通过传送到解码器中的矢量来控制。
矢量传送比发送画面差异数据所需的数据要小得多。
*********************************************************************************
视频编码的基本原理
视频图像数据有极强的相关性,也就是说有大量的冗余信息。
其中冗余信息可分为空域冗余信息和时域冗余信息。
压缩技术就是将数据中的冗余信息去掉(去除数据之间的相关性),压缩技术包含帧内图像数据压缩技术、帧间图像数据压缩技术和熵编码压缩技术。
去时域冗余信息
使用帧间编码技术可去除时域冗余信息,它包括以下三部分:
-运动补偿
运动补偿是通过先前的局部图像来预测、补偿当前的局部图像,它是减少帧序列冗余信息的有效方法。
-运动表示
不同区域的图像需要使用不同的运动矢量来描述运动信息。
运动矢量通过熵编码进行压缩。
-运动估计
运动估计是从视频序列中抽取运动信息的一整套技术。
注:
通用的压缩标准都使用基于块的运动估计和运动补偿。
去空域冗余信息
主要使用帧间编码技术和熵编码技术:
-变换编码
帧内图像和预测差分信号都有很高的空域冗余信息。
变换编码将空域信号变换到另一正交矢量空间,使其相关性下降,数据冗余度减小。
-量化编码
经过变换编码后,产生一批变换系数,对这些系数进行量化,使编码器的输出达到一定的位率。
这一过程导致精度的降低。
-熵编码
熵编码是无损编码。
它对变换、量化后得到的系数和运动信息,进行进一步的压缩。
视频编码的基本框架(图)
国际音视频压缩标准发展历程
H.261
H.261标准是为ISDN设计,主要针对实时编码和解码设计,压缩和解压缩的信号延时不超过150ms,码率px64kbps(p=1~30)。
H.261标准主要采用运动补偿的帧间预测、DCT变换、自适应量化、熵编码等压缩技术。
只有I帧和P帧,没有B帧,运动估计精度只精确到像素级。
支持两种图像扫描格式:
QCIF和CIF。
H.263
H.263标准是甚低码率的图像编码国际标准,它一方面以H.261为基础,以混合编码为核心,其基本原理框图和H.261十分相似,原始数据和码流组织也相似;另一方面,H.263也吸收了MPEG等其它一些国际标准中有效、合理的部分,如:
半像素精度的运动估计、PB帧预测等,使它性能优于H.261。
H.263使用的位率可小于64Kb/s,且传输比特率可不固定(变码率)。
H.263支持多种分辨率:
SQCIF(128x96)、QCIF、CIF、4CIF、16CIF。
与H.261和H.263相关的国际标准
与H.261有关的国际标准
H.320:
窄带可视电话系统和终端设备;
H.221:
视听电信业务中64~1920Kb/s信道的帧结构;
H.230:
视听系统的帧同步控制和指示信号;
H.242:
使用直到2Mb/s数字信道的视听终端的系统。
与H.263有关的国际标准
H.324:
甚低码率多媒体通信终端设备;
H.223:
甚低码率多媒体通信复合协议;
H.245:
多媒体通信控制协议;
G.723.1.1:
传输速率为5.3Kb/s和6.3Kb/s的语音编码器。
JPEG
国际标准化组织于1986年成立了JPEG(JointPhotographicExpertGroup)联合图片专家小组,主要致力于制定连续色调、多级灰度、静态图像的数字图像压缩编码标准。
常用的基于离散余弦变换(DCT)的编码方法,是JPEG算法的核心内容。
MPEG-1/2
MPEG-1标准用于数字存储体上活动图像及其伴音的编码,其数码率为1.5Mb/s。
MPEG-1的视频原理框图和H.261的相似。
MPEG-1视频压缩技术的特点:
1.随机存取;2.快速正向/逆向搜索;3.逆向重播;4.视听同步;5.容错性;6.编/解码延迟。
MPEG-1视频压缩策略:
为了提高压缩比,帧内/帧间图像数据压缩技术必须同时使用。
帧内压缩算法与JPEG压缩算法大致相同,采用基于DCT的变换编码技术,用以减少空域冗余信息。
帧间压缩算法,采用预测法和插补法。
预测误差可在通过DCT变换编码处理,进一步压缩。
帧间编码技术可减少时间轴方向的冗余信息。
MPEG-2被称为“21世纪的电视标准”,它在MPEG-1的基础上作了许多重要的扩展和改进,但基本算法和MPEG-1相同。
MPEG-4
MPEG-4标准并非是MPEG-2的替代品,它着眼于不同的应用领域。
MPEG-4的制定初衷主要针对视频会议、可视电话超低比特率压缩(小于64Kb/s)的需求。
在制定过程中,MPEG组织深深感受到人们对媒体信息,特别是对视频信息的需求由播放型转向基于内容的访问、检索和操作。
MPEG-4与前面提到的JPEG、MPEG-1/2有很大的不同,它为多媒体数据压缩编码提供了更为广阔的平台,它定义的是一种格式、一种框架,而不是具体算法,它希望建立一种更自由的通信与开发环境。
于是MPEG-4新的目标就是定义为:
支持多种多媒体的应用,特别是多媒体信息基于内容的检索和访问,可根据不同的应用需求,现场配置解码器。
编码系统也是开放的,可随时加入新的有效的算法模块。
应用范围包括实时视听通信、多媒体通信、远地监测/监视、VOD、家庭购物/娱乐等。
JVT:
新一代的视频压缩标准
JVT是由ISO/IECMPEG和ITU-TVCEG成立的联合视频工作组(JointVideoTeam),致力于新一代数字视频压缩标准的制定。
JVT标准在ISO/IEC中的正式名称为:
MPEG-4AVC(part10)标准;在ITU-T中的名称:
H.264(早期被称为H.26L)
H264/AVC
H264集中了以往标准的优点,并吸收了以往标准制定中积累的经验,采用简洁设计,使它比MPEG4更容易推广。
H.264创造性了多参考帧、多块类型、整数变换、帧内预测等新的压缩技术,使用了更精细的分象素运动矢量(1/4、1/8)和新一代的环路滤波器,使得压缩性能大大提高,系统更加完善。
H.264主要有以下几大优点:
-高效压缩:
与H.263+和MPEG4SP相比,减小50%比特率
-延时约束方面有很好的柔韧性
-容错