EDIUS教程十附录.docx

上传人:b****5 文档编号:30037122 上传时间:2023-08-04 格式:DOCX 页数:16 大小:143.05KB
下载 相关 举报
EDIUS教程十附录.docx_第1页
第1页 / 共16页
EDIUS教程十附录.docx_第2页
第2页 / 共16页
EDIUS教程十附录.docx_第3页
第3页 / 共16页
EDIUS教程十附录.docx_第4页
第4页 / 共16页
EDIUS教程十附录.docx_第5页
第5页 / 共16页
点击查看更多>>
下载资源
资源描述

EDIUS教程十附录.docx

《EDIUS教程十附录.docx》由会员分享,可在线阅读,更多相关《EDIUS教程十附录.docx(16页珍藏版)》请在冰豆网上搜索。

EDIUS教程十附录.docx

EDIUS教程十附录

 

附录I最新视频常用名词解释

线性编辑与非线性编辑

线性编辑:

传统的线性编辑是录相机通过机械运动,使用磁头将25帧/秒(PAL)的视频信号顺序记录在磁带上,在编辑时也必须顺序寻找所需要的视频画面。

用传统的线性编辑方法在插入与原画面时间不等的画面,或删除节目中某些片段时都要重编;而且每编一次视频质量都要有所下降。

非线性编辑:

非线性编辑系统是把输入的各种视音频信号进行A/D(模/数)转换,采用数字压缩技术存入计算机硬盘中。

非线性编辑没有采用磁带,而是使用硬盘作为存储介质,记录数字化的视音频信号,由于硬盘可以满足在1/25(PAL)秒内任意一帧画面的随机读取和存储,从而实现视音频编辑的非线性。

非线性编辑系统将传统的电视节目后期制作系统中的切换机、数字特技、录像机、录音机、编辑机、调音台、字幕机、图形创作系统等设备集成于一台计算机内,用计算机来处理、编辑图像和声音,再将编辑好的视音频信号输出,通过录像机录制在磁带上。

对于能够编辑数字视频数据的软件也称为非线性编辑软件。

非线性编辑的特点:

非线性视频编辑是对数字视频文件的编辑和处理,它与计算机处理其它数据文件一样,

在微机的软件编辑环境中可以随时、随地、多次反复地编辑和处理。

而非线性编辑系统在实际编辑过程中只是编辑点和特技效果的记录,因此任意的剪辑、修改、复制、调动画面前后顺序,都不会引起画面质量的下降,克服了传统设备的致使弱点。

非线性编辑系统设备小型化,功能集成度高,与其他非线性编辑系统或普通个人计算机易于联网形成网络资源的共享。

高清和标清

近年来,随着高清电视技术的日新月异,给电视摄像和后期制作领域带来了巨大的冲击和革新。

在我国,国家批准运营数字付费电视的平台主要有四个,除了央视的中视传媒之外,还有上海文广互动、中影集团和北广鼎视传媒。

其中,上海文广的“新视觉”高清频道于2006年1月1日与央视高清频道“高清影视”同时开播,中影集团的高清电影频道也于4月开播。

按照国家广电总局对高清频道的规划:

2008年,我国将开播地面高清电视;2010年我国要达到10套以上高清频道节目制作能力。

目前,正有越来越多的影视机构和制片公司开始出品高清广告、纪录片、电视剧等等。

可以预见,在未来短短几年间,传统的标清势必逐渐退出历史舞台,高清将成为电视制播的新标准。

高清最大的优势就是较之标清而言,具有更高的画面清晰度。

以HDTV(高清晰度电视)为例:

从视觉效果来看,其图像质量可达到或接近35mm宽银幕电影的水平,它要求视频内容和显示接收设备水平分辨率达到1000线以上,分辨率最高可达1920×1080。

从画质来看,由于高清的分辨率基本上相当于传统模拟电视的4倍,画面清晰度、色彩还原度都要远胜过传统电视。

同时,4:

3的画幅变为了16:

9,更符合人们的视觉习惯,而且由于画幅正好可以适应人眼的视角范围,不会浪费,也不会溢出,因此,“16:

9”又被誉为视觉的黄金比例。

从拍摄上来看,由于需要被摄主体的最清晰影像,就必须在所用焦距状态下直接精确调

 

焦,否则即使是微量的焦点漂移,也将被高清电视清楚地放大在观众面前。

因此,应该尽量多用定焦和广角,对运动物体尽量少用推拉摇的手法。

现场最好能在高清监视器中监看。

其次由于高清画面本身的特点,许多传统上可以忽略的非主体画面的细节,如某些灯光、道具等,也会清晰地表现在屏幕上,这就需要制作人员应以新的标准来处理从前期至后期的各个环节,来符合高清影视的要求。

总体来说,高清时代的来临对广大专业影视人来说,就意味着意识、技术、软件和硬件方面的巨大革新。

RGB和YUV

RGB是红绿蓝三原色的意思,R=Red、G=Green、B=Blue。

亮度信号被称作Y,色度信号是由两个互相独立的信号组成。

视颜色系统和格式不同,两种色度信号经常被称作U和V或Pb和Pr或Cb和Cr。

这些都是由不同的编码格式所产生的,但是实际上,他们的概念基本相同。

在DVD中,色度信号被存储成Cb和Cr(C代表颜色,b代表蓝色,r代表红色)。

视频工程师发现:

人类视网膜上的视网膜杆细胞要多于视网膜锥细胞,由于杆细胞的作用是识别亮度,而锥细胞的作用是识别色度,所以,人眼对色度的敏感程度要低于对亮度的敏感程度。

由于这个理由,在我们的视频存储中,没有必要存储全部颜色信号——既然眼睛看不见,那为什么要浪费存储空间(或者金钱)来存储它们呢?

视频制播系统中,YUV可以说是一种最经济有效的色彩处理方式。

色度信号分辨率最高的格式是4:

4:

4,也就是说,每4个Y采样,就有相对应的4个Cb和4个Cr。

这种格式主要应用在视频处理设备内部,避免画面质量在处理过程中降低。

4:

2:

2表示,每4个Y采样,就有2个Cb和2个Cr。

在这种格式中,色度信号的扫描线数量和亮度信号一样多,但是每条扫描线上的色度采样点数却只有亮度信号的一半。

当4:

2:

2信号被解码的时候,“缺失”的色度采样,通常由一定的内插补点算法通过它两侧的色

度信息运算补充。

如上文所述,人眼对色度的敏感程度不如亮度,因此大多数人并不能分辨出4:

4:

4和4:

2:

2画面之间的不同。

4:

2:

0的意思是,色度采样在每条横向扫描线上只有亮度采样的一半,扫描线的条数上,也只有亮度的一半。

换句话说,无论是横向还是纵向,色度信号的分辨率都只有亮度信号的一半。

举个例子,如果整张画面的尺寸是720*480,那么亮度信号是720*480,色度信号只有360*240。

在4:

2:

0中,“缺失”的色度采样不单单要由左右相邻的采样通过内插补点计算补充,整行的色度采样也要通过它上下两行的色度采样通过内插补点运算获得。

帧与场

电视信号是通过摄像机对自然景物的扫描并经光电转换形成的。

扫描方式分为“逐行扫描”和“隔行扫描”。

“逐行扫描”指每幅图像均是由电子束顺序地一行接一行连续地扫描。

这样扫描的一幅画面称为一帧。

如果要运动画面不出现闪烁的话,则画面扫描的频率需要超过人眼的临界闪烁频率45.8Hz,即每秒不低于46次。

这对电视制播和信号传输设备提出了相当高的要求,所以无论PAL制或NTSC制主要仍使用“隔行扫描”来处理电视信号。

PAL制式,扫描的频率是每秒钟50场(奇数场和偶数场各25帧),25帧图像,帧频

25Hz,场频50Hz。

NTSC制式,扫描的频率是每秒钟60场(奇数场和偶数场各30帧),

30帧图像,帧频30Hz,场频60Hz。

隔行扫描的行扫描频率是逐行扫描的一半,将每帧图像分奇数、偶数行分开传输,然后

 

在接收端重组,这样可以降低对带宽的压力。

对于这两个相邻的场,由于是实时拍摄的,所以它们存在时间差(对于PAL/25fps来说,误差就为1/50秒)。

所以隔行扫描在带来传输信道带宽利用率高的同时,图像质量下降也随之而来。

尤其是运动的画面,单独来看的话,运动物体边缘将出现锯齿状——这是隔行扫描所特有的正常现象。

因此,一些在PC机显示器上清晰锐利的“帧”,往往在实际电视屏幕上(隔行扫描)出现严重的抖动或锯齿条纹,专业的影视制作人员应对此特别引起注意,制作过程中尽量采用隔行扫描的监视器同步监看。

由于统一的视频制式工业规范标准,当使用非编卡通过复合口、S—video口或模拟分量在内同步时采集的画面基本是上场优先,外同步和数字信号如SDI则由输入设备决定。

使用1394口采集DV时绝大多数是下场优先。

输出到磁带:

1394口输出DV仍用下场,其他大多用上场,尽量与输入时一致。

制作VCD/DVD:

VCD不带场。

用于PAL电视播出的DVD一般带上场。

PC播放视频:

由于PC显示器都是逐行扫描,所以可以用“无场”。

近年来,随着相关软硬件的不断发展,新兴的数字电视越来越青睐于画质清晰的逐行扫

描方式,有理由相信,在不久的将来,逐行扫描会成为电视制播的主流方式。

 

MPEG压缩方式

MPEG的全称是“MotionPictureExpertGroup”(移动影像专家组),组建于1988年,目的是为传送音频和视频制定标准。

MPEG-1:

广泛地应用在VCD的制作和一些视频片段下载的网络应用上面,可以说

99%的VCD都是用MPEG1格式压缩的。

MPEG1的像质等同于VHS,存储媒体为CD-ROM,图像尺寸320×240,音质等同于CD,比特率为1.5Mbps。

该标准分三个部分:

1.系统:

控制将视频、音频比特流合为统一的比特流。

2.视频:

基于H.261和JPEG。

3.音频:

基于MUSICAM技术。

MPEG-2通常用来为广播信号提供视频和音频编码,包括数字卫星电视、有线电视等。

MPEG-2经过少量修改后,也成为DVD产品的核心技术。

MPEG-2的系统描述部分定义了传输流,它是一套在非可靠介质上传输数字视频信号和音频信号的机制,主要用在广播电视领域。

MPEG-2的第二部分即视频部分和MPEG-1类似,但是它提供对隔行扫描视频显示模式的支持(隔行扫描广泛应用在广播电视领域)。

MPEG-2视频并没有对低比特率(小于1Mbps)进行优化,在3Mbit/s及以上比特率情况下,MPEG-2明显优于MPEG-1。

MPEG-2向后兼容,也即是说,所有符合标准的MPEG-2解码器也能够正常播放MPEG-1视频流。

MPEG-2技术也应用在了HDTV传输系统中。

MPEG-2的第三部分定义了音频压缩标准。

该部分改进了MPEG-1的音频压缩,支持两通道以上的音频。

MPEG-2音频压缩部分也保持了向后兼容的特点。

MPEG-3:

原本针对于HDTV(1920×1080),后来被MPEG-2代替。

我们目前习惯的

MP3,并不是MPEG-3,而是MPEG1layer3,属于MPEG1中的音频部分。

MPEG-4:

MPEG4于1998年11月公布,原预计1999年1月投入使用的国际标准MPEG4不仅是针对一定比特率下的视频、音频编码,更加注重多媒体系统的交互性和灵活性。

MPEG专家组的专家们正在为MPEG-4的制定努力工作。

MPEG-4标准主要应用于视像电话(VideoPhone),视像电子邮件(VideoEmail)和电子新闻(ElectronicNews)等,其传输速率要求较低,在4800-64000bits/sec之间,分辨率为176X144。

MPEG-4利用很窄的

 

带宽,通过帧重建技术,压缩和传输数据,以求以最少的数据获得最佳的图像质量。

与MPEG-1和MPEG-2相比,MPEG-4的特点是其更适于交互AV服务以及远程监控。

MPEG-4是第一个使你由被动变为主动(不再只是观看,允许你加入其中,即有交互性)的动态图像标准;它的另一个特点是其综合性;从根源上说,MPEG-4试图将自然物体与人造物体相溶合(视觉效果意义上的)。

MPEG-4的设计目标还有更广的适应性和可扩展性。

MPEG-7:

于1996年10月开始研究。

确切来讲,MPEG-7并不是一种压缩编码方法,其正规的名字叫做多媒体内容描述接口,其目的是生成一种用来描述多媒体内容的标准,这个标准将对信息含义的解释提供一定的自由度,可以被传送给设备和电脑程序,或者被设备或电脑程序查取。

MPEG-7并不针对某个具体的应用,而是针对被MPEG-7标准化了的图象元素,这些元素将支持尽可能多的各种应用。

建立MPEG-7标准的出发点是依靠众多的参数对图象与声音实现分类,并对它们的数据库实现查询。

MPEG2的编码形式

MPEG-2的编码图像被分为三类,分别称为I帧,P帧和B帧。

I帧(Intra-Frame)是帧内压缩,不使用运动补偿,提供中等的压缩比。

由于I帧不依赖于其他帧,所以是随机存取的入点,同时是解码中的基准帧。

P帧(Predicated-Frame)根据前面的I帧或P帧进行预测,使用运动补偿算法进行压缩,因而压缩比要比I帧高,数据量平均达到I帧的1/3左右。

P帧是对前后的B帧和后继的P帧进行解码的基准帧。

P帧本身是有误差的,如果P帧的前一个基准帧也是P帧,就会造成误差传播。

B帧(Bidirectinal-Frame)是基于内插重建的帧,它基于前后的两个I、P帧或P、P帧,它使用双向预测,数据量平均可以达到I帧的1/9左右。

B帧本身不作为基准,因此可以在提供更高的压缩比的情况下不传播误差。

MPEG-2的编码码流分为六个层次。

为更好地表示编码数据,MPEG-2用句法规定了一个层次性结构。

它分为六层,自上到下分别是:

图像序列层(VideoSequence)、图像组(GOP,GroupofPictures)、图像(Picture)、

宏块条(Slice)、宏块(Macroblock)、块(Block)。

图像组GOP

GOP(GroupofPictures)策略影响编码质量:

所谓GOP,意思是画面组,一个GOP

就是一组连续的画面。

一个GOP由一串IBP帧组成,起始为I帧。

GOP的长度是一个I帧到下一个I帧的间隔,一般用N表示。

这个长度是可变的,长GOP可以提供高的压缩比,但是会造成随机存取的延迟(必须等到下一个I帧)和误差的积累(P帧的误差传播)。

一般是一秒内有两个I帧,用来作为随机存取的入口。

MPEG-2传送流和节目流

 

在MPEG-2系统中,信息复合/分离的过程称为系统复接/分接,由视频、音频的ES流和辅助数据复接生成的用于实际传输的标准信息流称为MPEG-2传送流(TS:

TransportStream)。

根据传输媒体的质量不同,MPEG-2中定义了两种复合信息流:

传送流(TS)和节目流(PS:

ProgramStream)

TS流与PS流的区别在于TS流的包结构是固定长度的,而PS流的包结构是可变长度

的。

PS包与TS包在结构上的这种差异,导致了它们对传输误码具有不同的抵抗能力,因而应用的环境也有所不同。

TS码流由于采用了固定长度的包结构,当传输误码破坏了某一TS包的同步信息时,接收机可在固定的位置检测它后面包中的同步信息,从而恢复同步,避免了信息丢失。

而PS包由于长度是变化的,一旦某一PS包的同步信息丢失,接收机无法确定下一包的同步位置,就会造成失步,导致严重的信息丢失。

因此,在信道环境较为恶劣,传输误码较高时,一般采用TS码流;而在信道环境较好,传输误码较低时,一般采用PS码流。

由于TS码流具有较强的抵抗传输误码的能力,因此目前在传输媒体中进行传输的

MPEG-2码流基本上都采用了TS码流的包格。

JPEG2000编码

JPEG2000是为21世纪准备的压缩标准,它采用改进的压缩技术来提供更高的解像度,其伸缩能力可以为一个文件提供从无损到有损的多种画质和解像选择。

“高压缩、低比特速率”是JPEG2000的目标。

在压缩率相同的情况下,JPEG2000的信噪比将比JPEG提高30%左右。

JPEG2000拥有5种层次的编码形式:

彩色静态画面采用的JPEG编码、2值图像采用的JBIG、低压缩率图像采用JPEGLS等,成为应对各种图像的通用编码方式。

在编码算法上,JPEG2000采用离散小波变换(DWT)和bitplain算术编码(MQcoder)。

JPEG2000作为JPEG的升级版,具有以下特点:

高压缩率:

JPEG2000压缩性能比JPEG提高了30~50%,也就是说,在同样的图像质量下,JPEG2000可以使图像文件的大小比JPEG图像文件小30~50%。

同时,使用JPEG2000的系统稳定性好,运行平稳,抗干扰性好,易于操作。

同时支持有损和无损压缩:

JPEG只支持有损压缩,而JPEG2000能支持无损压缩。

目前,对图像进行无损编码的经典方法——预测法已经发展成熟,并作为一个标准写入了JPEG2000。

实现了渐进传输:

这是JPEG2000一个极其重要的特征,它可以先传输图像的轮廓,然后逐步传输数据,不断提高图像质量,让图像由朦胧到清晰显示,而不必像现在的JPEG那样,由上到下慢慢显示,这在网络传输中有重大意义。

支持“感兴趣区域”:

用户可以任意指定图像上感兴趣区域的压缩质量,还可以选择指定的部分先解压缩,从

而使重点突出。

这种方法的优点在于它结合了接收方对压缩的主观需求,实现了交互式压缩。

汤姆逊草谷公司(ThomsonGrassValley)在其Infinity摄录一体机和演播室录像机中

采用JPEG2000压缩算法独立压缩每一帧,进一步推进了JPEG2000技术在各个方面的发展。

相比较而言,JPEG和MPEG压缩算法在数字照相机、DVD和机顶盒等方面得到了广

 

泛的应用。

JPEG2000目前仅在高端图像处理设备中得到了应用,如数字电影服务器、医疗诊断设备和卫星图片存储系统等。

H.264编码

随着市场的需求,在尽可能低的存储情况下获得好的图像质量和低带宽图像快速传输已成为视频压缩的两大难题。

为此ISO/IEC/和ITU-T两大国际标准化组织联手制定了新一代视频压缩标准H.264,它既是ITU-T的H.264,又是ISO/IEC的MPEG-4的第10部分。

H.264标准压缩系统由视频编码层(VCL)和网络提取层(NetworkAbstractionLayer,NAL)两部分组成。

VCL中包括VCL编码器与VCL解码器,主要功能是视频数据压缩编码和解码;NAL则用于为VCL提供一个与网络无关的统一接口,它负责对视频数据进行封装打包后使其在网络中传送。

在技术上,H.264标准中有多个闪光之处,如统一的VLC符号编码,高精度、多模式的位移估计,基于4块的整数变换、分层的编码语法等。

这些措施使得H.264得算法具有很高的编码效率,在相同的重建图像质量下,能够比H.263节约50%左右的码率。

H.264的码流结构网络适应性强,增加了差错恢复能力,能够很好地适应IP和无线网络的应用。

H.264能以较低的数据速率传送基于联网协议(IP)的视频流,在视频质量、压缩效率和数据包恢复丢失等方面,超越了现有的MPEG-2、MPEG-4和H.26x视频通讯标准,更

适合窄带传输。

AVCHD

2006年5月11日,松下电器(Panasonic)与索尼(Sony)联合向外界宣布:

两公司已经确定高清数字摄像机的AVCHD基本规格,该格式将现有DVD架构(即8cmDVD光盘和红光)与一款基于MPEG-4AVC/H.264先进压缩技术的编解码器整合在一起。

H.264是广泛使用在高清DVD和下一代蓝光光盘格式中的压缩技术。

由于AVCHD格式仅用于用户自己生成视频节目,因此AVCHD的制订者避免了复杂的版权保护问题。

 

 

AVC-Intra

AVC-Intra是Panasonic公司发布的完全符合H.264/MPEG-4AVC,用于高清摄像机和P2卡的编码方式。

AVC-intra的技术特点:

1、基于最新的H.264技术的高效率压缩方式效率是原压缩方式的2倍;

可选择高画质的100M模式或经济型的50M模式;

2、适合广播电视专业制作的帧内压缩方式以帧为单位的稳定的画质,受被摄物与场景的变化影响小;以帧为单位编辑时无画质劣化现象;

3、100M模式完全符合HD演播室规格标准水平1920像素的HD全像素取样;

最适合对素材图像的复杂编辑与处理;

 

附录II自定义Xplode3d模型

Xplode3dObjects滤镜可以将3D对象作为转场元素,引入到我们的视频中去(参数详见本书第四章)。

可是仅仅凭滤镜自带的几种骰子、飞机等模型是远远不能满足我们制作需求的,那么怎样才能导入我们自己制作的模型呢?

在第四章中我们曾提到过:

在滤镜的Object属性页能够载入自定义模型,不过格式仅限于x3d文件,那么如何得到这种特殊格式的模型呢?

下面我们就来使用3dsmax软件制作一个模型并导入EDIUS。

附录2-1

为方便起见,这里我们仅制作一个简单的模型。

需要说明的是该模型已经转化为Polygon物体,并且划分了面ID。

为其中某些面指定贴图纹理,以及不同的ID材质(图中示意为红、蓝)。

附录2-2

现在你可以为其指定动画,当然,Xplode只能够支持简单的位移、旋转和缩放动画。

我们为它设置一个简单的原地旋转动画。

附录2-3

 

在输出之前,非常重要的一件事就是定位摄像机。

因为在Xplode中是无法浏览三维空间的,其默认状态下的摄像机位置是固定的,所以我们必须知道这个摄像机在哪里,否则极有可能导出模型后,该模型太大、太小或者处于我们看不到的位置上。

在前视图创建一个Free自由摄像机,正对我们的模型。

附录2-4

将摄像机的y坐标设置为-1500(3dsmax默认单位设置)。

下图是摄像机在顶视图中的位置。

附录2-5

切换到摄像机视图,此时我们看到的场景就是Xplode摄像机看到的场景。

将模型调整到需要的大小和位置。

附录2-6

选择File——Export选项将其输出成.3DS文件。

 

附录2-7

使用Canopus3dstox3dCompiler工具将其转换为x3d文件。

点击Compile按钮载入模型文件即可。

若没有错误发生,则如图附录2-8所示。

附录2-8

打开EDIUS,在Xplode3DObject的Object属性页中载入我们的模型文件。

附录2-9

此时播放窗口即可看到导入的模型文件了。

附录2-10

 

除此以外,还支持:

1.材质面板中:

漫反射(diffuse)、环境光(ambient)、自发光(self-illumination)、透明度(opacity)、双面(two-sided)、镜面高光(specular)参数;

2.最多支持8个点灯(omni),及其颜色和强度参数;

3.层级物体及成组物体;

4.物体或组的轴心。

注意:

Xplode3DObject有以下限制:

1.物体不能多于65553个顶点;

2.物体的任一轴向缩放值不能为-1,或者使用镜像工具;

3.纹理重复(Texturetiling);

4.使用凹凸、反射及透明贴图;

5.纹理必须为24-bitBMP文件;

6.贴图影响必须为100%(Textureamount);

7.纹理不能经过旋转、裁切等在材质面板的参数指定,如有需要请使用UVWMap;

8.如果需要正确显示纹理的颜色,请将漫反射设为白色,环境色设为中性灰;

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 幼儿教育 > 唐诗宋词

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1