多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx

上传人:b****8 文档编号:22670363 上传时间:2023-02-05 格式:DOCX 页数:22 大小:31.91KB
下载 相关 举报
多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx_第1页
第1页 / 共22页
多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx_第2页
第2页 / 共22页
多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx_第3页
第3页 / 共22页
多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx_第4页
第4页 / 共22页
多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx_第5页
第5页 / 共22页
点击查看更多>>
下载资源
资源描述

多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx

《多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx》由会员分享,可在线阅读,更多相关《多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx(22页珍藏版)》请在冰豆网上搜索。

多媒体视频会议中的音视频矩阵的设计要点大全五篇修改版文档格式.docx

1)可以根据使用的需要,在不同的显示终端上同时显示相同或不同的视频源内容

2)可以将摄像机、影碟机、录像机、有线电视、电视会议等各种视频信号进行方便快捷的处理和调用

3)管理员可以独立监视任意一路视频信号,但不会影响其他终端显示的内容和效果

4)管理员可以对任意视频信号进行录像,但不会影响其他终端显示的内容和效果

5)管理员可以将任意一路视频信号送往会议终端或其他分会场,但不会影响其他端口显示内容和效果

与BGBHV矩阵一样,设计一个视频矩阵的基本原则也是根据信号源和显示终端数量的多少以决定矩阵的通道数,由于矩阵规格的差异(通道数的多少)在价格上的体现非常明显,在预算一定的情况下,使选择一个矩阵的通道数也会变得比较敏感,对于以后的扩展也是一个考验。

除此之外,下面叙述的几个问题也是作为器材选型需要考虑的因素。

2.视频信号的带宽

复合视频信号根据制式的不同,信号的带宽也有一定的差异,见下表。

由于复合视频的传输带宽相对比较窄,目前在系统设计中并不是一个主要的考虑因素。

3.-3dB衰减点

视频信号在理想效果内的传输带宽范围或传输距离称为-3dB点,也称为1/2功率衰减点。

在-3dB点范围内,信号不会在处理或传输的过程中产生严重损失,任何有信号输入输出的器材都会存在带宽的限制,视频信号平坦的频率响应在-3dB点之前,同时还要注意所选择的器材带宽是否在“满负载(FullyLoaded)”的状态测试。

因为有很多品牌的标称参数是在“点对点”的状态下测试,当系统在满负载下运行时,传输带宽会大打折扣,这种标称的参数就显得没有任何意义。

4.视频信号的线性失真

由于系统特性而产生的失真,与信号本身幅度无关,输出信号与输入信号之间保持线性关系,公式U2=KU1,其中U2代表输出信号,K代表传输函数(频率或时间函数),U1代表输入信号。

系统幅频特性和相频特性不均匀,是由于电路中存在电抗性元件及各种分布参量引起。

5.视频信号的非线性失真

信号在传输中引起的失真与被传输信号本身的幅度有关时,这种失真称非线性失真,输出输入信号之间已经不是简单的线性关系。

公式:

U2=K(U1)U1,传输函数K(U1)不仅是频率或时间的函数,而且是输入信号的函数。

非线性失真由非线性元器件引起,它们的参数随作用于它们的信号电平而变化(受信号电平大小影响)。

传输系统的非线性与信号动态范围有关,失真的范围很广,从信号成分大致分为如下内容:

·

亮度信号的非线性失真

色度增益的非线性失真

色度相位的非线性失真

色度、亮度的交调失真

微分增益失真

微分相位失真

同步信号静态非线性失真

同步信号动态非线性失真6.行时间波形失真

反映行频至500KHz的中频失真,代表图像中较大尺寸内容在水平方向的亮度变化,中频失真会造成图像沿水平方向界限不清,严重时造成水平方向拖尾,有点类似RGBHV信号的“低频响应不良”故障。

7.色度/亮度增益差

输出信号亮度分量和色度分量幅度比与输入信号幅度比的改变称为色度/亮度增益差,由于通道对色度分量和亮度分量的放大不一致造成。

色饱和度失真,类似色饱和度调节不当,增益差为负时,图像色彩变淡、人物神色不佳;

增益差为负时,颜色过浓、轮廓不分明,类似浓重的填色画,缺乏真实感。

8.亮度非线性

当平均图像电平为某一定值时,将起始电平从消隐电平逐步增加到白电平的小幅度阶跃,信号加至通道输入端、输出端相应各阶跃幅度比值间的最大差值。

亮度非线性会造成图像失去灰度、层次减少、分辨率降低(由于色度信号是迭加在

亮度信号上),产生色饱和度失真。

亮度非线性由元器件的非线性造成:

工作点不对,输入幅度过大。

9.微分增益失真

由于图像亮度信号幅度变化引起色度信号幅度的失真称为微分增益失真,不同亮度背景下的色饱和度失真,影响彩色效果(如穿鲜红衣服从暗处走向亮处,鲜红衣服变浓或变淡)。

GY/T107-92(电视播控系统视频运行指标)甲级标准规定微分增益失真±

0.2°

,目前具备良好性能的视频矩阵都会控制在±

0.1°

10.微分相位失真

由于图像亮度信号幅度变化引起色度信号相位的失真称为微分相位失真,不同亮度背景下色调产生失真,会造成某种颜色变成其他颜色(如穿鲜红衣服从暗处走到亮处,鲜红衣服会偏黄或偏紫)。

在NTSC系统中,彩色信号矢量角的变化代表了色调的变化,所以微分相位对信号的影响是很严重的。

而PAL系统因为采用了逐行倒相技术,所以自身补偿作用使得用色饱和度的变化代替了色调的变化。

总的来说,微分相位是用来描述亮度信号的幅度变化对彩色色调影响的一个参数。

GY/T107-92(电视播控系统视频运行指标)甲级标准规定微分相位失真±

0.2%,目前具备良好性能的视频矩阵都会控制在±

0.1%。

11.微分失真的原因

色度信号4.43MHz±

1.3M处在视频高端,容易受通道中分布参量影响:

工作点的不正确对结电容影响大,从而影响传输通道的阻抗参量。

控制微分相位失真和微分增益失真,需要保证传输通道中视频放大器和视频处理单

元,要有足够大的动态范围,改善传输通道的幅频特性和相频特性,严格控制元器件分布参量的影响。

12.色度/亮度交调失真

把规定幅度的色度信号迭加在恒定幅度的亮度信号上并加至通道的输入端,而平均图像电平保持在某一特定值时,输出端由于迭加的色度信号而引起亮度信号幅度的变化称为色度/亮度交调失真。

在彩色信号中,色度信号是迭加在亮度信号上的,由于系统非线性存在,会使色度信号的正负半周失去对称性,相当于产生了一个直流分量(轴移),它使亮度信号出现非线性幅度失真,失真大小随副载波幅度变化,是微分相位增益的逆过程。

图像出现彩色字幕时,失真较明显,彩色字幕相对应的背景亮度上的对比度产生失真。

13.随机信噪比

随机信噪比指整个频谱上的杂波,但是高频的杂波干扰在图像上表现的是细小的微粒,人眼不易察觉,因此加上一加权网络,使干扰的情况符合人眼观看的实际状况,称为随机信噪比的加权。

14.周期信噪比

周期信噪比来自电源干扰:

1KHz以内交流声及其谐波的干扰,原因是稳压电源纹波系数大、空间交流电磁场感应、接地不良或地线布置不合理(接地点地电位不同引起的共模干扰)、箝位电路不良造成。

周期噪音会造成静止或滚动黑条、黑带,严重时垂直方向图像扭动,破坏同步。

第二篇:

directshow采集多媒体音视频同步

随着计算机网络和多媒体技术的发展,多媒体应用如视频会议、远程监控、远程教育、可视电话、医疗视频会诊等迅速兴起,视频和音频捕获成为多媒体应用中的关键环节和重要前提。

目前采用较多的基于设备软件开发工具箱(SDK)的捕获方式存在成本较高、灵活性和扩展性较差等问题,难以满足用户需求和网络环境的变化。

微软公司推出的多媒体开发软件包———DirectShow成为解决这些问题的一个有力工具。

DirectShow提供高质量的多媒体数据流的捕获和回放功能,广泛支持多种媒体格式,包括ASF、MPEG、AVI、DV、MP3和WAV等。

同时DirectShow对VFW具有良好的兼容性,并具有其无法比拟的优势,包括支持大量多媒体数据捕获的同时可通过网络传播和播放,支持视频与音频在捕获和播放中的完全同步,支持来自不同媒体源数据捕获的合成等。

本文着重介绍如何利用VisualC++实现基于DirectShow的视频和音频捕获以及其中涉及到的关键问题,以供工程人员和开发人员参考使用。

DirectShow的原理

1、DirectShow的体系结构。

应用程序与DirectShow组件以及DirectShow所支持的软硬件之间的关系如图1所示。

DirectShow使用模块化的架构,系统中的基础模块称为过滤器(Filter)。

过滤器作为软件的组件,可完成单一的数据流处理功能。

按照功能,过滤器大致分为3类:

源过滤器(SourceFilter)、转换过滤器(TransformFilter)和表现过滤器(RenderingFilter)。

源过滤器负责从媒体源获取数据;

转换过滤器负责数据的格式转换、传输,如数据流分离/合成、编码/解码等;

表现过滤器负责数据的最终去向,将数据送往显卡和声卡进行播放,或输出到文件进行存储。

过滤器之间通过引脚(Pin)进行有序连接,组合而成过滤器图(FilterGraph),用以实现组合的一系列功能。

应用程序创建过滤器图管理器(FilterGraphManager),负责过滤器图的组织和连接功能并控制数据在其中的流动。

为了提高系统的稳定性,Windows操作系统对硬件操作进行了隔离;

应用程序一般不能直接访问硬件。

过滤器工作在用户模式(Usermode,操作系统特权级别为Ring3),而硬件工作在内核模式(Kernelmode,操作系统特权级别为Ring0)。

2、DirectShow的开发方法。

开发DirectShow应用程序,主要有以下三个基本步骤:

(1)调用CoCreateInstance函数,创建一个过滤器图管理器组件;

(2)根据项目实际需求,构建一条完整的过滤器链路(也可应用其它的DirectShow帮助组件来完成过滤器图的构建);

(3)调用过滤器图管理器上的接口方法来控制过滤器图,并完成过滤器图管理器与应用程序的事件交互。

DirectShow技术建立在COM(ComponentObjectModel)技术基础上,所有部件和功能都可由COM接口来构建和实现。

过滤器图管理器的重要COM接口包括:

IGraphBuilder:

用于创建过滤器图。

IMediaControl:

用于控制媒体流在过滤器图中的传输。

IMediaEventEx:

用于控制过滤器图的事件。

IVideoWindow:

用于设置多媒体播放窗口的属性。

IBasicAudio:

用于控制音频特性。

IBasicVideo:

用于控制视频特性。

IMediaPosition:

用于查找和定位数据流。

IPin:

用于管理两个过滤器之间的引脚,从而连接过滤器。

另外,由于直接使用IGraphBuilder接口构建视频和音频捕获过滤器图比较复杂,

DirectShow提供了辅助组件———捕获图构建器(CaptureGraphBuilder),通过调用其IcaptureGraphBuilder2的接口方法,可以简便地完成过滤器图的构建和控制。

基于DirectShow视频和音频捕获的实现

1、编译环境的设置。

安装MicrosoftDirectXSDK后,需要设置VC编译环境。

包括:

(1)在VC系统目录中添加DirectXSDK的Include和Lib目录;

(2)创建工程,选择Win32动态库;

(3)选择_stdcall函数调用协议;

(4)添加已编译基类源代码生成的库Strmbase.lib(发布版)或Strmbasd.lib(调试版)。

2、过滤器图的构建设计。

捕获系统需要实现的功能:

从视频采集设备和音频采集设备实时获取数据流,预览视频和监听音频,并将视频流与音频流合成后存储。

设计如图2所示的过滤器图,各个过滤器组件功能:

VideoCapture和AudioCapture分别负责实时捕获视频和音频;

VideoRenderer将视频流送往显卡进行视频预览;

SmartTee负责音频流的分流;

AVIMuxer将视频流与音频流合成AVI流,FileWriter将合成后数据存储在硬盘;

AudioRenderer将数据送往声卡进行音频播放。

需要说明的是,一般视频捕获器提供有预览和捕获两个输出引脚,而音频捕获器只有捕获输出引脚。

对于只有捕获输出引脚的视频捕获器也可使用插入SmartTee的方法实现数据分流。

3、程序实现。

在这一部分,分析和说明捕获功能的实现步骤,并给出核心代码:

(1)创建过滤器图管理器组件。

CoInitialize(NULL);

//初始化COM库

//创建过滤器图管理器

IGraphBuilder*pGraphBuilder;

CoCreateInstance(CLSID_FilterGraph,NULL,

CLSCTX_INPROC_SERVER,IID_IGraphBuilder,(void**)&

pGraphBuilder);

//创建捕获图构建器

ICaptureGraphBuilder2*pCapGraphBuilder;

CoCreateInstance(CLSID_CaptureGraphBuilder2,NULL,

CLSCTX_INPROC_SERVER,IID_ICaptureGraphBuilder2,(void**)&

pCapGraphBuilder);

pCapGraphBuilder->

SetFiltergraph(pGraphBuilder);

//添加捕获图构建器到管理器中//获得有用接口

IMediaControl*pControl;

IMediaEventEx*pEventEx;

pGraphBuilder->

QueryInterface(IID_IMediaControl,(void**)&

pControl);

QueryInterface(IID_ImediaEventEx,(void**)&

pEventEx);

(2)创建捕获过滤器。

//枚举采集设备

ICreateDevEnum*pCreateDevEnum=NULL;

CoCreateInstance(CLSID_SystemDeviceEnum,NULL,

CLSCTX_INPROC_SERVER,IID_ICreateDevEnum,(void**)&

pCreateDevEnum);

//创建设备枚举器

IEnumMoniker*pVideoEnumMoniker=NULL;

pCreateDevEnum->

CreateClassEnumerator(CLSID_VideoInputDeviceCategory,&

pVideoEnumMoniker,0);

//指定类型目录

/*以枚举视频设备为例。

枚举音频设备与此类似,代表音频采集的过滤器注册为CLSID_AudioInputDeviceCategory类型*/

IMoniker*pVideoMoniker=NULL;

IPropertyBag*pVideoPropBag;

pVideoMoniker->

BindToStorage(0,0,IID_IPropertyBag,

(void**)(&

pVideoPropBag));

//枚举设备标识

VARIANTvarVideoName;

VariantInit(&

varVideoName);

pVideoPropBag->

Read(L"

VideoFriendName"

&

varVideoName,0);

//取得设备的友好名称

//创建VideoCapture过滤器

IBaseFilter*pVideoCap;

pVideoMoniker->

BindToObject(0,0,IID_IbaseFilter,(void**)&

pVideoCap);

//添加VideoCapture过滤器到过滤器图

AddFilter(pVideoCap,L"

VideoCaptureFilter"

);

(3)构建其它过滤器,并加入过滤器图。

/*ICaptureGraphBuilder2提供了RenderStream函数,可以自动构建SmartTee和Renderer过滤器,并将它们连接成一个完整的过滤器图。

如果Capture过滤器既有预览引脚又有捕获引脚,那么RenderStream将两个引脚和Render过滤器连接;

如果Caprture过滤器只有捕获引脚,那么捕获图构建器自动插入SmartTee过滤器将视频流或音频流分流,并完成过滤器之间的连接。

*/

//构建视频预览的过滤器链路

//

RenderStream

(&

PIN_CATEGORY_PREVIEW,&

MEDIATYPE_Video,pVideoCap,NULL,NULL);

//构建音频监听的过滤器链路

IBaseFilter*pAudioCap;

MEDIATYPE_Audio,pAudioCap,NULL,NULL);

//构建视音频合成并保存文件过滤器链路

/*SetOutputFileName函数会自动创建AVIMuxer过滤器和FileWriter过滤器,并且将这两个过滤器添加到过滤器图中。

IBaseFilter*pMux;

SetOutputFileName

MEDIASUBTYPE_Avi,L"

C:

\\Capture.avi"

&

pMux,NULL);

//连接捕获器和AVIMuxer过滤器

PIN_CATEGORY_CAPTURE,&

MEDIATYPE_Video,pVideoCap,NULL,pMux);

MEDIATYPE_Audio,pAudioCap,NULL,pMux);

//设置音频流为主流

IConfigAviMux*pConfigAviMux;

pMux->

QueryInterface(IID_IConfigAviMux,(void**)&

pConfigAviMux);

pConfigAviMux->

SetMasterStream

(1);

(4)控制过滤器图

pControl->

Run();

//开始捕获

Pause();

//暂停

Stop();

//停止捕获

结束语

DirectShow提供了开放式的开发环境,模块化的管理结构,及对媒体格式和硬件的广泛支持,使得在Windows平台上捕获和处理多媒体数据流变得简单而高效。

本文探讨了利用VC++基于DirectShow捕获多媒体数据流的实现方法,为此方法基础上实现的流媒体捕获系统成本较低,捕获质量良好,解决了基于设备SDK和VFW的捕获方式中存在的硬件通用性差、不易实现功能修改和扩展等问题,此方法也为后续的流媒体处理研究和实现提供了

有益的参考,在多媒体应用开发方面具有广阔的前景。

第三篇:

《多媒体作品中的动画、视频(多媒体技术应用)》教学设计

《多媒体作品中的动画、视频(多媒体技术应用)》教学设计

【本章节课程标准】

通过本模块的学习,学生应该在亲身体验的过程中认识多媒体技术对人类生活、社会发展的影响;

学会对不同来源的媒体素材进行甄别和选择;

初步了解多媒体信息采集、加工原理,掌握应用多媒体技术促进交流并解决实际问题的思想与方法;

初步具备根据主题表达的要求,规划、设计与制作多媒体作品的能力。

【内容分析】

本节内容包括“动画、视频的视觉特征”、“动画、视频在表达思想上的特点”、“动画、视频的选择”三个内容。

重点是后两个内容,通过对这两个内容的理解,体会如何去应用动画、视频来表达思想。

难点是第二个内容,因为动画、视频在思想表达上很难用一个准确的定义来表示,我们只能通过几个实例的分析来帮助学生理解,以达到正确地应用。

最终达到本节课的教学目的。

【学情分析】

学生通过初中和高一对信息技术课的学习,学生对电脑的的操作有了一定的基础,了解了多媒体是什么,对幻灯片的制作是有一定基础的。

这样对于我们这节课来说,虽然学生在基础上存在差异,但在教师的指导下学生应该还是易理解和接受的。

【教学目标】(1)知识技能与过程方面:

通过幻灯片“小熊眼睛转动”的制作和几部多媒体作品的观察,理解动画、视频的视觉特征;

揭示动画、视频信息在表达主题中的作用特点;

能根据主题和表达目标的需求选择动画、视频。

(2)在方法和思想方面:

明确运用动画、视频信息能够更好地表达事物的变化过程的思想。

(3)在情感态度和价值观方面:

希望培养学生客观分析计算机动画、视频在表达主题中的效果与特点,主观的根据所要表达主题信息的意思,学会选择动画、视频工具,合理运用动画、视频信息的能力。

【教学重点和难点】

根据教学大纲提及的难易级别和掌握程度设置教学重点和教学难点:

1、教学重点:

①动画的制作原理

②动画、视频在表达思想上的特点③动画、视频的选择

2、教学难点

理解和体会动画、视频在表达思想上的特点【教学方法和策略】

1、教学方法

演示教学法、问题教学法、讨论法、读书指导法:

对比法:

启发式教学

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高中教育 > 小学教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1