全景媒体OMAFVR的系统架构研究综述Word文件下载.docx

上传人:b****8 文档编号:22888323 上传时间:2023-02-05 格式:DOCX 页数:11 大小:25.23KB
下载 相关 举报
全景媒体OMAFVR的系统架构研究综述Word文件下载.docx_第1页
第1页 / 共11页
全景媒体OMAFVR的系统架构研究综述Word文件下载.docx_第2页
第2页 / 共11页
全景媒体OMAFVR的系统架构研究综述Word文件下载.docx_第3页
第3页 / 共11页
全景媒体OMAFVR的系统架构研究综述Word文件下载.docx_第4页
第4页 / 共11页
全景媒体OMAFVR的系统架构研究综述Word文件下载.docx_第5页
第5页 / 共11页
点击查看更多>>
下载资源
资源描述

全景媒体OMAFVR的系统架构研究综述Word文件下载.docx

《全景媒体OMAFVR的系统架构研究综述Word文件下载.docx》由会员分享,可在线阅读,更多相关《全景媒体OMAFVR的系统架构研究综述Word文件下载.docx(11页珍藏版)》请在冰豆网上搜索。

全景媒体OMAFVR的系统架构研究综述Word文件下载.docx

其次,全景媒体庞大的数据传输与计算给传输带宽和终端的解码能力提出了巨大的挑战;

此外,端到端的时延也是一个影响用户体验的关键参数。

目前,市场上出现的虚拟现实产品标准不一,需要新的行业标准的约束。

因此,为了将VR技术扩展到更广泛的市场,需要定义一种通用的应用架构标准,可以在不同的VR设备之间进展全景视频的存储、管理、交换、编辑和呈现。

2全景媒体应用的开展与演进

OMAF〔omnidirectionalmediaapplicationformat,全景媒体的应用格式〕最先由MPEG〔movingpicturee*pertsgroup,动态图像专家组〕组织在2021年10月的113届MPEG会议上提出,它提出的重要意义在于它为VR系统的输入输出接口设定了标准,便于扩展到科学研究和商业领域。

此后,很多公司如高通、三星、诺基亚等以及国外各大高校纷纷参与制定标准的队伍中。

与传统平面媒体相比,全景视频在视频获取到播放的过程中,容易形成"

碎片化〞。

全景媒体的"

碎片化〞,是由于在视频容上的空间分块以及端到端的应用设备的性能不统一性造成的,而MPEG组织建立OMAF标准,正是为了防止和改善全景媒体在容和应用设备上的碎片化。

首先,OMAF框架可用于将360度视频与二维图像帧相互转换的映射和渲染;

其次,在根本文件格式的根底上,扩大和丰富了VR视频存储功能和相关信令的定义;

此外,在框架上还增加了动态自适应流的封装和传输;

同时它针对全景媒体流提出了更高要求的压缩编码性能。

MPEG组织在2021年底就初步形成了较为粗略的应用框图,涵盖了图像拼接和映射、视频编解码以及视频在球面的渲染模块。

2021年6月,Byeongdoo等人在各种MPEG会议的提案根底上,对OMAF可支持的映射方式进展了比拟和归纳。

在编码方面,Ridge等人提出了下一代VR编码的趋势,对编解码器的实际应用提出了挑战性的需求。

在存储方面,Wang等人提出了一个支持存储全景媒体容的文件格式的标准,定义了多个VR相关的BO*类型。

在传输方面,Franck等人提出了一个新的DASH〔dynamicadaptivestreamingoverHTTP,基于HTTP的动态自适应流〕描述符来帮助DASH客户端利用和管理VR容。

图1所示为OMAF标准草案的一个开展阶段路线图,从目前的研究趋势可以看出,从2021年1月开场就有成规体系的关于OMAF框架的MPEG会议输出文档。

图1OMAF标准草案的开展阶段路线图

图2所示为关于MPEGOMAF的未来开展路线图。

从图2中可以看到,在2021年底,三自由度的全景VR系统架构的标准制定完毕,到2021年底,六自由度全景VR系统也将会发布,届时对编解码、传输、文件格式等有全新的标准支持。

图2MPEG组织的OMAF标准未来开展路线图

关于全景媒体应用的架构,AVS〔audiovideocodingstandard,数字音视频编解码技术标准〕工作组在2021年下半年也启动了VR全景视频应用工作方案,其任务和目标着重围绕视频编码和传输,定义全景视频紧凑表示方法和编码工具以及系统传输标准,提升全景视频压缩效率。

在第一阶段〔2021年底—2021年3月〕,AVS组织致力于研究全景视频编码与现有平面视频编码标准的兼容性;

在第二阶段〔2021年3月—2021年3月〕,AVS组织将重点放在定义新的全景视频编码工具上;

在第三阶段〔2021年3月—2021年3月〕,AVS组织将实现六自由度全景视频的编码。

目前,AVS组织在第一阶段定义了10种不同的高效映射模型,面向不同的应用场景,且将主流平面视频编码标准应用到全景视频编码中来。

IEEE虚拟现实与增强现实标准工作组正在制定八项标准〔IEEEP.2048〕,其中涉及全景多媒体架构的包括沉浸式视频分类和质量标准及沉浸式视频文件和流格式这两个标准。

截至2021年4月,全球共有接近200个企业和机构的专家参与该标准的制定工作,成为VR标准化的主要推动力量。

3全景媒体的应用架构

全景媒体架构对于编解码、封装、传输等提出了更高的性能要求。

同时在应用需求上,还需要映射和渲染模块的支持。

由于全景媒体的交互性特点,观看者视角也需考虑进入整体架构中。

这些性能与应用上的需求构成了全景媒体架构的关键元素,基于这些思想,各大组织和企业在研究和开展中,形成了逐渐完善的、更为细化的架构。

3.1MPEGOMAF下的全景应用框架

为了支持全景媒体的应用,基于OMAF的全景媒体的系统框架应运而生,如图3所示。

图3中实线表示音视频的数据流向,虚线表示OMAF和用户视角的信令流向。

在客户端的模块均受视角信令的控制,表达出OMAF框架的用户交互性;

另一方面,全景媒体的映射等信息也通过OMAF信令在封装和渲染模块之间传递。

对于全景媒体应用的各个模块,MPEG组织经过不断地研究和讨论,提出了丰富的解决思路和算法。

图3基于OMAF的全景媒体的系统框架

3.1.1全景媒体的获取

对于全景视频的采集,理论上可以通过7维全光函数来实现。

而全光函数所要求的信息量过大,采集、传输和显示等技术问题短期难以获得突破。

全景视频是全光函数的近似,它将7维表达简化到4维。

早期的全景成像系统使用的是兼有反射折射作用的摄像机,但由于其构造特点,在相机顶部会存在盲区,无法捕获高质量高分辨率的全景视频。

目前,较为常用的全景媒体获取的方法是使用包含具有重叠视野的多个鱼眼相机组成的系统。

在MPEG第115次会议上,高通和LG公司提出鱼眼相机视频相关的文件格式语法和语义,在MPEG的OMAF标准中,鱼眼相机的两个有关拼接和渲染的参数——光学变形校正和镜头阴影补偿,被纳入了OMAF的信令中,以提高图像渲染的质量。

3.1.2映射格式

自2021年开场,对映射方式的讨论和研究一直很有关注度,先后有十几种不同的映射构造被提出。

图4所示为经纬图模型映射变换的原理。

图4经纬图模型映射变换的原理

由于映射方式的多样性,在MPEG第116次会议上提出,映射格式需要通过相应测试标准,才可以被OMAF框架最终采用。

在2021年4月的第118次MPEG会议上,公布了8种常用的映射格式,如图5所示。

这些映射格式可以分为两种:

视角依赖的映射格式和视角不依赖的映射格式。

图5两种分类的映射格式

视角依赖的映射构造能获取当前用户视角,并且将视角区域以高分辨率投影到二维平面,其余背景区域则以较低分辨率进展映射变换,这样能够在同等带宽的情况下,提高视角区域的观看质量。

但由于视角依赖的映射构造需要从网络上交互式地获取视点的数据,可能由于网络时延导致视野数据更新不及时,从而导致用户观看的延时。

视角不依赖的映射构造不受视角信息的控制,其映射变换构造较为简单,无需获知视角围的数据。

3.1.3编解码方案

目前,传统视频编码技术对全景视频仍然有效,新一代视频编码标准〔H.266〕预期能适度减少一半视频码率,可局部缓解全景视频传输的带宽压力。

然而,不同于传统视频,全景视频有其画面的独特性,针对这些特点,一些创新的编码优化思想应运而生。

Madhukar在2021年提出在编码之前参加区域自适应的平滑模块,解决经纬图模型映射导致两级区域过采样问题,节省大量码率。

同年,Jin等人提出了一种扭曲运动补偿方法来解决鱼眼镜头拍摄造成的运动变形。

在2021年4月,MPEG组织提出了适用于全景视频的几种基于视角的编解码方案,如子图像多流编解码法、感兴趣区域增强层法、同分辨率HEVC〔highefficiencyvideocoding,高效视频编码〕分块编码法。

同分辨率HEVC分块编码法是基于运动约束分块集〔MCTS〕的编码方法,是将HEVC流按照一样分辨率进展不同质量〔假设红色为高质量,黑色为低质量〕和比特率的编码,并在接收端根据视角信息解码产生混合质量的图像,如图6所示。

图6一样分辨率HEVC序列法流程

基于视角的全景视频分块编解码能够在固定带宽情况下,根据观看质量合理地分配分辨率和码率,有效地契合了全景视频的特点,提升了终端用户的观看体验。

3.1.4传输机制

在传输中,全景视频的超大分辨率对于带宽和实时性的要求提出了高难度的挑战。

在OMAF标准中,提出了两套传输方案:

DASH方案和MMT〔MPEGmediatransport,MPEG媒体传输〕方案。

在全景视频中,根据用户视角进展动态切换主视点码流,则能去除"

视角〞冗余,减少带宽压力。

应用于OMAF中的DASH方案传承其根本思想,它通过牺牲存储空间来提高带宽利用率。

在这一方案中,在DASH效劳器上,每个视角都存储多份不同码率的视频流,同一时刻根据客户端的视角信息来传输较高码率的主视角切片流和较低码率的其他视角切片流,是码率和视角自适应的动态流传输技术,它的技术框架如图7所示。

图7OMAF中的DASH自适应动态流传输框架

基于分块以及视角切换等思想,传输方案的设计和编解码方案一脉相承[18]。

例如图6所示的HEVC运动约束分块集〔MCTS〕法,在编码端将全景图像划分为多个分块,且编码为不同质量的码流,根据用户视角信息在网络传输中动态切换不同分辨率和码流的媒体流,并在解码端组合成高质量主视角和低质量背景的混合图像。

除此之外,在OMAF中,还提出了使用SRD〔spatialrelationshipdescriptor,空间关系描述符〕来进展基于用户视角的流式传输。

另一种传输方案MMT也可作为OMAF应用架构传输模块的候选。

MMT和DASH同是MPEG组织标准下的传输协议,二者除了传输架构不同之外,在OMAF架构下,MMT与DASH方案一样,在全景视频的传输中,需要根据当前视角方向,传递全景视频的主视角流,可以根据客户端指定当前视口,也可由发送端的效劳器来选择。

在传输系统设计中,需要兼并权衡存储、带宽、时延等各因素最大化用户体验和空间、带宽利用率。

目前,已经有学者通过优化空间分块的动态流传输方式来提升全景媒体应用中的用户主观质量感受。

3.1.5存储格式

为了在根本文件格式中支持OMAF作为媒体存储和封装格式的应用,目前主流的实现方案是在根本文件的根底上增加多个视频track,并在track层次上,添加更多VR信息来支持OMAF这一格式。

为了在track层次来表达VR视频的信息,Wang等人[3]提出后解码需求机制,它是通过对方案信息bo*〔schemeinformationbo*〕息的添加和修改来加以实现的。

OMAF标准在原有的根本文件格式标准根底上,参加了映射、打包和鱼眼视频等相关bo*的表达,有关OMAF的新增信息如图8所示。

其中,POVD〔projectedomnidirectionalvideobo*,映射全景视频bo*〕中有许多映射方式的信息,例如映射构造、方向等视频信息;

FOVD〔fisheyeomnidirectionalvideobo*,鱼眼全景视频bo*〕包含了鱼眼全景视频的参数信息,且用于指示视频轨道中的样本包含了由鱼眼相机捕获的图像信息;

RWPK〔region-wisepackingbo*,区域打包bo*〕包含了视频帧的宽高信息,并且表示图像映射后通过了区域打包模块,并且需要在渲染之前进展解包处理。

其中,在POVD部,PROR〔projectionorientationbo*,映射方向bo*〕包含了映射模型的坐标系方向信息,如方向角度、偏转信息;

COVI〔coverageinformationbo*,覆盖信息bo*〕可以根据POVD的信息以及映射的视频帧信息来表征全景球体外表的相关参数与信息,假设POVD中不包含COVI,则指示映射的视频帧可用于表示整个球面。

图8OMAF在方案信息bo*中的新增信息

除了参加全景媒体的相关bo*的表达,在OMAF的文件存储格式领域,还有一些目前正在研究的技术,例如,子图像的多路track技术和区域视频质量排名技术等。

3.2Facebook全景媒体应用方案

VR技术是目前最受关注的前沿科技之一,受到了各家互联网公司的青睐,越来越多的大型科技公司开场涉足VR领域。

无论是VR社交还是VR游戏,这些仅仅是Facebook的VR展现形式而已,而支撑VR应用的核心是一个支持全景媒体的数字通信架构。

这与MPEGOMAF架构类似,Facebook在全景媒体的应用架构中从媒体获取到渲染播放端的关键技术如图9所示。

图9Facebook的全景视频关键技术示意

3.2.1基于Surround360相机的视频获取与拼接

全景媒体应用框架的输入是对360视频的获取模块,Facebook在2021年发布了Surround360摄像机,并且将硬件设计和图像拼接代码开源到网上。

Surround360由环绕360度的17台摄像机组成,它将拍摄到的多路视频进展拼接,并将其转换成适合于VR观看的立体360全景。

在拼接模块,Surround360采用了基于光流的算法,用光流来计算左右眼立体视差,对左眼和右眼分别合成对应视角方向的虚拟摄像机的新视图,然后再将左右眼的视图重新组合。

这种方法可以捕捉场景的运动,以到达远胜于普通拼接的无缝立体效果,拼接后的输出可为每只眼睛提供最大8KHz的视频。

3.2.2正六面体映射方式

Surround360以经纬图映射的方式输出,这种映射模型会在顶上与底下两局部包含较多的冗余信息,且呈现效果较为扭曲,不符合人眼视觉习惯。

Facebook在映射方式上选择了正六面体的方法,将经纬图重新布局到正六面体上。

正六面体映射方法有很多的优点,比方在立方体的每一个面上没有任何失真,每一面的映射都是相对独立的。

其次,视频编解码器中运动矢量为直线形式,正六面体不会像经纬图方法那样将图像扭曲,因此这种映射方式对编解码器非常友好。

此外,它的像素点分布较为均匀,不包含冗余信息。

在Facebook的方案中,为了实现从经纬图方法为显示到立方体映射的转换,它创立了一个自定义的视频过滤器,使用多点投影的方式来进展二者之间的像素点切换。

这套方案将经纬图顶部的25%转换为一个立方体面,将底部的25%转换为另一个面,中间的50%转换为四个面。

通过这样的映射转换,每帧的像素数量减少了25%,从而提高了空间的效率。

3.2.3金字塔模型

金字塔模型是一个与视角依赖的立体映射模型,它的底部为用户视角区域的全分辨率视频,随着金字塔高度的上升,在金字塔其他面上的视频压缩率逐渐增加。

当用户切换视角时,用户看到的不是该金字塔其他外表的低质量视频,而是切换到以下一视角为底部全分辨率的金字塔模型。

Facebook采用金字塔映射模型可以对文件进展压缩,能够将全景视频文件压缩到原来的20%。

在Facebook的方案中,一个经纬图的输出将被转换为30个视角的金字塔模型,根本能覆盖整个全景视频的各个视角空间。

每一个金字塔有5种不同的分辨率版本,因此,对于一个全景视频,一共有150个不同版本的编码流可以根据情况而选择。

此外,为了在合理的时间处理海量数据的全景视频,Facebook也使用了分布式编码,在多台机器上编码不同的视频分块。

3.2.4动态流传输技术

由于有限的网络带宽与计算能力的限制,传递超大数据规模的全景视频会造成缓冲或者中断等问题。

Facebook针对这些难题,提出了基于视角的自适应比特流技术,在视觉感兴趣的区域提供最高质量的视频,同时降低外围背景的视频质量。

在客户端针对目前的网络条件以及综合分辨率、视频质量、当前视角方向等元素可以考虑数十种不同可能的流来呈现。

其次,在传输中效劳端需要频繁地更新网络状况,以更短的时间估计网络带宽,这样能保证系统及时调整,防止缓冲时延的发生。

此外,Facebook还开发了基于容的动态流技术,它主要是依靠人工智能给出的显著图数据来实现的,它利用显著图的统计数据,计算出观看者可能的关注点和感兴趣点。

3.3Google全景媒体应用方案

2021年,Google推出了一款价格低廉的DIY设备Cardboard,受到市场青睐。

而如今,Google已经凭借其各种高端交互式设备,站到了VR技术领域的最前沿。

图10所示为Google全景媒体的根本架构。

图10Google全景媒体关键技术

3.3.1GoogleJump全景摄像装置

在全景媒体应用框架的输入口,Google推出了GoogleJump,它是由16台GoPro镜头组、自动拼接软件和播放平台3个局部组成。

Jump拍摄的原始视频经过JUMP应用转换后,会生成非常逼真的3D虚拟现实视频,是Google虚拟现实视频容制作的设备。

3.3.2ETC2p编码技术与Draco压缩库

在编码压缩这一环节,Google发布了ETC2p技术,它是一款用于游戏和VR开发的编码器。

在编码360视频的过程中,ETC2p通过部署一些优化技术,能够以更快的速度获得高质量的视觉效果。

在优化策略中,ETC2p通过"

定向块〞的搜索方式有针对性的获得给定块的最正确编码方式,这种压缩方式比使用暴力法快得多。

在代码方面,基于每个视频块可以进展独立编码,ETC2p采用了高度多线程。

此外,ChromeMedia团队创立了Draco,这是一个开源的压缩库,用于改善3D图像的存储和传输性能。

Draco压缩库提高了3D图像的压缩效率而不会影响视觉保真度。

3.3.3空间化音频技术

除了对全景视频方面的处理,Google还在整个全景媒体框架中引入了空间化音频技术,将空间音频引入网页,将浏览器转换成一个VR媒体播放器,用户可以听到浏览器上的360度环绕声,其流程图如图11所示。

解码器能记录包含4通道的音频,然后将其解码成任意的扬声器设置。

此外,还使用8个虚拟扬声器代替实际的扬声器,阵列以双向呈现最终音频流。

这种双耳呈现的音频可以传达空间感,为沉浸式的VR体验发挥了关键作用。

图11空间化音频技术的流程

3.3.4基于ODS模型的渲染技术

Google设计了一个ODS〔omni-directionalstereo,全景立体视频〕系统,它能够实现无缝拼接与映射,还可以采用传统视频格式进展存储。

ODS映射的算法只捕获每个摄像机的中心射线,并借用周围摄像机的其他射线方向,因此,这种光线捕获方法呈现在左右眼的射线几何将会变得更加立体和全方位。

此外,ODS都是采用的预渲染方式,在头戴式设备中播放都非常的流畅。

虽然Google参加虚拟现实领域迟于Facebook,但开展势头很猛,相比于Facebook有自己社交平台的优势,Google也致力于以Android操作系统为核心的VR应用,同时也在推行一体化VR头盔,即不再需要连接智能手机或电脑。

不同于Facebook收购Oculus公司开发Rift头戴式设备,Google从硬件到生产再到容输出正在构建自己的闭环系统和框架,并且在前后端也继续研究全景媒体的应用。

4全景媒体应用架构的比照

综合几家全景媒体应用架构的特点,从多个维度对以下几个框架做比照分析,具体见表1。

表1多个维度的框架比照分析

除了表1中所示,在构造严谨性上,MPEG的OMAF标准中,在各个模块环节如映射、编码、传输等上都提出了不同的解决方案。

此外,还进展了模块间的比照性实验,在很多细节上都进展了完善和优化。

在这一点上,Facebook和Google在框架中的大多数模块中都没有平行方案。

从开展进程上而言,Facebook和Google这两个具有代表性的科技公司,主要都是在走以产品为核心、技术为支持的产业路线,在系统实现中去优化相应的关键技术点,使系统更加完善,更加符合市场需求。

而目前,MPEG和AVS的框架中各个模块的细节和采用的算法还在进一步的研究和讨论中,因此并未形成行业的标准,没有投入产业使用。

从行业标准上而言,由于2021年虚拟现实行业热潮爆发,各种VR产品参差不齐,为了防止VR市场分散,需要全景媒体框架的标准化,MPEGOMAF的领头性是不容小觑的。

但是,这一标准并不限制日新月异的VR市场创新和少数产品的各异性。

而Facebook和Google作为创新性公司,其架构与OMAF框架存在差异,但并不影响其后续的开展与延伸。

5完毕语

本文对全景多媒体的应用架构展开了详细的介绍。

首先回忆了目前虚拟现实技术的开展以及存在的问题。

其次,引出了MPEG下的OMAF这一通用格式的作用以及它近期开展和面临的挑战,同时也比照了国标准组织AVS以及在工业界VR技术领域占主导地位的两家公司——Facebook和Google在全景媒体应用方面的进展和现状。

针对MPEGOMAF、Facebook和Google的全景媒体系统架构,进展了详细的介绍和分析,并进展了比照总结。

总的来说,全景媒体应用框架的讨论、制定和完善是一个具有挑战性的课题。

8K甚至更大分辨率的全景视频对于网络带宽提出了高难度的需求。

随着全景媒体直播技术的开展,时延将是影响用户体验的一个重要参数,而终端显示设备播放的视频质量也决定了用户观看效果。

这些关键技术的研究将对今后虚拟现实技术的开展具有十分重要的研究意义和应用价值。

尽管目前VR技术在游戏、社交等领域开展迅速,但它部的系统构造仍需要继续细化和完善,全景多媒体应用的开展还处于起步阶段。

如今,越来越多的组织和企业都参加制定VR行业标准的队伍中,提供了新的思考和方法,因此值得展开更为深入的研究。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 自然科学 > 天文地理

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1