IP网络服务质量.ppt

上传人:b****9 文档编号:955957 上传时间:2022-10-14 格式:PPT 页数:74 大小:410KB
下载 相关 举报
IP网络服务质量.ppt_第1页
第1页 / 共74页
IP网络服务质量.ppt_第2页
第2页 / 共74页
IP网络服务质量.ppt_第3页
第3页 / 共74页
IP网络服务质量.ppt_第4页
第4页 / 共74页
IP网络服务质量.ppt_第5页
第5页 / 共74页
点击查看更多>>
下载资源
资源描述

IP网络服务质量.ppt

《IP网络服务质量.ppt》由会员分享,可在线阅读,更多相关《IP网络服务质量.ppt(74页珍藏版)》请在冰豆网上搜索。

IP网络服务质量.ppt

第3章IP网络服务质量,1概述,计算机网络最初是为传送数据信息设计的。

因特网IP层提供的“尽最大努力交付”服务对传送数据信息也是很合适的。

当我们从因特网下载文件时,过长的网络响应时间虽然令人颇为烦恼,但这至少不会对我们产生有害的结果。

因特网使用的TCP协议可以很好地解决网络不能提供可靠交付这一问题。

IP将成为未来各种网络技术和业务的融合平台QoS:

QualityofService,服务质量,尽力服务模型,支持服务质量模型,数据业务,综合业务(数据视频语音),IP网络,以太网、令牌环网、IEEE802.11、3G,多媒体信息的特点,多媒体信息(包括声音和图像信息)与不包括声音和图像的数据信息有很大的区别。

多媒体信息的信息量往往很大。

在传输多媒体数据时,对时延和时延抖动均有较高的要求。

多媒体数据往往是实时数据(realtimedata),它的含义是:

在发送实时数据的同时,在接收端边接收边播放。

因特网是非等时的,模拟的多媒体信号经过采样和模数转换变为数字信号,再组装成分组。

这些分组的发送速率是恒定的(等时的)。

传统的因特网本身是非等时的。

因此经过因特网的分组变成了非恒定速率的分组。

接收端需设置适当大小的缓存。

当缓存中的分组数达到一定的数量后再以恒定速率按顺序把分组读出进行还原播放。

缓存实际上就是一个先进先出的队列。

图中标明的T叫做播放时延。

在接收端设置缓存,缓存使所有到达的分组都经受了迟延。

早到达的分组在缓存中停留的时间较长,而晚到达的分组在缓存中停留的时间则较短。

以非恒定速率到达的分组,经过缓存后再以恒定速率读出,就能够在一定程度上消除了时延的抖动。

但我们付出的代价是增加了时延。

缓存的影响,需要解决的问题,在传送时延敏感(delaysensitive)的实时数据时,不仅传输时延不能太大,而且时延抖动也必须受到限制。

对于传送实时数据,很少量分组的丢失对播放效果的影响并不大(因为这是由人来进行主观评价的),因而是可以容忍的。

丢失容忍(losstolerant)也是实时数据的另一个重要特点。

如何改造现有的因特网,大量使用光缆和高速路由器,网络的时延和时延抖动就可以足够小,在因特网上传送实时数据就不会有问题。

把因特网改造为能够对端到端的带宽实现预留(reservation),把使用无连接协议的因特网转变为面向连接的网络。

部分改动因特网的协议栈所付出的代价较小,而这也能够使多媒体信息在因特网上的传输质量得到改进。

IPQoS定义和目标,定义:

即IP服务质量,它是指IP分组或流通过网络时的性能,这种性能通过一系列可度量的参量来描述。

目标:

提供端到端的服务质量保证,提高网络资源利用率,可度量的参量,用户需求(usersQoSrequirements)带宽(bandwidth)延迟(delay)延迟抖动(delayjitter)丢包率(lossrate)网络性能(networkperformance)吞吐量(throughput):

在不丢包的情况下,被测对象(系统、设备、特定连接、特定服务类等)所能达到的最大传输速度。

可以用带宽来度量吞吐量。

实用带宽/额定带宽带宽利用率。

“保证”的含义,确定型保证bound例:

对于某类数据包P,端到端延迟D不会超过Dmax统计型保证probability例:

对于某类数据包P,端到端延迟D不超过Dmax的概率是x%,2因特网的多媒体体系结构,TCP,UDP,AAL3/4,AAL5,PPP,SDH/SONET,ATM,以太网,调制解调器,信令,服务质量,IPv4/IPv6,RTSP,RTCP,RSVP,H.323,SIP,RTP,PPP,应用层协议,声音/视像,SDP,2.1实时运输协议RTP(Real-timeTransportProtocol),RTP为实时应用提供端到端的运输,但不提供任何服务质量的保证。

多媒体数据块经压缩编码处理后,先送给RTP封装成为RTP分组,再装入运输层的UDP用户数据报,然后再交给IP层。

RTP是一个协议框架,只包含了实时应用的一些共同的功能。

RTP自己并不对多媒体数据块做任何处理,而只是向应用层提供一些附加的信息,让应用层知道应当如何进行处理。

RTP的层次,从应用开发者的角度看,RTP应当是应用层的一部分。

在应用的发送端,开发者必须编写用RTP封装分组的程序代码,然后把RTP分组交给UDP插口接口。

在接收端,RTP分组通过UDP插口接口进入应用层后,还要利用开发者编写的程序代码从RTP分组中把应用数据块提取出来。

RTP也可看成是运输层的一个子层,RTP封装了多媒体应用的数据块。

由于RTP向多媒体应用程序提供了服务(如时间戳和序号),因此也可以将RTP看成是在UDP之上的一个运输层的子层。

运输层,应用层,IP,数据链路层,物理层,RTP,UDP,RTP分组的首部格式,12字节,序号,比特01381631,有效载荷类型,版本,P,X,M,参与源数,时间戳,同步源标识符(SSRC),参与源标识符(CSRC)0.15,发送,RTP分组,UDP用户数据报,IP数据报,IP首部UDP首部RTP首部RTP数据部分(应用层数据),2.2实时运输控制协议RTCP(RTPControlProtocol),RTCP是与RTP配合使用的协议。

RTCP协议的主要功能是:

服务质量的监视与反馈、媒体间的同步,以及多播组中成员的标识。

RTCP分组也使用UDP传送,但RTCP并不对声音或视像分组进行封装。

可将多个RTCP分组封装在一个UDP用户数据报中。

RTCP分组周期性地在网上传送,它带有发送端和接收端对服务质量的统计信息报告。

RTCP使用的五种分组类型,结束分组BYE表示关闭一个数据流。

特定应用分组APP使应用程序能够定义新的分组类型。

接收端报告分组RR用来使接收端周期性地向所有的点用多播方式进行报告。

发送端报告分组SR用来使发送端周期性地向所有接收端用多播方式进行报告。

源点描述分组SDES给出会话中参加者的描述。

2.3实时流式协议RTSP(Real-TimeStreamingProtocol),RTSP协议以客户服务器方式工作,它是一个多媒体播放控制协议,用来使用户在播放从因特网下载的实时数据时能够进行控制,如:

暂停/继续、后退、前进等。

因此RTSP又称为“因特网录像机遥控协议”。

要实现RTSP的控制功能,我们不仅要有协议,而且要有专门的媒体播放器(mediaplayer)和媒体服务器(mediaserver)。

流式(streaming)音频和视频,媒体服务器与媒体播放器的关系是服务器与客户的关系。

媒体服务器与普通的万维网服务器的最大区别就是媒体服务器支持流式音频和视频的传送,因而在客户端的媒体播放器可以边下载边播放(当然需要先将节目存储一小段时间)。

但从普通万维网服务器下载多媒体节目时,是先将整个文件下载完毕,然后再进行播放。

RTSP与RTP和RTCP的关系,RTSP播放器,RTSP服务器,RTSP控制分组(TCP),RTP数据分组(UDP),RTCP分组(UDP),客户,服务器,RTSP仅仅是使媒体播放器能控制多媒体流的传送。

因此,RTSP又称为带外协议,而多媒体流是使用RTP在带内传送的。

3改进“尽最大努力交付”的服务,服务质量QoS是服务性能的总效果,此效果决定了一个用户对服务的满意程度。

因此在最简单的意义上,有服务质量的服务就是能够满足用户的应用需求的服务。

服务质量可用若干基本的性能指标来描述,包括可用性、差错率、响应时间、吞吐量、分组丢失率、连接建立时间、故障检测和改正时间等。

服务提供者可向其用户保证某一种等级的服务质量。

主机H1和H2分别向主机H3和H4发送数据,1.5Mb/s链路,H1,H2,H3,H4,R2,R1,H1H2,1.5Mb/s链路,输出队列,1Mb/s的实时音频数据,FTP文件数据,需要给不同性质的分组打上不同的标记。

当H1和H2的分组进入R1时,R1应能识别实时数据分组,并使这些分组以高优先级进入输出队列,而仅在队列有多余空间时才准许低优先级的FTP数据分组进入。

主机H1和H2分别向主机H3和H4发送数据,1.5Mb/s链路,H1,H2,H3,H4,R2,R1,H1H2,1.5Mb/s链路,输出队列,1Mb/s的实时音频数据,高优先级的FTP文件数据,应当使路由器增加分类(classification)机制,即路由器根据某些准则(例如,根据发送数据的地址)对输入分组进行分类,然后对不同类别的通信量给予不同的优先级。

主机H1和H2分别向主机H3和H4发送数据,1.5Mb/s链路,H1,H2,H3,H4,R2,R1,H1H2,1.5Mb/s链路,输出队列,数据率异常的实时音频数据,FTP文件数据,路由器应能将对数据流进行通信量的管制(policing),使该数据流不影响其他正常数据流在网络中通过。

例如,可将H1的数据率限定为1Mb/s。

R1不停地监视H1的数据率。

只要其数据率超过规定的1Mb/s,R1就将其中的某些分组丢弃。

主机H1和H2分别向主机H3和H4发送数据,1.5Mb/s链路,H1,H2,H3,H4,R2,R1,H1H2,1.5Mb/s链路,输出队列,数据率异常的实时音频数据,FTP文件数据,应在路由器中再增加调度(scheduling)机制。

利用调度功能给实时音频分配1.0Mb/s的带宽,给文件传送分配0.5Mb/s的带宽(相当于在带宽为1.5Mb/s的链路中划分出两个逻辑链路),因而对这两种应用都有相应的服务质量保证。

主机H1和H2分别向主机H3和H4发送数据,1.5Mb/s链路,H1,H2,H3,H4,R2,R1,H1H2,1.5Mb/s链路,输出队列,1Mb/s的实时数据,总数据率已超过了1.5Mb/s链路的带宽。

比较合理的做法是让一个数据流通过1.5Mb/s的链路,而阻止另一个数据流的通过。

这就需要呼叫接纳(calladmission)机制。

数据流要预先声明所需的服务质量,然后或者被准许进入网络,或者被拒绝进入网络。

1.调度机制,“调度”就是指排队的规则。

如不采用专门的调度机制,则默认排队规则就是先进先出FIFO(FirstInFirstOut)。

当队列已满时,后到达的分组就被丢弃。

先进先出的最大缺点就是不能区分时间敏感分组和一般数据分组,并且也不公平。

在先进先出的基础上增加按优先级排队,就能使优先级高的分组优先得到服务。

按优先级排队的例子,高优先级队列,低优先级队列,分组到达路由器,调度,分组离开路由器,分类器,(服务员),路由器,低,低,低,低,高,高,高,高,高,高,t,分组到达路由器,分组离开路由器,路由器,高高高高,低低低低,加权公平排队WFQ(WeightedFairQueuing),分组到达路由器,调度,分组离开路由器,分类器,w1,w2,w3,1,2,3,路由器,2.分组调度策略,分组调度策略是一种选择策略,3.管制机制,

(1)平均速率网络需要控制一个数据流的平均速率。

这里的平均速率是指在一定的时间间隔内通过的分组数。

(2)峰值速率峰值速率限制了数据流在非常短的时间间隔内的流量。

(3)突发长度网络也限制在非常短的时间间隔内连续注入到网络中的分组数。

漏桶管制器(leakybucketpolicer),分组到达,漏桶中最多装入b个权标,拿走权标,准许分组进入网络,等待权标,在任何时间间隔t内准许进入网络的分组数=rt+b,标记注入漏桶的速率为每秒r个权标

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 总结汇报 > 学习总结

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1