计算机网络QoS总结网络服务质量Word文档格式.docx

上传人:b****6 文档编号:18991417 上传时间:2023-01-02 格式:DOCX 页数:23 大小:111.37KB
下载 相关 举报
计算机网络QoS总结网络服务质量Word文档格式.docx_第1页
第1页 / 共23页
计算机网络QoS总结网络服务质量Word文档格式.docx_第2页
第2页 / 共23页
计算机网络QoS总结网络服务质量Word文档格式.docx_第3页
第3页 / 共23页
计算机网络QoS总结网络服务质量Word文档格式.docx_第4页
第4页 / 共23页
计算机网络QoS总结网络服务质量Word文档格式.docx_第5页
第5页 / 共23页
点击查看更多>>
下载资源
资源描述

计算机网络QoS总结网络服务质量Word文档格式.docx

《计算机网络QoS总结网络服务质量Word文档格式.docx》由会员分享,可在线阅读,更多相关《计算机网络QoS总结网络服务质量Word文档格式.docx(23页珍藏版)》请在冰豆网上搜索。

计算机网络QoS总结网络服务质量Word文档格式.docx

3、报文分类器的设计13

四、流量整形与监测13

1、漏桶算法13

2、令牌桶算法14

3、滑动窗口协议14

五、队列管理15

1、缓冲管理的作用15

2、缓冲管理的目标15

3、缓冲管理的控制策略15

4、缓冲管理的典型算法16

六、分组调度16

1、分组调度概述16

2、分组调度算法的性能指标16

3、常用的分组调度算法17

七、QoS路由17

1、基本路由算法17

2、QoS路由问题18

3、路由选择方法18

4、Internet路由协议18

5、组播路由19

第三部分QoS的性能评价与应用扩展

一、QoS控制的综合性能评价标准20

1、网络QoS控制策略的性能目标20

2、综合性能评价标准20

二、WebQoS控制20

1、WebQoS概述20

2、WebQoS技术21

一、QoS的定义及概述

1、QoS的定义标准

(1)、QoS定义

QoS定义如图1.1所示。

 

组织

QoS定义

ISO

用参数方式定义OSI参考模型中的QoS。

参数包括吞吐量、传输延迟、出错率、建立连接延迟、连接失败率、传输失败率、重置率、释放延迟、释放失败概率等。

ITU

从呼叫控制、连接以及数据单元的传输控制三个层次定义宽带ISDN的QoS。

ATM

ATM网络的服务可以分为5类。

根据服务类型的不同,可以得到不同的QoS参数。

根据这些参数来定义ATM网络的QoS。

IETF

把QoS定义为一个两维空间:

<

服务类型>

、<

参数类型>

服务类型取值范围为[1,254]。

其中服务类型1用于指定通用参数,[2,127]表示IETF定义的各种服务,[127,254]保留。

取值范围为[1,254]。

其中,保留区间[1,127]是用于设定所有服务共享的参数,区间[127,254]是只针对相应的服务的参数。

图1.1QoS定义

(2)、QoS的分层

图1.2QoS的分层

2、QoS控制和管理概述

(1)、QoS控制机制

当用户应用与网络系统达成QoS约定之后,网络系统必须通过QoS控制机制来实现QoS的控制。

基本的QoS控制机制如图1.3所示。

信息流整形机制

根据用户提供的信息流特征描述来调节信息流量。

信息流整形可基于一个简单的固定分组速率或某种形式的统计分组速率来进行。

信息流调度机制

网络系统对每个网络元素(端系统和网络节点)中等待处理的数据分组进行排队,根据相应的QoS要求和级别赋予相应的优先级来调度网络资源。

信息流监控机制

可以认为是两种监视行为:

监视网络系统是否提供所承诺的QoS和监视用户的行为是否符合QoS要求。

信息流控制机制

包括开环和闭环两种模式。

在开环式流控中,资源被分配好后,用户只要按照一致认可的速率发送数据即可;

在闭环流控中,发送者需要根据接收者的反馈信息来调整发送速率。

信息流同步机制

用于控制事件顺序和多媒体交互行为的精确定时。

图1.3基本的QoS控制机制

(2)、QoS管理机制

为了保护应用得端到端QoS,网络系统只分配资源通常是不够的,还需要经常维护已担保的QoS。

已担保的QoS的维护是由QoS管理机制完成的。

QoS管理机制如图1.4所示。

QoS监控机制

QoS监控机制允许系统的每一层跟踪在低层所获得的QoS级。

QoS维护机制

QoS维护机制将被监控的QoS与期望的性能作比较,然后调整资源的使用策略以便维护应用的QoS。

如果当前网络资源无法满足应用得QoS要求,则QoS的维护将引发QoS的降级。

QoS降级机制

当网络系统的低层无法保证应用信息流的QoS并且QoS维护机制也无能为力时,高层的QoS降级机制将向用户发送一个QoS指示。

用户可以选择可适应的QoS级或者降低服务级来响应该指示。

QoS扩展机制

QoS扩展机制包括QoS过滤机制(当信息流通过通信系统时处理流)和QoS适应机制(只在端系统上处理流)。

图1.4QoS管理机制

二、综合服务体系结构IntServ

1、IntServ概述

在服务层次上,IntServ提供三种服务类型:

尽力而为型服务、质量保证型服务和可控负载型服务。

在实现层次上,IntServ方案要求所有的路由器在控制路径上处理每个流的信令消息并维护每个流的路径状态和资源预留状态,并且在数据路径上执行基于流的分类、调度和缓冲区管理。

在技术层次上,IntServ依靠资源预留协议RSVP提供QoS协商机制,逐节点地建立或拆除每个数据流的路径状态和资源预留软状态;

依靠接纳控制决定链路或网络节点是否有足够的资源满足用户的资源预留请求;

依靠传输控制将IP分组分类成不同的传输流并根据每个流的状态对分组的传输实施QoS路由、传输调度等控制。

2、IntServ的服务类型

IntServ提供三种服务类型:

IP协议提供的是一种无连接的网络层传输服务,必须辅以其他的高层协议才能更好地实现端到端的可靠传输,这种传统的IP服务易受分组丢失、分组重复、路由器缓冲区队列延迟等的影响。

由于缺少必要的QoS控制或保证,传统的IP传输服务被称为尽力而为型服务。

质量保证型服务要求网络中各元素保证用户所要求的最小延迟时间,从而保证会话过程中每个分组确定的延迟界限,只要数据流的传输保持在特定的传输参数范围内,就不会因为队列的溢出而被丢弃。

质量保证型服务是一种“硬实时”服务。

可控负载型服务需要指定用户服务指标作为接纳控制处理的关键输入,以限制流的数目,从而保证网络处于非重载的网络模式。

可控负载型服务使用户感到网络是在一种很轻的负载或具有很大容量条件下运行,用户感觉不到不可忍耐的延迟。

可控负载型服务是一种“软实时”服务。

3、QoS控制的实现框架及参数

QoS控制的实现框架包括几个部分:

用户与用户、用户与网络系统的QoS协商方法与界面;

用户QoS要求的接纳控制;

QoS参数与服务类型的控制分组的定义与实现;

资源预留协议;

分组调度与队列管理方法;

QoS控制管理与评价标准。

支持质量保证型服务和可控负载型服务的主要QoS控制参数主要有三类:

FLOWSPEC、ADSPED和SENDER-TSPEC。

对象FLOWSPEC传输信息接收端所要求的流量(TSpec)和调用这些服务的参数(RSpec);

对象SENDER-TSPEC描述发送端的数据流量;

对象ADSPED用于由网络中的各个网络元素向接收端发送关于延迟、估计带宽、QoS控制服务的参数以及支持的QoS控制服务等信息。

4、资源预留协议RSVP

RSVP用于点到点通信和点到多点通信的Internet网络环境中多媒体用户对网络资源的预留。

RSVP包括两类最基本的控制分组:

PATH(控制)类分组和RESV(预留)类分组。

PATH类分组由数据源端发出,RESV则由数据接收端作为PATH路径中各网络元素的资源要求沿PATH分组设置的路径返回发出。

RSVP实现资源预留的过程如下。

①发送数据的源端确定发送数据流所需的带宽、延迟和延迟抖动等指标;

②当网络中的某一路由器接收到PATH分组时,它将PATH分组中的路径状态信息存储起来,该路径状态信息描述了PATH分组的上一级源地址(发来该分组的上一跳路由器地址);

③当接收端收到PATH分组之后,它沿着与PATH分组中获取的源路径相反的方向发送一个RESV分组(包含为数据流进行资源预留所需要描述的流量和性能期望等QoS信息);

④当某一路由器接收到一个RESV分组时,它通过接纳控制来决定是否有足够的资源满足QoS请求。

如果有,则进行资源预留,并存储一些与数据流相关的特定信息,然后将RESV分组转发给下一个路由器;

如果没有,则路由器拒绝该请求并给接收端一个错误信息。

⑤如果源端接收到RESV分组,则表明数据流的资源预留已经成功,可以开始向接收端发送数据;

⑥当数据流发送完毕,路由器可以释放先前设置的资源预留。

5、IntServ的局限性

RSVP和IntServ在整个Internet网络应用,存在如下局限性。

①基于流的RSVP资源预留、调度处理以及缓冲区管理,有利于提供QoS保证,但是系统开销过高,对于大型网络存在可扩展性的问题;

②目前,只有少量的主机产生RSVP信令,许多应用都不产生RSVP信令,因此,实现修改应用程序的阻力较大;

③许多应用需要某种形式的QoS,但却无法使用IntServ模型来表达QoS请求;

④必要的策略控制和价格机制(如访问控制、鉴别、记账等),目前尚处于发展阶段,无法付诸应用。

三、区分服务体系结构DiffServ

1、DiffServ概述

DiffServ的目标在于简单有效,以满足实际应用对可扩展性的要求。

DiffServ通过简化网络内部节点的服务机制和服务对象来实现其目标。

具体做法是,边界节点根据用户的流规定和资源预留信息将进入网络的单流分类、整形、聚合为不同的流聚集,这种聚集信息存储在每个IP包头的DS标记域中,称为DSCP(DS标记)。

内部节点在调度转发IP包时根据包头的DSCP选择特定质量的调度转发服务,其外特性称为逐点行为(PHB)。

网络边界对单流做分类聚合与网络内部对聚集流提供特定质量的调度转发服务,这两个过程通过IP包头内的DSCP协同起来。

DiffServ具有如下特点:

简单实现;

层次化结构;

总统集中控制化策略;

利用面向对象的模块化思想与封装思想,增强了灵活性和通用性;

不影响路由。

2、DiffServ的体系结构

DS区域是由一些相连的DS节点构成的集合,它们遵循统一的服务提供策略并实现一致的PHB组。

边界节点连通DS区域和非DS区域,其功能为:

实现传输的分类和调节机制,保存流的状态信息,根据预定的流规格对进入(或离开)区域的流进行调节,使输入(输出)流符合预先制定的传输调节协议(TCA),并在包头标记DSCP值,分类归入行为聚集。

内部节点上实现一组或若干组PHB。

连续的DS区域构成DS区,区内支持跨越若干区域的区分服务。

IP包头的区分服务标记域是DS区域的边界节点与内部节点间传递流聚集信息的媒介,是连接边界的传输分类和调节机制与内部PHB的桥梁。

DSCP是区分服务标记域中的具体值,用来标识数据包所属的流聚集,供数据包经过DS节点时选择特定的PHB。

边界节点要根据TCA对入域流进行分类和调节,以保证输入(或输出)流满足TCA中规定的规格,并将其归入某个行为聚集、标记相应的DSCP。

逐点行为PHB是一个DS节点调度转发特定流聚集这一行为的外特性描述。

PHB可以用调度转发流聚集时的一些流特性参数来描述。

多个PHB由于彼此关系密切而必须同时定义,则在实现时构成一个PHB组。

若干PHB组有相似构造,而可以同时定义,则称其属于同一PHB组族。

3、DiffServ的典型服务

奖赏服务PS为用户提供低延迟、低抖动、低丢失率、保证带宽的端到端或网络边界到边界的传输服务。

由于延迟、抖动和丢失主要是由于分组在传送路途中排队所致,因此只有在传输路途中几乎不排队才能提供PS服务。

也就是说,在任何节点,要保证PS分组的入速率小于出速率。

确保服务AS的目标是:

在网络拥塞的情况下仍能保证用户拥有一定量的预约带宽,使用户摆脱在单一尽量做好时无法把握自己实际占有带宽量的无奈状况;

着眼于宽带与丢失率,不涉及延迟和抖动。

AS服务原则:

无论是否拥塞,保证用户占有预约的最低限量的带宽;

当网络负载较轻时,用户也可以使用更多的带宽。

AS实现思路:

分组进入网络时在边界节点给包做标记,预约带宽以内的流量标为IN,超出预约带宽的流量标为OUT;

拥塞时包头标记决定分组的丢弃概率,OUT的丢弃概率大于IN,从而在一定程度上保护IN流;

中间节点调度转发时保证源头相同的流不乱序,无论其分组是IN还是OUT。

4、DiffServ中宽带分配的公平性问题

DiffServ中的公平性指的是属于同一流聚集的各微流能享受同等的待遇。

这些待遇包括:

资源总量充足时各微流能充分享用其预约资源,达到预期性能;

有额外资源并允许竞争时各微流能平均分配或按比例分配额外资源;

资源总量不够时,各微流能按照预约资源比例获得相应的降级服务。

公平性问题的研究目标是,改进服务机制,消除各种流特性差异对公平性的影响。

影响公平性的因素有两个方面:

一是各微流特性不同,包括突发程度、是否有末端拥塞机制、流量大小、回路响应时间、连接时间长短等;

二是服务实现机制如何,包括传输过程中的各环节(边界分类调节、内部PHB以及是否有反馈控制等)。

以下分别讨论不同情况下的流的公平性问题。

适应流的含义是,末端系统实现了拥塞控制机制,能根据网络的拥塞情况自动调节发送速率。

相反地,末端没有拥塞控制机制的流称为非适应流。

由于适应流能降低速率而非适应流只能保持原来的速率发送,所以非适应流会压制适应流而获得更高的带宽,导致适应流无法获得公平待遇。

解决这一问题的思路是,将适应流和非适应流分配于AF组内的不同丢弃优先级,使得适应流的优先级高于非适应流。

Web流的特点是连接时间短,突发性强。

连接时间短使得拥塞控制窗口大部分时间处于慢启动阶段,平均窗口小。

小窗口的连接对连续丢包很敏感,此时,连续丢包会大大抑制发送速率。

高突发性使得Web流竞争带宽时劣势更大。

DiffServ体系中,主要从边界调节与PHB实现两方面来提高Web流的竞争力。

在边界节点,调节模块应充分考虑TCP拥塞控制机制的特点,拥塞时尽量在引起拥塞的各连接之间均匀分布丢弃概率,避免个别连接出现连续丢包,特别是保护小窗口连接。

PHB的实现一般要消除长期拥塞,但要允许短时间的突发。

前者通过丢包抑制,后者通过队列缓冲。

四、DiffServ与IntServ相结合的端到端的QoS提供机制

DiffServ和IntServ这两种InternetQoS标准都有各自的长处和局限,并且都不能彻底实现整个网络的端到端QoS。

所以,可以寻求一种DiffServ与IntServ相结合的端到端的QoS提供机制。

目前,已经有一种在DiffServ网络区实施端到端IntServ的框架。

1、DiffServ网络区支持IntServ/RSVP的意义

在IntServ网络中,量化的QoS应用使用显示信令RSVP从网络中请求资源,网络做出接受或者拒绝的响应,这称为“显示接纳控制”。

对于只提供聚集传输而无信令机制的DiffServ网络区,其接纳控制是以隐式的方式通过网络元素上的管制参数实现的。

显示接纳控制有利于网络资源的优化使用。

所以,为DiffServ网络区指定一个支持IntServ的接纳控制代理可以优化资源的使用,提高DiffServ区对于定量QoS应用的服务质量。

在DiffServ网络区采用RSVP接纳控制代理,可以决定资源分配时采用针对特定客户的策略,为特定的客户和应用有效地分配资源。

在DiffServ网络区内部,传输的资源分配基于每个IP分组头部标识的DSCP值,所以必须正确标记DSCP。

两种实现机制分别是主机标记和路由器标记。

主机标记要求主机如何翻译DSCP,路由器标记要求必须在路由器配置MF分类准则。

但是,这样做会增加管理负担。

更好的方案是利用RSVP的信令,主机从网络中获取DSCP的翻译值,并且主机也可以将MF分类准则发送给路由器。

2、DiffServ网络区支持端到端IntServ的实现框架

DiffServ网络区支持端到端IntServ服务的参考网络框架如图1.5所示。

图1.5DiffServ网络区支持端到端IntServ服务的参考网络框架

RSVP消息在发送发主机Tx和接收方主机Rx之间端到端地传播以支持DiffServ区外部的RSVP预留。

边界路由器ER1,ER2和BR1,BR2的功能依赖于该框架的特定实现。

当DiffServ区不识别RSVP信令时,ER1,ER2作为DiffServ区的接纳控制代理,BR1,BR2只作为纯粹的DiffServ路由器。

当DiffServ区识别RSVP信令时,ER1,ER2可根据当地的资源情况和客户定义的策略实施接纳控制,BR1,BR2作为DiffServ区的接纳控制代理。

3、支持端到端IntServ的DiffServ网络区资源管理方式

(1)、静态资源管理方案

在静态资源管理方案中,DiffServ网络区的客户和网络所有者之间协商建立一个静态的契约——服务层描述SLS,保证在每个标准的DiffServ级别上向用户提供应有的传输能力。

(2)、动态资源管理方案

聚集RSVP方案:

在DiffServ网络区的边界之间为聚集流预留资源,不对DiffServ区外节点的、面向单个流的RSVP请求进行接纳控制。

聚集预留的量是可以动态调整的。

面向单个流的RSVP方案:

DiffServ网络区内的路由器对发起于DiffServ区之外的IntServ节点的、面向单个流的标准RSVP信令请求进行相应。

一、ATM网络的传输管理与QoS控制

1、ATM网络的传输特点

在ATM网络中,有四种不同类型的传输方式:

恒定位速率(CBR)、可变位速率(VBR)、可以位速率(ABR)和未指定位速率(UBR)。

不同的传输类型由ATM网络在适配层上提供不同的适配服务。

ATM定义了AAL1,AAL2,AAL3/4和AAL5四种不同的适配层类型,根据适配层负载数据传输类型的不同和是否面向连接,将适配层提供的服务分为四类。

A类——CBR服务:

对应于AAL1,它支持面向连接的服务,用于传输率固定、对信元延迟和丢失都敏感的应用(具有固定传输速率的声音和图像信号)。

B类——VBR服务:

对应于AAL2,它支持面向连接服务,用于传输率固定、同时对延迟敏感的应用(经压缩分组的声音和图像信号)。

C类——面向连接的数据服务:

对应于AAL3/4,AAL5也支持这类服务,它支持面向连接服务,用于传输率可变、但对延迟不敏感的突发性业务和普通数据传输业务的应用(面向连接的文件传输和E-mail),它采用ABR传输方式。

D类——无连接数据服务AAL3/4和AAL5都可以支持这类服务,它采用UBR传输方式。

2、ATM网络的传输管理与QoS控制技术

(1)、接纳控制

ATM网络的各个用户在入网前需要进行接纳控制。

ATM网在用户入网时需要用户首先把自己的传输特性和参数以及它所要求的QoS告知网络,网络再基于用户的传输性能要求和网络现存的资源情况,来决定是否允许建立一个新的连接。

(2)、拥塞控制

拥塞控制包括“开环预防控制”和“闭环反馈控制”两种方法。

开环预防控制中常用的是漏斗算法和流量整形算法;

闭环反馈控制中主要有基于信用的流控和基于速率的流控两类方案。

(3)、信元丢弃控制

信元丢弃控制方案主要有三种:

分别选道方案、推出方案和部分缓冲共享方案。

分别选道方案为每种级别的信元使用一个不同的缓冲器,这种方案实现简单,但在目的节点信元需要重新排序,破坏了ATM面向连接的特性,因此很少使用。

推出方案使用同一个缓冲器存储所有级别的信元。

当缓冲器满时,高优先级的信元将推出低优先级的信元,并将之丢弃。

部分缓冲共享方案也使用一个缓冲器来存储所有级别的信元,但它控制的是基于缓冲的阈值。

当缓冲容量超过阈值时,仅高优先级的信元可以进入缓冲器,而新来的低优先级的信元则被丢弃。

当缓冲器满时,丢弃新来的所有信元。

3、ATM网络的传输管理与QoS控制策略

(1)、资源管理策略

资源管理分为资源的分配和资源不足时的阻挡或丢弃策略。

资源分配策略中基本上包括三种:

完全共享、完全分配和部分共享。

完全共享策略:

总体资源没有限制地在所有的竞争用户之间共享,只要还有充分的资源,任何一个新用户的资源要求都会接受。

当没有充分资源时,一个新用户的资源要求被阻挡。

完全分配策略:

资源在所有的竞争用户之间永久性地进行分配,即给每个用户分配固定数量的资源。

部分共享策略:

将一部分资源分配给用户,剩余的资源供用户竞争共享。

几种丢弃策略:

将新用户的申请丢弃;

从以占有资源的用户申请队列中挑出具有最小优先级的用户申请丢弃,并将资源分配给新用户申请;

为了保证资源分配的公平性,从已占有资源最多的用户申请队列中挑出一个用户申请进行丢弃,并将资源分配给新用户申请;

为了保证系统性能要求,从最能满足丢弃要求的已占有资源的用户申请队列中挑出一个用户申请进行丢弃,并将资源分配给新用户申请。

(2)、信元的存储和调度策略

先入先出的调度策略:

使用相同的服务规则对待所有的信元,仅按信元到达的顺序进行服务和输出。

静态优先级的调度策略:

给每个信元分配相应的优先级,信元到达时按照优先级排队,优先级高的信元总是优先接受服务和输出。

动态优先级的调度策略:

信元优先级随时间而动态变化,可以用给定的阈值来改善低优先级信元传输的性能。

最早截止优先的调度策略:

要求在信元进入网络前给信元分配传输时间期限,具有最早期限但又不超过时间期限的信元被首先传输。

信元丢弃控制和实时调度的综合策略:

这个方案同样要求在信元进入网络前给信元分配传输时间期限,但为了提高网络吞吐量,在信元进入到等待队列时,将信元尽量放在靠近时间期限位置。

当等待队列头部到时间期限位置已满时,从这些位置中挑选出一个具有最小丢失优先级的信元,将其丢弃,并将新的具有较高丢失优先级的信元放入等待队列。

公平调度策略:

主要有处理器共享方案和加权公平排队方案。

处理器共享方案是以相同速率服务所有的非空队列。

加权公平排队方案对每个队列赋予一个权值,权值高的队列将会得到更快的服务速率。

二、拥塞控制

1、拥塞控制简述

增加网络资源和降低用户需求都可以解决拥塞问题。

降低用户需求主要表现在三个方面:

拒绝服务、降低服务质量和调度。

拒绝服务:

在拥塞发生时,拒绝接纳新的用户请求。

此方法多用于面向连接的网络。

降低服务质量:

所有用户在拥塞时降低其发送速率。

调度:

合理安排用户对网络资源的使用,保证总需求永远小于网络可用资源。

如轮询、加入优先级、资源预留等。

2、TCP流量控制

TCP使用滑窗机制来进行流量控制。

即接收方通过某种策略来决定允许发送方传送多少数据。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 职业教育 > 职业技术培训

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1