主动队列对web性能影响的研究论文.docx

上传人:b****8 文档编号:10524529 上传时间:2023-02-17 格式:DOCX 页数:28 大小:287.38KB
下载 相关 举报
主动队列对web性能影响的研究论文.docx_第1页
第1页 / 共28页
主动队列对web性能影响的研究论文.docx_第2页
第2页 / 共28页
主动队列对web性能影响的研究论文.docx_第3页
第3页 / 共28页
主动队列对web性能影响的研究论文.docx_第4页
第4页 / 共28页
主动队列对web性能影响的研究论文.docx_第5页
第5页 / 共28页
点击查看更多>>
下载资源
资源描述

主动队列对web性能影响的研究论文.docx

《主动队列对web性能影响的研究论文.docx》由会员分享,可在线阅读,更多相关《主动队列对web性能影响的研究论文.docx(28页珍藏版)》请在冰豆网上搜索。

主动队列对web性能影响的研究论文.docx

主动队列对web性能影响的研究论文

主动队列对WEB性能影响的研究

摘要

我们首先呈现一个关于主动队列管理技术(AQM)和显式堵塞通知在网络中经历大量用户浏览网页后响应时间的分布情况的经验研究。

三种著名的方案可以考虑:

比例积分(PI)控制器,随机指数标记(REM)控制器和自适应随机早期检测(ARED)。

研究了在有显式堵塞通知和无显式堵塞通知下这些AQM方案的影响。

我们的主要衡量性能指标是端到端的HTTP请求-响应交换响应时间。

对于这种方法,我们的主要结果是:

如果不支持显式堵塞通知,ARED操作在字节模式是表现最好的AQM方案,提供比尾部丢包FIFO排队在提供的负载超过链路容量的90%时有更好的响应时间性能。

然而,ARED操作在包模式(有或没有显式堵塞通知)是表现最差的方案。

甚至比尾部丢包FIFO排队还要差。

显式堵塞通知支持有利于PI和REM。

在显式堵塞通知下,PI和REM是所有方案中表现最佳的方案,显式堵塞通知为在字节模式下的ARED操作提供重要的响应时间改进。

对于REM,显式堵塞通知带来的好处是戏剧性的。

没有显式堵塞通知,REM比尾部丢包的FIFO排队在所有负载下的响应时间性能都还要差。

AQM对于响应时间是否有重大的改善很大程度上依赖于流经历的往返时延的分布情况,当流的RTT增加时引起AQM和显式堵塞通知对于响应时间性能的影响降低。

我们得出结论,AQM可以提高网页类应用程序和网络性能的工作负载。

特别是,在AQM和显式堵塞通知下,提供的链接可以在接近饱和水平没有明显退化上操作达到用户预期的性能。

关键字:

网络拥塞控制;AQM算法;标记/丢失概率;PI控制器

第一章引言

计算机科学的迅速发展是20世纪科学发展史上最伟大的事件之一,标志着人类社会进入了信息时代。

随着现代高科技技术的发展,计算机技术和通信技术的结合形成了计算机通信系统。

计算机网络就是把分布在不同地点的具有独立功能的多台计算机系统通过通信线路和设备互相连接在一起,按照网络协议进行信息通信,实现资源共享的计算机通信系统。

20世纪80年代出现的Internet是现在全球最大的计算机网络。

Internet在过去的几十年经历了爆炸式发展。

1980年ARPA网(Internet的前身)只包含200台计算机,从1986年接入6000台计算机开始,5年后数量就达到了60万,一直到上一世纪末,全球Internet用户达到2亿之多。

现在Internet网络的容量与规模仍以惊人的速度继续不断的向前发展,人类日常的生活与工作也越来越觉得离不开Internet。

Internet的出现使得传统的信息获取、传送、存储和处理方式发生了根本的变化,人们的生活与工作方式也随之发生了很大的变化。

Internet网络的强大功能使得计算机网络在社会各个领域已有广泛的应用,对全世界科学、经济和社会产生了重大影响。

Internet网络使终端与计算机之间、计算机与计算机之间能快速地相互传输数据、程序和信息,并可对这些数据信息进行分散、分级、集中管理和处理,从而使用户解除了地理位置的束缚,提高了数据处理的速度。

如自动订票系统、银行财经系统、政府的计划统计系统、气象数据收集系统等。

Internet网络可以让用户充分利用计算机系统共享网络上的软件资源和硬件资源。

如大容量磁盘存储器、异常昂贵的外部设备、数据库、应用软件等,使得网络中分散的资源互通有无,分工协作,资源使用率大为提高,处理能力大为增强,处理的平均费用大为下降。

Internet网络上设备分散,数据安全可靠。

当网络上某处计算机发生故障时,可由别处的计算机代为处理,也可把数据备份到其他计算机上,有网络作为公用后备,投资少,效益高。

当某处计算机负担过重时,可将新的作业传送到网络中另一个较空闲的计算机上去处理,从而减少了用户等待时间,均衡了网络负载。

多媒体网络的应用,使声、文、图像多种信息的收集、传送、存储和处理融为一体,给计算机网络用户提供了很大的方便。

如用户可以在网络上收听广播、收看电视、查询信息等。

随着网络应用范围不断扩大,用户数量的爆炸式增长,Internet遇到了网络拥塞的问题。

所谓拥塞(Congestion)是指在某一时刻,当网络中某一资源的到达量超过了该资源在相关网络节点的承载量时,称该节点在该时刻发生了拥塞。

拥塞导致的直接后果是分组丢失率提高,端到端延时加大,网络性能降低,严重时会产生拥塞崩溃,几乎没有数据包可以送达目的地。

拥塞崩溃的出现可以追溯到Internet的早期发展中。

1984年Nagle报告了由于TCP连接中不必要的重传所诱发的拥塞崩溃,1986~1987年间这种现象在美国曾经多次发生,严重时一度使美国LBL到UCBerkeley之间的数据吞吐量从32Kb/s跌落到了40b/s。

拥塞崩溃在20世纪80年代中期最先提出的时候,主要是由于TCP连接重传那些正在传送或己经被接收方接收了的数据包所引起。

我们将这种由于不必要的重传数据包而引起的拥塞崩溃称为典型拥塞崩溃。

典型拥塞崩溃的问题己经通过定时器和TCP的改进应用而基本得到解决。

当今的Internet中的拥塞控制机制代表着一种最大利用的人工反馈系统,随着Internet在规模、应用种类、应用领域的不断扩大,拥塞控制在多网络融合方面起着日益重要的作用。

人们一致认为这种成为社会基本资源的网络如何得到有效控制已经变得日益紧迫了。

鉴于网络的规模和复杂性,传统的拥塞控制开始是基于直接推断、实验证明的方法,直到本世纪初,国外研究人员开始尝试使用分析模拟和反馈控制理论。

最近几年,人们把分析模型用于Internet的拥塞控制[6]。

拥塞控制策略包括拥塞避免(Congestionavoidance)和拥塞控制(Congestioncontrol)两种不同的机制。

拥塞避免是“预防机制”,它的目标是避免网络进入拥塞状态,使网络运行在高吞吐量、低延迟的状态。

拥塞控制是“恢复机制”,作为拥塞避免失败的补救措施。

拥塞控制的研究目的不是完全避免拥塞,而是研究怎样的拥塞程度更为合适。

这是因为:

TCP/IP网络采用分组交换技术来提高网络链路的利用率,经常造成数据包在路由器的缓存中排队待发;如果队列缓存经常为空,虽然传输延迟小,但此时网络利用率低;反之,队列缓存总被占用,传输延迟加大了,但网络利用率较高。

拥塞控制的目标是实现网络综合指标的最优化。

根据拥塞控制算法实现的位置可以分为两大类:

在传输层实现的源端拥塞控制,已被广泛应用的是TCP拥塞控制;在网络层实现的通信子网拥塞控制,也称为IP拥塞控制。

当网络中传输的数据分组接近网络的处理能力时,网络中间节点(如交换机、路由器等)设备缓存(buffer)中等待服务的数据分组队列(queue)会逐渐增大,在网络中的分组由于往返时间的增大有可能导致发送端定时器超时,而发生数据重传现象。

如果队列长度超出中间节点的缓存中队列的容量,分组就会由于队列溢出而被丢弃。

网络中发生分组丢失或者重传现象,就标志着发生了网络拥塞。

如果不采用及时的、适宜的方法去控制网络拥塞,保证网络稳定运行,将导致网络瘫痪。

因此在网络中为了避免出现网络拥塞,最大限度提高网络的利用率,最大可能地保证网络的稳定运行,保证网络信息的可靠传输,采用有效的拥塞控制机制是非常重要的。

拥塞会造成网络吞吐量的急剧下降和响应时间的增加。

图1.1中是网络有拥塞控制算法和无拥塞控制算法时有效吞吐量对于网络负载的变化曲线。

由图可知,如果不采用拥塞控制机制,当网络负载较大时会导致有效吞吐量的急剧下降,而有效的拥塞控制机制能使网络在这种情况下仍然维持较高的有效吞吐量。

在Internet中,拥塞控制算法根据其实现的位置可以分为源算法(sourcealgorithm)和链路算法(linkalgorithm),也可以分别称之为端节点算法和中间节点算法,两者协作完成网络的拥塞控制。

其中链路算法的研究主要集中在主动队列管理(ActiveQueueManagement,AQM)。

AQM的思想是:

网络中间节点在队列溢出之前通过丢弃或标记部分分组,以通知端系统网络的拥塞状况,端系统及时对可能发生或者已经发生的拥塞进行响应,避免即将发生的拥塞或者缓解已经发生的拥塞。

AQM算法使网络中间节点主动的参与到拥塞控制之中,期望在保证较高吞吐量的基础上,中间节点上的AQM机制有效地控制队列长度,从而实现控制端到端的时延和时延抖动,保证网络的服务质量(QualityofService,QoS)。

AQM是近年来拥塞控制领域的一个研究热点,AQM机制可以减少数据分组的突发性丢弃,减小端到端延迟,并可以避免少数连接流占用大多数队列资源现象的发生。

AQM是当前拥塞控制研究的一个热点。

但是已提出的AQM算法大多数是基于经验,启发式的算法,没有用系统理论的观点进行分析和设计。

近几年系统控制理论被引入到拥塞控制的研究中,已经有一些基于控制理论的AQM算法被提出,但大多此类算法都是基于传统控制理论(包括经典控制理论和现代控制理论)设计的。

由于网络的复杂性和时变特性,这些算法的实用性和有效性还存在一些问题,需要更进一步的研究。

第二章经典AQM算法

在使用AQM算法的网络中间节点中,路由器根据自身拥塞状况对分组进行转发、丢弃/标记。

图2.1是在路由器使用AQM控制机制的框图。

AQM机制根据缓冲区队列长度或者其它测度检测拥塞,计算丢弃/标记数据分组的概率。

中间节点通过对分组的丢弃或标记,及时通知端系统网络的拥塞状况,发送端可以及时的调整自己的数据发送速率,尽量避免拥塞的产生。

图2.1在路由器中使用主动队列管理

当前AQM算法的研究根据其研究方法和思想主要可以分为以下几种:

(1)基于经验的启发式算法,如RED;

(2)基于优化理论的算法,如REM;(3)基于控制理论进行已有的算法稳定性分析、参数整定或者设计新的AQM算法,如PI;

2.1RED算法

随机早期检测(RandomEarlyDetection,RED)

由Floyd等提出的RED是目前已提出的最主要的AQM的算法。

它在队列溢出之前以一定概率丢失或标记分组,及时通知端系统网络的拥塞情况,以便发送端对发送速率做出调整,减小网络发生拥塞的可能性。

RED算法由两部分组成,每当有新的分组到达队列时:

(1)由瞬时队列长度计算出平均队列长度;

(2)根据平均队列长度计算丢弃概率,并以此概率丢弃刚到达队列的分组。

平均队列长度avg和丢弃概率p的计算方法,分别见式(2.1)和(2.2):

(2.1)

(2.2)

其中:

为计算avg的权值,q为瞬时队列长度。

式中:

为最小阈值,

为最大阈值,

为最大概率。

图2.2所示为RED中丢弃概率与平均队列长度之间的函数关系。

RED使用平均队列长度而不是瞬时队列长度进行网络拥塞程度的度量,其计算平均队列长度的过程本质上是一个截止频率为

(其中δ为采样间隔,在RED中即为分组到达的间隔时间)的低通滤波器,目的是为了平滑由于数据突发产生的瞬间的队列变化。

从控制理论的角度分析,计算丢弃概率p的部分是一个比例控制器。

RED算法与Drop-Tail相比,可以有效的控制平均队列长度,从而控制了端到端的延时,同时减少了分组的突发性丢弃,避免了TCP全局同步问题。

此外由于RED算法的随机丢弃机制,占用带宽越高的流的分组越容易被丢弃,所以算法可以在无需维护每个流状态的前提下提供一定程度的公平性,避免死锁问题。

实验结果证明RED的性能优于Drop-Tail。

尽管RED已被广泛应用于网络队列管理中来提高网络系统的性能,但是RED算法仍然存在以下问题:

1)算法性能对网络参数和状态敏感;

2)不能总是保证所有的流公平地分享带宽;

3)算法鲁棒性不佳,导致路由器队列长度大幅震荡甚至溢出;

4)使用RED算法的平均队列长度会随着活动流数量的增多而增加,即RED算法中网络负载和队列长度存在耦合。

从控制理论的角度分析,RED算法中网络负载和队列长度的耦合的根本原因是算法中的比例控制器使系统存在静差。

此外,一方面RED算法使闭环系统的带宽过低,从而导致系统对于干扰和负载变化的响应速度很慢(低通滤波器是造成响应过慢的一个主要因素);另外一个方面,当系统在负载较轻或较重时,稳态的丢弃概率可能会小于

或大于

,这时算法工作在图3.2所示曲线的非线性区域,导致系统难以稳定,从而造成队列大幅度振荡。

2.2ARED算法

自适应RED(AdaptiveRED,ARED)

针对RED存在的缺陷,出现了不少RED的派生算法,包括ARED(AdaptiveRED)、SRED(StabilizedRED)和RED-PD(REDPreferentialDropping)等。

它们的主要思路是根据网络中负载的情况对丢失概率进行动态调整,这里主要介绍ARED算法。

ARED在RED算法的基础上增加了根据平均队列长度调整

的策略,以改变RED算法的控制激进程度。

当平均队列长度小于

,就减小

以使控制更为保守;反之当平均队列大于

时,就增大

以使控制更为激进。

ARED使用了两个额外的参数α和β来对

进行调整,其调整策略是:

每当平均队列长度avg被更新时,如果avg的值所在区域发生变化,

的更新方法如2.3式所示:

(2.3)

其中β>α>1,当选取β=α=1时,ARED算法就变成了普通的RED算法。

ARED对RED算法改动很小,但在一定程度上弥补了RED算法参数对于网络条件的依赖性,算法性能得到了较大的改善。

2.3PI算法

比例-积分(ProportionalIntegral,PI)

前面提到的AQM控制机制大多在研究工作很大程度上是依赖于直觉的、启发性的、针对局部个别问题的,没有以系统的理论作为分析和设计的依据。

因此算法的性能难以保证,另外在算法参数的选择问题上也具有一定的困难性。

Misra等将Internet中的数据流看作一个连续状态的流体,并据此假设建立了TCP/AQM系统的一个流体流非线性动态模型(Fluid-FlowModel)。

该模型可描述为:

(2.4)

式中:

W为TCP拥塞窗口大小,q为瞬时队列长度,R为往返时间RTT=q/C+d,d为传输延时,C是链路带宽,N为网络负载(TCP连接数),p为分组丢弃/标记的概率。

研究表明式(2.4)所示的模型可以在一定程度上较好的描述TCP/AQM系统的动态特性,因此被大多数基于控制理论的算法用于拥塞控制算法的设计和分析。

Hollot据此线性化后的模型,用经典线性控制理论分析了RED的稳定性和参数选择的依据,并给出了一种用于AQM的比例-积分(ProportionalIntegral,PI)控制器,控制算式见式(2.10):

(2.5)

其中,

为比例增益系数,

积分增益系数。

(2.6)

这里E(s)是当前队列长度和目标队列长度之间的误差。

使用离散的形式,误差可以表示为:

(2.7)

对式(2.6)使用双线性变换:

(2.8)

这里T是采样周期。

由此,我们可以得到PI控制器传递函数的离散形式如下:

(2.9)

可以得到式(2.9)的离散化形式为:

(2.10)

式中:

PI算法在一定程度上克服了网络参数变化的扰动,在大多数网络环境下可以将队列长度控制在一个目标值附近,并保证了一定的稳定裕度。

算法降低了端到端的延时抖动,提高了系统性能,更有助于AQM技术目标的实现。

但是PI算法也存在对扰动响应太慢的问题。

基于控制理论设计和分析主动队列管理机制具有以下优越性:

1)设计方法更加科学,参数配置容易。

控制理论是在系统数学模型的基础上建立起来的完善的理论体系,可以根据系统的稳态和动态性能要求选择合适的;

2)控制器,根据系统的稳定性、准确性、快速性、鲁棒性等要求决定控制器的参数;

3)算法的性能对网络条件的敏感性降低,在控制器的设计阶段就已经将系统的稳态精度、响应速度、稳定裕度、抗干扰能力等作为设计目标;

4)大部分基于控制理论设计的AQM机制的复杂程度与RED相当,实现简单,适用于高速网络。

特别是从经典控制理论推导出的控制器,其报文丢弃概率通常是瞬时队列长度的线性函数;

5)具有明确的控制目标,消除了队列长度与负载的耦合,减小了队列振荡。

2.4REM算法

随机指数标记(RandomExponentialMarking,REM)

典型的基于优化理论方法的AQM算法是REM(RandomExponentialMarking)。

它的设计是从最优化流控制(OptimizationFlowControl)理论得到的,其设计目标是在较低的队列延迟下保证队列输入速率和输出速率的匹配。

算法包含2个主要部分。

一个是价格机制(pricemechanism),用于拥塞的测量;另一个是指数标记(exponentialmarking),用于拥塞的反馈,但是算法并没有明确说明使用指数函数的优势。

(2.11)

式中:

p(t)为t时刻的价格;b(t)为t时刻的队列长度;

为期望队列长度;x(t)为t时刻队列的输入速率;c(t)为t时刻队列的输出速率;γ和α是较小的正实数。

(2.12)

其中m(t)为t时刻分组的标记/丢弃概率;φ为大于1的正实数。

式(2.11)、(2.12)用于标记概率的计算。

其中式(2.11)用于计算价格,以对网络的拥塞程度进行度量,用户越多则价格也越高。

α用于调整队列长度误差和速率误差之间的权值,γ用于控制REM算法对于网络条件的响应速度。

式(2.12)由价格计算标记概率,价格越高则标记概率也越高。

REM算法是一个二阶网络拥塞控制算法,通过解耦网络性能的平衡值和分组丢弃率的平衡值,使得网络达到平衡时,系统具有较低的分组丢弃率和较短的队列时延,能更好的保证Internet的服务质量,提高网络的稳定性。

REM算法利用了Kell提出的网络流量优化理论中“价格”的概念来探测和控制网络的拥塞状态。

“价格”的变化由两方面的因素决定,一方面是瞬时队列长度与目标队列长度之间的差值,另一方面是报文到达速率与链路带宽的差值。

REM将报文到达速率与链路带宽的差值和瞬时队列长度与目标队列长度的差值的加权组合定义为链路“价格”。

REM利用一条通路上所有连接的“价格”值的累加和作为这条通路的拥塞度量,并把它嵌入到,可以被源端检测到的端到端的包标记概率中。

REM的目标是使报文到达速率与链路带宽相匹配,从而清空缓冲区。

第三章实验方法

实验中,我们构建了一个实验室网络用来仿真两个互联网提供商网络的互连。

特别地是,我们仿真了一条对等的连接用来负载源节点和目的节点之间的网络流量传输,并且两个ISP网络之间的网络传输在两个方向上取得均衡。

架构中所有的系统全部是运行于FREEBSD4.5下的英特尔机制。

在这个网络的边缘,一系列的机器在运行,例如网站请求发生器用来仿真成千上万个用户浏览网页的行为。

另外,在网络的每一个边缘也运行着类似网站响应发生器的机器,产生网络传输流来响应浏览请求。

试验台上共有44个网络流量发生器。

在本文在余下内容中,我们将以浏览器代称请求发生器,用服务器网络流量响应器。

该网络的核心是有运行于有ALTQ扩展成的FREEBSD的两个路由器组成。

ALTQ在网络接口处把IP输出队列扩展成可选择的队列管理科目。

ALTQ通常有PI,REM和ARED组成。

路由器有三个点对点的以太网段组成(2个100MPS的以太网段和1个光纤的Gbit的以太网)实现互连。

Gbit的以太网用来仿真不拥塞的网络环境,而100MPS的以太网用来仿真拥塞的网络环境。

当运行于不拥挤的网络环境时,路由器配置静态的路径,从而在GBIT以太网中实现网络中的全双工传输。

当我们需要模拟一下路由瓶颈时,静态路径需要重新配置,在一个方向的网络传输流通过10MPS以太网传输,在相反的方向上,利用另一个100mps以太网进行网络传输,这种配置可以用来模拟广域网的网络连接。

影响这个网络仿真的另一个重要因素是端到端延迟。

我们使用一个本地修改的FreeBSD组件配置浏览器出包的延迟,仿真每次TCP传输时的不同往返时延。

通过扩展dummynet机制,从调整每次流的带宽扩展成一个新的模式,即对每次数据流的数据包随即附加一个最小的延迟。

在一个跟定的数据流中所有的最小延迟相同(通过IP寻址5元组)。

毫秒级的最小延迟从每次实验分配的一个轮回时间里随即采样获得。

通常采用两轮循环分发。

第一次是离散的统一分发。

一次统一分发的时间在[10,150]之间(平均80毫秒)。

一次分发的最小值和最大值是通过文献[5]中所描述的方法来选择来近似网络往返时延的变化范围。

统一分发确保了在这个范围内可以有很大的变化。

第二个最小的往返时延是更加普遍的分布,其源自于一个最近关于往返时延的测量研究中,通过TCP连接传送一个大学校园的网关。

本次试验中通过TCP发送的来回的次数是有最小的RTT循环时间加上路由器的队列延迟之和组成的。

(终端系统配置成无资源限制,从而没有延迟)TCP传输窗口采用的是16KBIT,因为这被广泛应用于OS平台上。

大多数的windows版本上,通常具有默认的windows值或比这个更小。

3.1类网页流的产生

流量是驱使我们的仿真是基于一个最近的大规模的网页流分析。

由此产生的模型是一个应用程序级描述,具体描述了HTTP/1.0和HTTP/1.1协议在实际中如何运行。

它是基于实验数据,适用于合成Web工作负载。

这个模型的一个重要特性是它反映了在我们目前使用的许多浏览器和服务器中持续使用HTTP连接实现。

此外,文献16中区分了“顶层”Web对象(通常是一个HTML文件)和它们嵌入对象(例如,图像文件)。

这些数据在这时聚集,近于所有TCP连接的15%承载HTTP协议得到了有效的持续性(分别为用于请求两个或多个对象),但超过这些所有对象的50%(40%字节数)在这些持续的连接被转移。

该模型作为经验分布用来描述合成HTTP工作负载的元素。

该模型的元素在在新增流中有明显的作用。

大多数的网页浏览行为在客户请求程序(浏览器)中被仿真。

它最主要的参数是浏览用户数量的仿真(最典型的是几百到几千)。

对每个用户的仿真,这个程序实现了一个简单的状态机的功能,可代表了用户的状态如思考或者请求一个web网页。

如果请求一个web网页发送一个请求到服务器端(执行远程机器上)。

然后对于每个嵌入式参考请求发送到一些服务器上。

浏览器同样决定了适当的使用持续和非持续的连接;所以新连接的15%是随机选择持续的。

另一个随机选择是从每秒的分布请求是持续连接,用于确定有多少请求将使用持续连接。

程序的另一个参数是平行TCP连接的数量,允许每个浏览用户使嵌入的请求在一个页面上。

对于每一个请求,一个消息的随机样本大小,来自于请求大小分布,通过网络发送到一个服务器程序的实例。

这消息作为响应返回指定的服务器字节数量。

(一个随机样本大小的分布不同的取决于是否它是一个顶层或嵌入的请求)。

服务器传回字节大小到浏览器中。

对每一个请求/响应的交换,浏览器记录其响应时间。

响应时间定义为运行时间,无论是在套接字连接()操作(一个非持续的连接)或初始请求(在一个持续连接)或套接字写()操作(在持续连接后续请求)和最后字节响应被返回的时间。

注意,这个响应时间是页面的每一个对象的时间,而不是加载一个页面中所有对象的总时间。

当一个页面所有的请求/响应被完成时,模拟浏览用户进入思维状态,在一个随机的时间段中不会做出更多的请求。

这个网页的数量要求用户从分布连续页面请求继承一个给定服务器的样本。

当页面请求的数量被完成,接下来的服务器随机地从一组活动服务器中选择,用来

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 管理学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1