ImageVerifierCode 换一换
格式:DOCX , 页数:33 ,大小:357.34KB ,
资源ID:22370662      下载积分:3 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.bdocx.com/down/22370662.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录  

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(迪普科技负载均衡技术白皮书Word文档格式.docx)为本站会员(b****8)主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(发送邮件至service@bdocx.com或直接QQ联系客服),我们立即给予删除!

迪普科技负载均衡技术白皮书Word文档格式.docx

1、Network Address Translation网络地址转换RTTRound Trip Time往返时间DNSDomain Name Service域名服务SSLSecure Socket Layer安全套接层TTLTime To Live生存时间VPNVirtual Private Network虚拟专用网络VRRPVirtual Router Redundancy Protocol虚拟路由器冗余协议DRDirect Routing直接路由XSS(CSS)Cross Site Script跨站脚本攻击1 负载均衡技术概述1.1 负载均衡技术背景1.1.1 服务器负载均衡技术背景随着In

2、ternet的快速发展和业务量的不断提高,基于网络的数据访问流量迅速增长,特别是对数据中心、大型企业以及门户网站等的访问,其访问流量甚至达到了10Gb/s的级别;同时,服务器网站借助HTTP、FTP、SMTP等应用程序,为访问者提供了越来越丰富的内容和信息,服务器逐渐被数据淹没;另外,大部分网站(尤其电子商务等网站)都需要提供不间断24小时服务,任何服务中断或通信中的关键数据丢失都会造成直接的商业损失。所有这些都对应用服务提出了高性能和高可靠性的需求。但是,相对于网络技术的发展,服务器处理速度和内存访问速度的增长却远远低于网络带宽和应用服务的增长,网络带宽增长的同时带来的用户数量的增长,也使得

3、服务器资源消耗严重,因而服务器成为了网络瓶颈。传统的单机模式,也往往成为网络故障点。图1 现有网络的不足针对以上情况,有以下几种解决方案:2. 服务器进行硬件升级:采用高性能服务器替换现有低性能服务器。该方案的弊端:高成本:高性能服务器价格昂贵,需要高额成本投入,而原有低性能服务器被闲置,造成资源浪费。可扩展性差:每一次业务量的提升,都将导致再一次硬件升级的高额成本投入,性能再卓越的设备也无法满足当前业务量的发展趋势。无法完全解决现在网络中面临的问题:如单点故障问题,服务器资源不够用问题等。3. 组建服务器集群,利用负载均衡技术在服务器集群间进行业务均衡。多台服务器通过网络设备相连组成一个服务

4、器集群,每台服务器都提供相同或相似的网络服务。服务器集群前端部署一台负载均衡设备,负责根据已配置的均衡策略将用户请求在服务器集群中分发,为用户提供服务,并对服务器可用性进行维护。该方案的优势:低成本:按照业务量增加服务器个数即可;已有资源不会浪费,新增资源无需选择昂贵的高端设备。可扩展性:当业务量增长时,系统可通过增加服务器来满足需求,且不影响已有业务,不降低服务质量。高可靠性:单台服务器故障时,由负载均衡设备将后续业务转向其他服务器,不影响后续业务提供,保证业务不中断。图1 负载均衡技术1.1.2 网关负载均衡技术背景SSL VPN网关、IPsec网关、防火墙网关等网关设备,因为业务处理的复

5、杂性,往往成为网络瓶颈。以防火墙网关为例:防火墙作为网络部署的“警卫”,在网络中不可或缺,但其往往不得不面临这样的尴尬:网络防卫越严格,需要越仔细盘查过往的报文,从而导致转发性能越低,成为网络瓶颈。在这种情况,如果废弃现有设备去做大量的硬件升级,必将造成资源浪费,随着业务量的不断提升,设备也将频繁升级。频繁升级的高成本是相当可怕的。因此将网关设备等同于服务器,组建网关集群的方案应运而生:将多个网关设备并联到网络中,从而形成集群,提高网络处理能力。1.1.3 链路负载均衡技术背景信息时代,工作越来越离不开网络,为了规避运营商出口故障带来的网络可用性风险,和解决网络带宽不足带来的网络访问问题,企业

6、往往会租用两个或多个运营商出口(如:电信、网通等)。如何合理运用多个运营商出口,既不造成资源浪费,又能很好的服务于企业?传统的策略路由可以在一定程度上解决该问题,但是策略路由配置不方便,而且不够灵活,无法动态适应网络结构变化,且策略路由无法根据带宽进行报文分发,造成高吞吐量的链路无法得到充分利用。链路负载均衡技术通过动态算法,能够在多条链路中进行负载均衡,算法配置简单,且具有自适应能力,能很好的解决上述问题。1.2 负载均衡技术优点分析负载均衡提供了一种廉价、有效、透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力,提高网络的灵活性和可用性。负载均衡技术具有如下优点:高性能

7、:通过调度算法,将客户端请求合理地均衡到后端各台服务器上,消除系统可能存在的瓶颈。当服务的负载增长时,系统能被扩展来满足需求,且不降低服务质量。高可用性:通过健康性检测功能,能实时监测应用服务器的状态,保证在部分硬件和软件发生故障的情况下,整个系统的服务仍然可用。 透明性:高效地使由多个独立计算机组成的松耦合的服务系统构成一个虚服务器;客户端应用程序与服务系统交互时,就像与一台高性能、高可用的服务器交互一样,客户端无须作任何修改。部分服务器的切入和切出不会中断服务,而用户觉察不到这些变化。2 负载均衡具体技术实现2.1 负载均衡相关概念介绍虚服务负载均衡设备对外提供的服务称为虚服务。虚服务由V

8、PN实例、虚服务IP地址、服务协议、服务端口号唯一标识,配置在负载均衡设备上。客户的访问请求通过公共或私有网络到达负载均衡设备,匹配到虚服务后,由负载均衡设备按照既定策略分发给真实服务。实服务实服务是真实服务器提供的一种服务。该服务含义比较广泛,可以是传统的FTP、HTTP等业务应用,也可以是广义的转发服务,如防火墙网关负载均衡中,实服务只是报文转发路径。持续性功能持续性功能将属于同一个应用层会话的多个连接定向到同一服务器,从而保证同一业务由同一个服务器处理(或链路转发),并减少负载均衡设备对服务和流量进行分发的次数。负载均衡调度算法负载均衡设备需要将业务流量根据某种算法分发给不同的实服务(实

9、服务对应服务器负载均衡中的服务器、网关负载均衡中的网关设备和链路负载均衡中的链路),这个分发算法就是负载均衡调度算法。就近性算法就近性算法是指在链路负载均衡中,实时探测链路的状态,并根据探测结果选择最优链路,保证流量通过最优链路转发。健康性检测功能健康性功能是指负载均衡设备对真实的服务器是否能够提供服务进行探测。依据不同的探测方法(即健康性检测方法)可以探测出服务器是否存在,以及是否可以正常提供服务。2.2 服务器负载均衡基本概念和技术服务器负载均衡,顾名思义就是对一组服务器提供负载均衡业务。这一组服务器一般来说都处于同一个局域网络内,并同时对外提供一组(或多组)相同(或相似)的服务。服务器负

10、载均衡是数据中心最常见的组网模型。服务器负载均衡包括以下几个基本元素:负载均衡设备:负责分发各种服务请求到多个Server的设备。Server:负责响应和处理各种服务请求的服务器。VS IP:对外提供的虚拟IP,供用户请求服务时使用。Server IP:服务器的IP地址,供负载均衡设备分发服务请求时使用。依据转发方式,服务器负载均衡分为NAT方式和DR方式。两种方式的处理思路相同:负载均衡设备提供VS IP,用户访问VS IP请求服务后,负载均衡设备根据调度算法分发请求到各个实服务。而在具体的处理方式上有所区别:NAT方式:负载均衡设备分发服务请求时,进行目的IP地址转换(目的IP地址为实服务

11、的IP),通过路由将报文转发给各个实服务。DR方式:负载均衡设备分发服务请求时,不改变目的IP地址,而将报文的目的MAC替换为实服务的MAC后直接把报文转发给实服务。以下将分别对两种方式进行详细介绍。2.2.1 NAT方式的服务器负载均衡NAT方式组网灵活,后端服务器可以位于不同的物理位置,不同的局域网内。NAT方式典型组网如图3所示。图1 NAT方式的服务器负载均衡2. 实现原理客户端将到VS IP的请求发送给服务器群前端的负载均衡设备,负载均衡设备上的虚服务接收客户端请求,依次根据持续性功能、调度算法,选择真实服务器,再通过网络地址转换,用真实服务器地址重写请求报文的目标地址后,将请求发送

12、给选定的真实服务器;真实服务器的响应报文通过负载均衡设备时,报文的源地址被还原为虚服务的VS IP,再返回给客户,完成整个负载调度过程。3. 工作流程NAT方式的服务器负载均衡的工作流程图如图4所示。图1 NAT方式的服务器负载均衡流程图流程简述如下:(1) 客户端发送服务请求报文 (源IP为客户端 IP、目的IP为VS IP)(2) 负载均衡设备ADX接收到请求报文后,借助持续性功能或调度算法计算出应该将请求分发给哪台Server(3) 负载均衡设备ADX使用DNAT技术分发报文 (源IP为客户端 IP、目的IP为Server IP)(4) Server接收并处理请求报文,返回响应报文 (源

13、IP为Server IP、目的IP为客户端 IP)(5) 负载均衡设备ADX接收响应报文,转换源IP后转发 (源IP为VS IP、目的IP为客户端 IP)从以上一系列的说明可以看出在负载均衡时使用网络地址转换技术,NAT方式因此而得名。4. 技术特点组网灵活,对服务器没有额外要求,不需要修改服务器配置,适用于各种组网。2.2.2 DR方式的服务器负载均衡相对于NAT组网方式,DR组网方式中只有客户端的请求报文通过负载均衡设备,服务器的响应报文不经过负载均衡设备,从而减少了负载均衡设备的负载,有效的避免了负载均衡设备成为网络瓶颈。DR方式典型组网如图5所示。图1 DR方式的服务器负载均衡DR方式

14、的服务器负载均衡时,除了负载均衡设备设备上配置了VS IP,真实服务器也都配置了VS IP,配置的VS IP要求不能响应ARP请求,例如在环回接口上配置VS IP。实服务除了VS IP,还需要配置一个真实IP,用于和ADX通信,负载均衡设备ADX和真实服务器在同一个链路域内。发送给VS IP的报文,由ADX分发给相应的真实服务器,从真实服务器返回给客户端的报文直接通过交换机返回。DR方式的服务器负载均衡的工作流程图如图6所示。图1 DR方式的服务器负载均衡流程图(2) General Device收到请求后转发给负载均衡设备ADX(Server上的VS IP不会响应ARP请求)(3) 负载均衡

15、设备ADX接收到请求报文后,借助持续性功能或调度算法计算出应该将请求分发给哪台Server(4) 负载均衡设备ADX分发报文(源IP为客户端 IP,目的IP为VS IP,目的MAC为Server的MAC地址)(5) Server接收并处理请求报文,返回响应报文(源IP为VS IP、目的IP为客户端 IP)(6) General Device收到响应报文后,直接将报文转发给客户端从以上一系列的说明可以看出负载均衡设备没有采用传统的转发方式(查找路由表)来分发请求报文,而是通过修改目的MAC直接路由给服务器,DR方式也因此而得名。只有单边报文经过负载均衡设备,负载均衡设备负担小,不易成为瓶颈,转发

16、性能更强。2.3 网关负载均衡基本概念和技术网关负载均衡包括以下几个基本元素:负载均衡设备ADX:负责分发请求发起方的网络流量到多个网关设备。负载均衡设备ADX又分为一级和二级。如图7所示,如果请求发起方的网络流量方向为客户端 A 客户端 B,则负载均衡设备ADX A为一级,负载均衡设备ADX B为二级;如果请求发起方的网络流量方向为客户端 B 客户端 A,则负载均衡设备ADX B为一级,负载均衡设备ADX A为二级。网关设备:正常处理数据的网关设备,如:SSL VPN网关,IPsec网关,防火墙网关等。以防火墙网关负载均衡为例,组网应用如图7所示。图1 双侧防火墙网关(三明治)负载均衡防火墙

17、是基于会话开展业务的,即一个会话的请求和应答报文必须通过同一个防火墙。为了保证防火墙业务正常进行,内部组网不受影响,需要采用双侧负载均衡,即防火墙三明治。在这种组网环境中,对于流入流量,一级负载均衡设备做防火墙负载均衡,二级负载均衡设备保证从哪个防火墙进来的流量,还要从这个防火墙返回。流出流量正好相反。图1 防火墙负载均衡流程图(1) 负载均衡设备ADX A接收流量(2) 负载均衡设备ADX A依次根据持续性功能、负载均衡调度算法选择一个Firewall,并将流量转发给该Firewall (由于防火墙基于会话开展业务,建议优先选用源地址散列算法)(3) Firewall将流量转发给负载均衡设备

18、ADX B(4) 负载均衡设备ADX B作为二级负载均衡设备ADX,记录转发该流量的防火墙,并将流量转发到目的地(5) 负载均衡设备ADX B接收目的地发回的流量(6) 负载均衡设备ADX B根据(4)中的记录将流量转发给同一个Firewall(7) Firewall将流量转发给负载均衡设备ADX A(8) 负载均衡设备ADX A将流量转发回源地址从以上一系列的说明可以看出两台负载均衡设备ADX之间并联的防火墙进行网络流量的负载分担,提高了网络的性能。两侧的负载均衡设备ADX和中间并联的防火墙我们称之为三明治负载均衡。服务对象为防火墙,提高防火墙组网灵活性。没有特殊要求,适用于任何组网环境。2

19、.4 服务器负载均衡和网关负载均衡融合网关负载均衡也可以和服务器负载均衡融合使用,以防火墙网关和服务器负载均衡综合组网为例,具体组网如图9所示。图1 防火墙网关、服务器负载均衡综合组网图图中Cluster A为防火墙负载均衡的集群,Cluster B为NAT方式服务器负载均衡的集群。综合组网的工作流程就是防火墙、服务器负载均衡流程的叠加。这样的组网方式既避免了防火墙成为网络中的瓶颈,也提高了各种网络服务(如HTTP、FTP)的性能和可用性。2.5 链路负载均衡基本概念和技术链路负载均衡根据业务流量方向可以分为Outbound链路负载均衡和Inbound链路负载均衡两种情况。2.5.1 Outb

20、ound链路负载均衡内网和外网之间存在多条链路时,通过Outbound链路负载均衡可以实现在多条链路上分担内网用户访问外网服务器的流量。Outbound链路负载均衡的典型组网如图10所示。图1 Outbound链路负载均衡组网图Outbound链路负载均衡包括以下几个基本元素:负责将内网到外网流量分发到多条物理链路的设备。物理链路:运营商提供的实际链路。对外提供的虚服务IP,即用户发送报文的目的网段。Outbound链路负载均衡中VS IP为内网用户发送报文的目的网段。用户将访问VS IP的报文发送到负载均衡设备后,负载均衡设备依次根据持续性功能、ACL策略、就近性算法、调度算法选择最佳的物理

21、链路,并将内网访问外网的业务流量分发到该链路。图1 Outbound链路负载均衡流程图(1) 负载均衡设备ADX接收内网用户流量(2) 负载均衡设备ADX依次根据持续性功能、ACL策略、就近性算法、调度算法进行链路选择(在Outbound链路负载均衡组网中,通常使用就近性算法或带宽调度算法实现流量分发)(3) 负载均衡设备ADX按照链路选择的结果将流量转发给选定的链路(4) 负载均衡设备ADX接收外网用户流量(5) 负载均衡设备ADX将流量转发给内网用户可以和NAT应用网关共同组网,不同的链路使用不同的源地址,从而保证往返报文穿过同一条链路。通过健康性检测,可以检查链路内任意节点的连通性,从而

22、有效保证整条路径的可达性。通过调度算法,在多条链路间均衡流量,并支持按照带宽进行负载均衡。利用就近性算法动态计算链路的质量,将流量分发到当前最优链路上。2.5.2 Inbound链路负载均衡内网和外网之间存在多条链路时,通过Inbound链路负载均衡可以实现在多条链路上分担外网用户访问内网服务器的流量。Inbound链路负载均衡的典型组网如图12所示。图1 Inbound链路负载均衡组网图Inbound链路负载均衡包括以下几个基本元素:负责引导外网流量通过不同物理链路转发到内网,从而实现流量在多条物理链路上分担的设备。同时,负载均衡设备ADX还需要作为待解析域名的权威名称服务器。本地DNS服务

23、器:负责解析外网用户发送的DNS请求、并将该请求转发给权威名称服务器负载均衡设备ADX的本地DNS服务器。Inbound链路负载均衡中,负载均衡设备作为权威名称服务器记录域名与内网服务器IP地址的映射关系。一个域名可以映射为多个IP地址,其中每个IP地址对应一条物理链路。外网用户通过域名方式访问内网服务器时,本地DNS服务器将域名解析请求转发给权威名称服务器负载均衡设备,负载均衡设备依次根据持续性功能、ACL策略、就近性算法选择最佳的物理链路,并将通过该链路与外网连接的接口IP地址作为DNS域名解析结果反馈给外网用户,外网用户通过该链路访问内网服务器。图1 Inbound链路负载均衡流程图(1

24、) 外网用户通过域名访问内网服务器时,首先要进行DNS解析,向其本地DNS服务器发送DNS请求(2) 本地DNS服务器将DNS请求转发给域名对应的权威名称服务器负载均衡设备ADX(3) 负载均衡设备ADX根据DNS请求的域名、持续性功能、ACL策略、就近性算法选择最优的物理链路,并将通过该物理链路与外网连接的接口IP地址作为域名解析结果(在Inbound链路负载均衡组网中,通常使用就近性算法实现外网到内网流量在多条链路间均衡)(4) 负载均衡设备ADX按照域名解析的结果,将DNS应答发送给本地DNS服务器(5) 本地DNS服务器将解析结果转发给用户 (6) 用户使用解析结果选择的链路,对内网服

25、务器进行访问可以和服务器负载均衡配合适用,实现外网用户访问内网服务器流量在多条链路间均衡的同时,也实现了流量在多台服务器间均衡。利用就近性算法动态计算链路的质量,保证转发流量的链路是当前最优的链路。2.6 负载均衡设备的双机热备无论是服务器负载均衡、网关负载均衡,还是链路负载均衡,负载均衡设备均处于关键路径,负载均衡设备的稳定性和安全性直接影响了网络的可用性。为了避免单点故障,负载均衡设备必须支持双机热备,即在两台负载均衡设备之间通过备份链路备份对端设备上的业务,保证两台设备上的业务状态是一致的。当其中一台设备发生故障时,利用VRRP或动态路由(例如OSPF)机制将业务流量切换到另一台设备,由

26、于另一台设备已经备份了故障设备上的业务信息,业务数据流便可以从该设备上通过,从而在很大程度上避免了网络业务的中断。负载均衡设备双机热备方案支持两种工作模式:主备模式:两台负载均衡设备中一台作为主设备,另一台作为备份设备。主设备处理所有业务,并将产生的业务信息通过备份链路传送到备份设备;备份设备不处理业务,只用做备份。当主设备故障,备份设备接替主设备处理业务,从而保证新发起的负载均衡业务能正常处理,当前正在进行的负载均衡业务也不会中断。负载分担模式:两台负载均衡设备均为主设备,都处理业务流量,同时又作为另一台设备的备份设备,备份对端的业务信息。当其中一台设备故障后,另一台设备负责处理全部业务,从

27、而保证新发起的负载均衡业务能正常处理,当前正在进行的负载均衡业务也不会中断。以网关负载均衡为例,负载均衡双机热备的组网如图14所示。图1 网关负载均衡双机热备组网图2.7 负载均衡设备的的部署方式负载均衡设备通常以直联和单臂两种方式部署在网络中。2.7.1 对称方式如图15所示,对称方式,即负载均衡设备直接部署在网络的主干中,服务器和客户端之间的负载均衡报文直接由负载均衡设备进行路由。图1 直联方式示意图2.7.2 单臂模式如图16所示,单臂模式指负载均衡设备不作为服务器和客户端之间的路由设备,而是单臂在路由设备上。在DR方式中,负载均衡设备只能使用单臂模式。图1 单臂模式示意图单臂模式中,用

28、于中转的路由交换设备上的配置至关重要。从客户端至服务器的流量如果要达到负载均衡设备,必须在路由交换设备上设置到VS IP的路由。从服务器到客户端的流量如果不必经过负载均衡设备,则可以通过中转设备直接返回客户端,如果需要返回负载均衡设备,则有几种方式:服务器和负载均衡设备在同一个二层网络,服务器设置其网关为负载均衡设备。中转设备上配置策略路由,将从服务器返回的流量定向到负载均衡设备。负载均衡设备在转发客户端流量时进行源NAT。3 迪普科技负载均衡技术特色3.1 多种负载均衡调度算法调度算法指对需要负载均衡的流量,按照一定的策略分发到指定的服务器群中的服务器或指定链路组的某条链路上,使得各台服务器

29、或链路尽可能地保持负载均衡。调度算法以连接为粒度,同一条连接的所有报文都会分发到同一个服务器或链路上。这种细粒度的调度在一定程度上可以避免单个用户访问的突发性引起服务器或链路间的负载不平衡。负载均衡技术持丰富的负载均衡调度算法。不同调度算法所实现的负载均衡效果不同,可以需要根据具体的应用场景,采用不同的算法。3.1.1 静态调度算法静态算法,即按照预先设定策略,进行分发,不考虑当前各实服务或链路的实际负载情况。算法特点:实现简单,调度快捷。轮转(Round Robin Scheduling)依次将请求分发到不同的服务器或链路上,使得各个真实服务器或链路平均分担用户的连接请求。如:实服务群中包含三个实服务A、B、C,假设各实服务均未达到连接上限,最后分发给A、B、C的连接数之比为1:1:1。适用场景:服务器集群中各服务器性能或链路群中各链路带宽相当,无优劣之分。加权轮转(Weighted Round Robin Scheduling)按照权值大小,依次将请

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1