迪普科技负载均衡技术白皮书Word文档格式.doc

上传人:b****2 文档编号:13320351 上传时间:2022-10-09 格式:DOC 页数:29 大小:1.74MB
下载 相关 举报
迪普科技负载均衡技术白皮书Word文档格式.doc_第1页
第1页 / 共29页
迪普科技负载均衡技术白皮书Word文档格式.doc_第2页
第2页 / 共29页
迪普科技负载均衡技术白皮书Word文档格式.doc_第3页
第3页 / 共29页
迪普科技负载均衡技术白皮书Word文档格式.doc_第4页
第4页 / 共29页
迪普科技负载均衡技术白皮书Word文档格式.doc_第5页
第5页 / 共29页
点击查看更多>>
下载资源
资源描述

迪普科技负载均衡技术白皮书Word文档格式.doc

《迪普科技负载均衡技术白皮书Word文档格式.doc》由会员分享,可在线阅读,更多相关《迪普科技负载均衡技术白皮书Word文档格式.doc(29页珍藏版)》请在冰豆网上搜索。

迪普科技负载均衡技术白皮书Word文档格式.doc

HTTP安全防护策略

IPsec

IPSecurity

IP安全

ARP

AddressResolutionProtocol

地址解析协议

DNAT

DestinationNAT

目的地址NAT

NAT

NetworkAddressTranslation

网络地址转换

RTT

RoundTripTime

往返时间

DNS

DomainNameService

域名服务

SSL

SecureSocketLayer

安全套接层

TTL

TimeToLive

生存时间

VPN

VirtualPrivateNetwork

虚拟专用网络

VRRP

VirtualRouterRedundancyProtocol

虚拟路由器冗余协议

DR

DirectRouting

直接路由

XSS(CSS)

CrossSiteScript

跨站脚本攻击

目录

1负载均衡技术概述 4

1.1负载均衡技术背景 4

1.1.1服务器负载均衡技术背景 4

1.1.2网关负载均衡技术背景 5

1.1.3链路负载均衡技术背景 6

1.2负载均衡技术优点分析 6

2负载均衡具体技术实现 7

2.1负载均衡相关概念介绍 7

2.2服务器负载均衡基本概念和技术 8

2.2.1NAT方式的服务器负载均衡 8

2.2.2DR方式的服务器负载均衡 11

2.3网关负载均衡基本概念和技术 13

2.4服务器负载均衡和网关负载均衡融合 15

2.5链路负载均衡基本概念和技术 15

2.5.1Outbound链路负载均衡 15

2.5.2Inbound链路负载均衡 18

2.6负载均衡设备的双机热备 20

2.7负载均衡设备的的部署方式 21

2.7.1对称方式 21

2.7.2单臂模式 22

3迪普科技负载均衡技术特色 23

3.1多种负载均衡调度算法 23

3.1.1静态调度算法 23

3.1.2动态调度算法 24

3.2灵活的就近性算法 25

3.3多种健康性检测方法 26

3.4多种会话持续性功能 26

3.4.1具有显式关联关系持续性功能 27

3.4.2具有隐式关联关系持续性功能 27

3.54~7层的负载均衡 28

3.6多种HTTP安全防护策略 28

3.7连接复用功能 29

3.8HTTP压缩功能 29

4典型组网应用实例 29

4.1企业园区网应用 29

4.2数据中心和大型门户网站应用 30

杭州迪普科技有限公司

第3页,共29页

1负载均衡技术概述

1.1负载均衡技术背景

1.1.1服务器负载均衡技术背景

随着Internet的快速发展和业务量的不断提高,基于网络的数据访问流量迅速增长,特别是对数据中心、大型企业以及门户网站等的访问,其访问流量甚至达到了10Gb/s的级别;

同时,服务器网站借助HTTP、FTP、SMTP等应用程序,为访问者提供了越来越丰富的内容和信息,服务器逐渐被数据淹没;

另外,大部分网站(尤其电子商务等网站)都需要提供不间断24小时服务,任何服务中断或通信中的关键数据丢失都会造成直接的商业损失。

所有这些都对应用服务提出了高性能和高可靠性的需求。

但是,相对于网络技术的发展,服务器处理速度和内存访问速度的增长却远远低于网络带宽和应用服务的增长,网络带宽增长的同时带来的用户数量的增长,也使得服务器资源消耗严重,因而服务器成为了网络瓶颈。

传统的单机模式,也往往成为网络故障点。

图1现有网络的不足

针对以上情况,有以下几种解决方案:

1.服务器进行硬件升级:

采用高性能服务器替换现有低性能服务器。

该方案的弊端:

l高成本:

高性能服务器价格昂贵,需要高额成本投入,而原有低性能服务器被闲置,造成资源浪费。

l可扩展性差:

每一次业务量的提升,都将导致再一次硬件升级的高额成本投入,性能再卓越的设备也无法满足当前业务量的发展趋势。

l无法完全解决现在网络中面临的问题:

如单点故障问题,服务器资源不够用问题等。

2.组建服务器集群,利用负载均衡技术在服务器集群间进行业务均衡。

多台服务器通过网络设备相连组成一个服务器集群,每台服务器都提供相同或相似的网络服务。

服务器集群前端部署一台负载均衡设备,负责根据已配置的均衡策略将用户请求在服务器集群中分发,为用户提供服务,并对服务器可用性进行维护。

该方案的优势:

l低成本:

按照业务量增加服务器个数即可;

已有资源不会浪费,新增资源无需选择昂贵的高端设备。

l可扩展性:

当业务量增长时,系统可通过增加服务器来满足需求,且不影响已有业务,不降低服务质量。

l高可靠性:

单台服务器故障时,由负载均衡设备将后续业务转向其他服务器,不影响后续业务提供,保证业务不中断。

图2负载均衡技术

1.1.2网关负载均衡技术背景

SSLVPN网关、IPsec网关、防火墙网关等网关设备,因为业务处理的复杂性,往往成为网络瓶颈。

以防火墙网关为例:

防火墙作为网络部署的“警卫”,在网络中不可或缺,但其往往不得不面临这样的尴尬:

网络防卫越严格,需要越仔细盘查过往的报文,从而导致转发性能越低,成为网络瓶颈。

在这种情况,如果废弃现有设备去做大量的硬件升级,必将造成资源浪费,随着业务量的不断提升,设备也将频繁升级。

频繁升级的高成本是相当可怕的。

因此将网关设备等同于服务器,组建网关集群的方案应运而生:

将多个网关设备并联到网络中,从而形成集群,提高网络处理能力。

1.1.3链路负载均衡技术背景

信息时代,工作越来越离不开网络,为了规避运营商出口故障带来的网络可用性风险,和解决网络带宽不足带来的网络访问问题,企业往往会租用两个或多个运营商出口(如:

电信、网通等)。

如何合理运用多个运营商出口,既不造成资源浪费,又能很好的服务于企业?

传统的策略路由可以在一定程度上解决该问题,但是策略路由配置不方便,而且不够灵活,无法动态适应网络结构变化,且策略路由无法根据带宽进行报文分发,造成高吞吐量的链路无法得到充分利用。

链路负载均衡技术通过动态算法,能够在多条链路中进行负载均衡,算法配置简单,且具有自适应能力,能很好的解决上述问题。

1.2负载均衡技术优点分析

负载均衡提供了一种廉价、有效、透明的方法扩展网络设备和服务器的带宽、增加吞吐量、加强网络数据处理能力,提高网络的灵活性和可用性。

负载均衡技术具有如下优点:

l高性能:

通过调度算法,将客户端请求合理地均衡到后端各台服务器上,消除系统可能存在的瓶颈。

当服务的负载增长时,系统能被扩展来满足需求,且不降低服务质量。

l高可用性:

通过健康性检测功能,能实时监测应用服务器的状态,保证在部分硬件和软件发生故障的情况下,整个系统的服务仍然可用。

l透明性:

高效地使由多个独立计算机组成的松耦合的服务系统构成一个虚服务器;

客户端应用程序与服务系统交互时,就像与一台高性能、高可用的服务器交互一样,客户端无须作任何修改。

部分服务器的切入和切出不会中断服务,而用户觉察不到这些变化。

2负载均衡具体技术实现

2.1负载均衡相关概念介绍

l虚服务

负载均衡设备对外提供的服务称为虚服务。

虚服务由VPN实例、虚服务IP地址、服务协议、服务端口号唯一标识,配置在负载均衡设备上。

客户的访问请求通过公共或私有网络到达负载均衡设备,匹配到虚服务后,由负载均衡设备按照既定策略分发给真实服务。

l实服务

实服务是真实服务器提供的一种服务。

该服务含义比较广泛,可以是传统的FTP、HTTP等业务应用,也可以是广义的转发服务,如防火墙网关负载均衡中,实服务只是报文转发路径。

l持续性功能

持续性功能将属于同一个应用层会话的多个连接定向到同一服务器,从而保证同一业务由同一个服务器处理(或链路转发),并减少负载均衡设备对服务和流量进行分发的次数。

l负载均衡调度算法

负载均衡设备需要将业务流量根据某种算法分发给不同的实服务(实服务对应服务器负载均衡中的服务器、网关负载均衡中的网关设备和链路负载均衡中的链路),这个分发算法就是负载均衡调度算法。

l就近性算法

就近性算法是指在链路负载均衡中,实时探测链路的状态,并根据探测结果选择最优链路,保证流量通过最优链路转发。

l健康性检测功能

健康性功能是指负载均衡设备对真实的服务器是否能够提供服务进行探测。

依据不同的探测方法(即健康性检测方法)可以探测出服务器是否存在,以及是否可以正常提供服务。

2.2服务器负载均衡基本概念和技术

服务器负载均衡,顾名思义就是对一组服务器提供负载均衡业务。

这一组服务器一般来说都处于同一个局域网络内,并同时对外提供一组(或多组)相同(或相似)的服务。

服务器负载均衡是数据中心最常见的组网模型。

服务器负载均衡包括以下几个基本元素:

l负载均衡设备:

负责分发各种服务请求到多个Server的设备。

lServer:

负责响应和处理各种服务请求的服务器。

lVSIP:

对外提供的虚拟IP,供用户请求服务时使用。

lServerIP:

服务器的IP地址,供负载均衡设备分发服务请求时使用。

依据转发方式,服务器负载均衡分为NAT方式和DR方式。

两种方式的处理思路相同:

负载均衡设备提供VSIP,用户访问VSIP请求服务后,负载均衡设备根据调度算法分发请求到各个实服务。

而在具体的处理方式上有所区别:

lNAT方式:

负载均衡设备分发服务请求时,进行目的IP地址转换(目的IP地址为实服务的IP),通过路由将报文转发给各个实服务。

lDR方式:

负载均衡设备分发服务请求时,不改变目的IP地址,而将报文的目的MAC替换为实服务的MAC后直接把报文转发给实服务。

以下将分别对两种方式进行详细介绍。

2.2.1NAT方式的服务器负载均衡

NAT方式组网灵活,后端服务器可以位于不同的物理位置,不同的局域网内。

NAT方式典型组网如图3所示。

图3NAT方式的服务器负载均衡

1.实现原理

客户端将到VSIP的请求发送给服务器群前端的负载均衡设备,负载均衡设备上的虚服务接收客户端请求,依次根据持续性功能、调度算法,选择真实服务器,再通过网络地址转换,用真实服务器地址重写请求报文的目标地址后,将请求发送给选定的真实服务器;

真实服务器的响应报文通过负载均衡设备时,报文的源地址被还原为虚服务的VSIP,再返回给客户,完成整个负载调度过程。

2.工作流程

NAT方式的服务器负载均衡的工作流程图如图4所示。

图4NAT方式的服务器负载均衡流程图

流程简述如下:

(1)客户端发送服务请求报文(源IP为客户端IP、目的IP为VSIP)

(2)负载均衡设备ADX接收到请求报文后,借助持续性功能或调度算法计算出应该将请求分发给哪台Server

(3)负载均衡设备ADX使用DNAT技术分发报文(源IP为客户端IP、目的IP为Server

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 考试认证 > IT认证

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1