基于LVS的Linux负载均衡技术实现.docx

上传人:b****6 文档编号:8493978 上传时间:2023-01-31 格式:DOCX 页数:23 大小:59.99KB
下载 相关 举报
基于LVS的Linux负载均衡技术实现.docx_第1页
第1页 / 共23页
基于LVS的Linux负载均衡技术实现.docx_第2页
第2页 / 共23页
基于LVS的Linux负载均衡技术实现.docx_第3页
第3页 / 共23页
基于LVS的Linux负载均衡技术实现.docx_第4页
第4页 / 共23页
基于LVS的Linux负载均衡技术实现.docx_第5页
第5页 / 共23页
点击查看更多>>
下载资源
资源描述

基于LVS的Linux负载均衡技术实现.docx

《基于LVS的Linux负载均衡技术实现.docx》由会员分享,可在线阅读,更多相关《基于LVS的Linux负载均衡技术实现.docx(23页珍藏版)》请在冰豆网上搜索。

基于LVS的Linux负载均衡技术实现.docx

基于LVS的Linux负载均衡技术实现

基于LVS的Linux负载均衡技术实现

最近在网络上看到不少人热衷于Linux集群的部署和配置。

但是配置的思路和具体的步骤实在不敢恭维。

为了解决一些新手在这方面存在的问题,特将本人原创的几个文档贡献出来。

希望高手指正,也希望给新手一些帮助。

在调度器的实现技术中,IP负载均衡技术效率最高。

在已有的IP负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为VS/NAT技术(Virtual Server via Network Address Translation),大多数商品化的IP负载均衡调度器产品都是使用此方法,如Cisco的LocalDirector、F5的Big/IP和Alteon的ACEDirector。

在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN(Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。

所以,IPVS软件实现了这三种IP负载均衡技术,它们的大致原理如下:

Virtual Server via Network Address Translation(VS/NAT) 

通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端真实服务器;真实服务器的响应报文通过调度器时,报文源地址被重写再返回给客户,完成整个负载调度过程。

下面的基本结构和三层结构其实都是利用NAT这种方式。

这种情况的配置比较简单,但通常在流量比较大的情况下会造成调度器的瓶颈。

因为服务数据的返回必须通过调度器出去。

Virtual Server via IP Tunneling(VS/TUN) 

采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。

为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。

由于一般网络服务应答比请求报文大许多,采用VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。

 

Virtual Server via Direct Routing(VS/DR) 

VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。

同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。

这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。

也就是说,在这种结构中,数据从外部到内部真实服务器的访问会通过调度器进来,但是真实服务器对其的应答不是通过调度器出去。

即在大多数情况下,真实服务器可以通过各自的网关或者专用的网关对数据进行外发,从而降低调度器负载。

同时在LVS中提供了八种不同的调度算法以供按照实际需求选择:

轮叫(Round Robin) 

调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。

 

加权轮叫(Weighted Round Robin) 

调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。

这样可以保证处理能力强的服务器处理更多的访问流量。

调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

 

最少链接(Least Connections) 

调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。

如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。

 

加权最少链接(Weighted Least Connections) 

在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。

调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。

 

基于局部性的最少链接(Locality-Based Least Connections) 

"基于局部性的最少链接" 调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。

该算法根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用"最少链接"的原则选出一个可用的服务器,将请求发送到该服务器。

 

带复制的基于局部性最少链接(Locality-Based Least Connections with Replication) "带复制的基于局部性最少链接"调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。

它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。

该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按"最小连接"原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器,若服务器超载;则按"最小连接"原则从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。

同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。

 

目标地址散列(Destination Hashing) 

"目标地址散列"调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

 

源地址散列(Source Hashing) 

"源地址散列"调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。

 

上述八种负载均衡调度算法在实施中,节点的权重越高,在集群中使用的频率就越高。

比如说权重为2的节点在每接收两个访问请求之后,权重为1的节点才接收一个访问请求。

LVS集群采用IP负载均衡技术和基于内容请求分发技术。

调度器具有很好的吞吐率,将请求均衡地转移到不同的服务器上执行,且调度器自动屏蔽掉服务器的故障,从而将一组服务器构成一个高性能的、高可用的虚拟服务器。

整个服务器集群的结构对客户是透明的,而且无需修改客户端和服务器端的程序。

为此,在设计时需要考虑系统的透明性、可伸缩性、高可用性和易管理性。

一般来说,LVS集群采用三层结构,其体系结构如图1所示,三层主要组成部分为:

 

负载调度器(load balancer),它是整个集群对外面的前端机,负责将客户的请求发送到一组服务器上执行,而客户认为服务是来自一个IP地址(我们可称之为虚拟IP地址)上的。

 

服务器池(server pool),是一组真正执行客户请求的服务器,服务有WEB、MAIL、FTP和DNS等。

 

共享存储(shared storage),它为服务器池提供一个共享的存储区,这样很容易使得服务器池拥有相同的内容,提供相同的服务。

 

调度器是服务器集群系统的唯一入口点(Single Entry Point),它可以采用IP负载均衡技术、基于内容请求分发技术或者两者相结合。

在IP负载均衡技术中,需要服务器池拥有相同的内容提供相同的服务。

当客户请求到达时,调度器只根据服务器负载情况和设定的调度算法从服务器池中选出一个服务器,将该请求转发到选出的服务器,并记录这个调度;当这个请求的其他报文到达,也会被转发到前面选出的服务器。

在基于内容请求分发技术中,服务器可以提供不同的服务,当客户请求到达时,调度器可根据请求的内容选择服务器执行请求。

因为所有的操作都是在Linux操作系统核心空间中将完成的,它的调度开销很小,所以它具有很高的吞吐率。

服务器池的结点数目是可变的。

当整个系统收到的负载超过目前所有结点的处理能力时,可以在服务器池中增加服务器来满足不断增长的请求负载。

对大多数网络服务来说,请求间不存在很强的相关性,请求可在不同的结点上并行执行,所以整个系统的性能基本上可随着服务器池的结点数目增加而线性增长。

共享存储通常是数据库、网络文件系统或者分布式文件系统。

服务器结点需要动态更新的数据一般存储在数据库系统中,同时数据库会保证并发访问时数据的一致性。

静态的数据可以存储在网络文件系统(如NFS/CIFS)中,但网络文件系统的伸缩能力有限,一般来说,NFS/CIFS服务器只能支持3~6个繁忙的服务器结点。

对于规模较大的集群系统,可以考虑用分布式文件系统,如AFS[1]、GFS[2.3]、Coda[4]和Intermezzo[5]等。

分布式文件系统可为各服务器提供共享的存储区,它们访问分布式文件系统就像访问本地文件系统一样,同时分布式文件系统可提供良好的伸缩性和可用性。

此外,当不同服务器上的应用程序同时读写访问分布式文件系统上同一资源时,应用程序的访问冲突需要消解才能使得资源处于一致状态。

这需要一个分布式锁管理器(Distributed Lock Manager),它可能是分布式文件系统内部提供的,也可能是外部的。

开发者在写应用程序时,可以使用分布式锁管理器来保证应用程序在不同结点上并发访问的一致性。

负载调度器、服务器池和共享存储系统通过高速网络相连接,如100Mbps交换网络、Myrinet和Gigabit网络等。

使用高速的网络,主要为避免当系统规模扩大时互联网络成为整个系统的瓶颈。

Graphic Monitor是为系统管理员提供整个集群系统的监视器,它可以监视系统的状态。

Graphic Monitor是基于浏览器的,所以无论管理员在本地还是异地都可以监测系统的状况。

为了安全的原因,浏览器要通过HTTPS(Secure HTTP)协议和身份认证后,才能进行系统监测,并进行系统的配置和管理。

层次的体系结构可以使得层与层之间相互独立,每一个层次提供不同的功能,在一个层次可以重用不同的已有软件。

例如,调度器层提供了负载平衡、可伸缩性和高可用性等,在服务器层可以运行不同的网络服务,如Web、Cache、Mail和Media等,来提供不同的可伸缩网络服务。

明确的功能划分和清晰的层次结构使得系统容易建设,以后整个系统容易维护,而且系统的性能容易被扩展。

共享存储如分布式文件系统在这个LVS集群系统是可选项。

当网络服务需要有相同的内容,共享存储是很好的选择,否则每台服务器需要将相同的内容复制到本地硬盘上。

当系统存储的内容越多,这种无共享结构(Shared-nothing Structure)的代价越大,因为每台服务器需要一样大的存储空间,任何的更新需要涉及到每台服务器,系统的维护代价会非常高。

共享存储为服务器组提供统一的存储空间,这使得系统的内容维护工作比较轻松,如Webmaster只需要更新共享存储中的页面,对所有的服务器都有效。

分布式文件系统提供良好的伸缩性和可用性,当分布式文件系统的存储空间增加时,所有服务器的存储空间也随之增大。

对于大多数Internet服务来说,它们都是读密集型(Read-intensive)的应用,分布式文件系统在每台服务器使用本地硬盘作Cache(如2Gbytes的空间),可以使得访问分布式文件系统本地的速度接近于访问本地硬盘。

此外,存储硬件技术的发展也促使从无共享的集群向共享存储的集群迁移。

存储区域网(Storage Area Networks)技术解决了集群的每个结点可以直接连接/共享一个庞大的硬盘阵列,硬件厂商也提供多种硬盘共享技术,如光纤通道(Fiber Channel)、共享SCSI(Shared SCSI)。

InfiniBand是一个通用的高性能I/O规范,使得存储区域网中以更低的延时传输I/O消息和集群通讯消息,并且提供很好的伸缩性。

InfiniBand得到绝大多数的大厂商的支持,如Compaq、Dell、Hewlett-Packard、IBM、Intel、Microsoft和SUN Microsystems等,它正在成为一个业界的标准。

这些技术的发展使得共享存储变得容易,规模生产也会使得成本逐步降低。

集群系统的特点是它在软硬件上都有冗余。

系统的高可用性可以通过检测节点或服务进程故障和正确地重置系统来实现,使得系统收到的请求能被存活的结点处理。

通常,我们在调度器上有资源监测进程来时刻监视各个服务器结点的健康状况。

当服务器对ICMP ping不可达时或者探测她的网络服务在指定的时间没有响应时,资源监测进程通知操作系统内核将该服务器从调度列表中删除或者失效。

这样,新的服务请求就不会被调度到坏的结点。

资源监测进程能通过电子邮件或传呼机向管理员报告故障。

一旦监测进程到服务器恢复工作,通知调度器将其加入调度列表进行调度。

另外,通过系统提供的管理程序,管理员可发命令随时可以将新机器加入服务来提高系统的处理性能,也可以将已有的服务器切出服务,以便对服务器进行系统维护。

现在前端的调度器有可能成为系统的单一失效点(Single Point of Failure)。

一般来说,调度器的可靠性较高,因为调度器上运行的程序较少而且大部分程序早已经遍历过,但我们不能排除硬件老化、网络线路或者人为误操作等主要故障。

为了避免调度器失效而导致整个系统不能工作,我们需要设立一个从调度器作为主调度器的备份。

两个心跳(Heartbeat)进程[6]分别在主、从调度器上运行,它们通过串口线和UDP等心跳线来相互定时地汇报各自的健康状况。

当从调度器不能听得主调度器的心跳时,从调度器通过ARP欺骗(Gratuitous ARP)来接管集群对外的Virtual IP Address,同时接管主调度器的工作来提供负载调度服务。

当主调度器恢复时,这里有两种方法,一是主调度器自动变成从调度器,二是从调度器释放Virtual IP Address,主调度器收回Virtual IP Address并提供负载调度服务。

这里,多条心跳线可以使得因心跳线故障导致误判(即从调度器认为主调度器已经失效,其实主调度器还在正常工作)的概论降到最低。

通常,当主调度器失效时,主调度器上所有已建立连接的状态信息将丢失,已有的连接会中断。

客户需要向重新连接,从调度器才会将新连接调度到各个服务器上,这对客户会造成一定的不便。

为此,IPVS调度器在Linux 内核中实现一种高效状态同步机制,将主调度器的状态信息及时地同步到从调度器。

当从调度器接管时,绝大部分已建立的连接会持续下去。

在具体实施过程中,在红帽企业版Linux上对LVS集群的定义和配置提供了更加详细的方案:

[ 本帖最后由 jerrywjl 于 2008-7-28 23:

55 编辑 ]

 jerrywjl回复于:

2008-07-2823:

48:

42

LVS集群的结构:

基本结构和三层结构

基本结构图示如下:

在这种结构中有两台双网卡的Linux服务器被配置为LVS Router,又称为调度器。

LVS的主要作用是虚拟出一个公共连接的IP地址和一个专用连接的IP地址(这两个地址不是手工配置生成,而是在服务启动的时候形成),称之为浮动地址。

在同一个时间,只有一个LVS Server处于工作状态,外部用户要访问内部的真实服务器实际上所做的操作是直接访问LVS Server的外部网络浮动地址,在这个例子中是eth0:

1。

这个公共网络浮动地址就是外部用户要访问的虚拟服务器。

只不过是虚拟服务器能够将来自外部的访问按照负载均衡算法发送到内部的真实服务器上面。

这种算法通常带有轮询性质。

而内部真实服务器在上面的结构中会将网关指向LVS Server的内部浮动地址,这个结构中是eth1:

1。

真实服务器在接收到由虚拟服务器转发的服务请求之后会将结果通过eth1:

1返回。

尽管eth0:

1是虚拟服务器IP地址,但是如果在同一个结构中要支持多个不同虚拟地址的服务,比如说HTTP在1.1.1.10,FTP在1.1.1.20……这种情况下完全可以建立多个不同的虚拟网卡。

不过仍然要注意,这个虚拟网络是在服务启动状态下自动生成的而不是手动建立和配置的。

为了保证所有的真实服务器都提供同样的服务内容,通常也会指定一些特定的方式,比如利用rsync或者借助下面的三层结构的共享存储来维护多台真实服务器的数据一致性。

在任何时候只有一台LVS服务器处于工作状态中,而另外一台处于备份状态。

他们之间通过心跳频道来相互探知对方的状态。

探知的方式是借助一些特定的脚本通过心跳频道相互发送信号。

在这个结构中主心跳频道是LVS服务器的公共网络,而备用心跳频道是LVS服务器的内部网络。

当然在上面的图中,并不是一定需要两个LVS Router,只有一台LVS Router的情况下也可以做,只不过少了一些保证而已。

 jerrywjl回复于:

2008-07-2823:

52:

09

三层结构图示如下:

从下面的图可以看出,三层结构相对于基本结构需要更多的设备,配置方面也比较复杂。

仅仅是后台的集群系统已经需要足够的时间去折腾。

但这种结构对于大数据访问量的FTP服务器、Samba等应用来说是比较理想的。

在这个结构中的后面是HA集群,通常HA集群会以服务的形式提供Samba,NFS以及FTP等服务,而真实服务器会通过挂载的方式获得HA上提供出来的数据。

另外在红帽的LVS中还有一个比较关键的东西是LVS的组件:

LVS的组件中服务包括pulse,lvs,ipvsadm以及nany;另外还包括配置文件/etc/sysconfig/ha/lvs.cf,配置工具piranha configuration tooly以及服务IP进行浮动之前arp欺骗手段中的send_arp。

pulse是LVS的控制进程,该进程用于启动和控制所有的其他LVS相关的守护进程。

该进程的配置文件是/etc/sysconfig/ha/lvs.cf。

在主router上pulse用于启动LVS守护进程,在备份router上pulse通过定期收发心跳信号监控主router的状态。

如果一旦主router失效,在备份router上的pulse进程将关闭所有主router上的LVS服务,并且开启send_arp程序来重新指派浮动IP到备份router的MAC上。

lvs进程运行在主router上,主要读取/etc/sysconfig/ha/lvs.cf文件,调用lvsadm工具来建立与维护ipvs路由表并对每一个LVS服务指派nanny进程。

如果nanny报告一个真实服务器失效,lvs进程将调用ipvsadm工具将失效真实服务器从IPVS路由表中删除。

ipvsadm用于升级kernel中的IPVS路由表,该进程主要用于更改、添加、删除IPVS路由表的条目。

nanny监控的进程运行在主LVS Router上,主LVS Router会通过他来监控每一个真实服务器的状况。

另外piranha configuration tool提供了一个图形接口用于修改/etc/sysconfig/ha/lvs.cf文件,而send_arp会在浮动IP向不同的LVS router进行切换时发送arp广播。

 

下面是第一个实际的LVS配置的例子,整个的结构是基于NAT操作。

在该例子中的结构比较简单:

[本帖最后由jerrywjl于2008-7-2911:

30编辑]

上面的例子中,我暂时没有添加备份LVSRouter,而只是通过一个主LVSRouter来充当调度器。

配置步骤如下:

首先配置网络参数:

在LVSRouter上的基本参数:

[root@localhost~]#ifconfig|grepinet

inetaddr:

192.168.1.10Bcast:

192.168.1.255Mask:

255.255.255.0

inet6addr:

fe80:

:

20c:

29ff:

fe08:

a162/64Scope:

Link

inetaddr:

10.0.0.10Bcast:

10.0.255.255Mask:

255.255.0.0

inet6addr:

fe80:

:

20c:

29ff:

fe08:

a16c/64Scope:

Link

[root@localhost~]#sysctl-a|grepip_forward

net.ipv4.ip_forward=1

[root@localhost~]#sysctl–p

在RealServer上的基本参数:

第一台:

[root@localhost~]#cat/etc/sysconfig/network-scripts/ifcfg-eth0

#AdvancedMicroDevices[AMD]79c970[PCnet32LANCE]

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=static

HWADDR=00:

0c:

29:

b2:

60:

a5

IPADDR=10.0.0.100

NETMASK=255.255.0.0

GATEWAY=10.0.0.254

第二台:

[root@localhost~]#cat/etc/sysconfig/network-scripts/ifcfg-eth0

#AdvancedMicroDevices[AMD]79c970[PCnet32LANCE]

DEVICE=eth0

ONBOOT=yes

BOOTPROTO=static

HWADDR=00:

0c:

29:

b2:

60:

a5

IPADDR=10.0.0.200

NETMASK=255.255.0.0

GATEWAY=10.0.0.254

然后在LVSRouter上安装piranha工具:

[root@localhost~]#rpm-ihvipvsadm-1.24.8.1.i386.rpm

[root@localhost~]#rpm-ihvpiranha-0.8.4-7.el5.i386.rpm

完成之后为piranha-gui设置密码并启动服务:

[root@localhost~]#/usr/sbin/piranha-passwd

NewPassword:

Verify:

Updatingpasswordforuserpiranha

[root@localhost~]#servicepiranha-guirestart

Shuttingdownpiranha-gui:

[OK]

Startingpiranha-gui:

[OK]

[root@localhost~]#chkconfigpiranha-guion

完成之后进入图形界面并在浏览器中输入:

http:

//localhost:

3636,输入用户名:

piranha和刚才定义的密码,即可进入piranhaconfigurationtool的配置界面:

在该界面中第一个要设置的地方是CONTROL/MONITORING,在该界面中将MONITOR中的选项:

Autoupdate勾选上,Up

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 农学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1