linuxlvs负载均衡Word文档下载推荐.docx
《linuxlvs负载均衡Word文档下载推荐.docx》由会员分享,可在线阅读,更多相关《linuxlvs负载均衡Word文档下载推荐.docx(9页珍藏版)》请在冰豆网上搜索。
如图1所示,为测试方便,4台机器处于同一网段内,通过一交换机或者集线器相连。
实际的应用中,最好能够将虚拟服务器vs1和真实服务器rs1,rs2置于于不同的网段上,即提高了性能,也加强了整个集群系统的安全性。
2、服务器的软硬件配置
首先说明,虽然本文的测试环境中用的是3台相同配置的服务器,但LVS并不要求集群中的服务器规格划一,相反,可以根据服务器的不同配置和负载情况,调整负载分配策略,充分利用集群环境中的每一台服务器。
这3台服务器中,vs1作为虚拟服务器(即负载平衡服务器),负责将用户的访问请求转发到集群内部的rs1,rs2,然后由rs1,rs2分别处理。
client为客户端测试机器,可以为任意操作系统。
4台服务器的操作系统和网络配置分别为:
vs1:
RedHat6.2,Kernel
eth0
eth0:
101
rs1:
dummy0
rs2:
client:
Windows2000
其中,
虚拟服务器的集群配置
大部分的集群配置工作都在虚拟服务器vs1上面,需要下面的几个步骤:
重新编译内核。
首先,下载最新的Linux内核,版本号为,下载地址为:
,解压缩后置于/usr/src/linux目录下。
其次需要下载LVS的内核补丁,地址为:
/ipvs-,如果你用的Linux内核不是,请下载相应版本的LVS内核补丁。
将ipvs-
然后,对内核打补丁,如下操作:
[root@vs2/root]#cd/usr/src/linux
[root@vs2linux]#patch-p1<
ipvs-
下面就是重新配置和编译Linux的内核。
特别注意以下选项:
1Codematurityleveloptions--->
*
∙Promptfordevelopmentand/orincompletecode/drivers
2Networking部分:
∙Kernel/Usernetlinksocket
∙Routingmessages
<
*>
Netlinkdeviceemulation
*
∙Networkfirewalls
∙SocketFiltering
Unixdomainsockets
∙TCP/IPnetworking
∙IP:
multicasting
advancedrouter
[]IP:
policyrouting
equalcostmultipath
useTOSvalueasroutingkey
verboseroutemonitoring
largeroutingtables
kernellevelautoconfiguration
firewalling
firewallpacketnetlinkdevice
transparentproxysupport
masquerading
---Protocol-specificmasqueradingsupportwillbebuiltasmodules.
ICMPmasquerading
masqueradingspecialmodulessupport
* IP:
ipautofwmasqsupport(EXPERIMENTAL)(NEW)
ipportfwmasqsupport(EXPERIMENTAL)(NEW)
ipfwmarkmasq-forwardingsupport(EXPERIMENTAL)(NEW)
masqueradingvirtualserversupport(EXPERIMENTAL)(NEW)
∙ IPVirtualServerdebugging(NEW) <
--最好选择此项,
以便观察LVS的调试信息
* (12)IPmasqueradingVStablesize(theNthpowerof2)(NEW)
* IPVS:
round-robinscheduling(NEW)
weightedround-robinscheduling(NEW)
least-connectionscheduling(NEW)
weightedleast-connectionscheduling(NEW)
locality-basedleast-connectionscheduling(NEW)
locality-basedleast-connectionwithreplication
scheduling(NEW)
optimizeasrouternothost
tunneling
IP:
GREtunnelsoverIP
broadcastGREoverIP
multicastrouting
PIM-SMversion1support
PIM-SMversion2support
aliasingsupport
ARPdaemonsupport(EXPERIMENTAL)
TCPsyncookiesupport(notenabledperdefault)
---(itissafetoleavetheseuntouched)
>
IP:
ReverseARP
Allowlargewindows(notrecommendedif<
16Mbofmemory)
TheIPv6protocol(EXPERIMENTAL)
上面,带*号的为必选项。
然后就是常规的编译内核过程,不再赘述,请参考编译Linux教程
在这里要注意一点:
如果你使用的是RedHat自带的内核或者从RedHat下载的内核版本,已经预先打好了LVS的补丁。
这可以通过查看/usr/src/linux/net/目录下有没有几个ipvs开头的文件来判断:
如果有,则说明已经打过补丁。
编写LVS配置文件,实例中的配置文件如下:
#lvs_dr.conf(C)JosephMack
LVS_TYPE=VS_DR
INITIAL_STATE=on
VIP=eth0:
DIRECTOR_INSIDEIP=eth0
SERVICE=ttelnetrrrs1:
telnetrs2:
telnet
SERVICE=twwwrrrs1:
wwwrs2:
www
SERVER_VIP_DEVICE=dummy0
SERVER_NET_DEVICE=eth0
#----------endlvs_dr.conf------------------------------------
将该文件置于/etc/lvs目录下。
使用LVS的配置脚本产生lvs.conf文件。
该配置脚本可以从http:
//单独下载,在ipvs-
脚本configure的使用方法:
[root@vs2lvs]#configurelvs.conf
这样会产生几个配置文件,这里我们只使用其中的rc.lvs_dr文件。
修改/etc/rc.d/init.d/rc.local,增加如下几行:
echo1>
/proc/sys/net/ipv4/ip_forward
/proc/sys/net/ipv4/ip_always_defrag
#显示最多调试信息
echo10>
/proc/sys/net/ipv4/vs/debug_level
配置NFS服务。
这一步仅仅是为了方便管理,不是必须的步骤。
假设配置文件lvs.conf文件放在/etc/lvs目录下,则/etc/exports文件的内容为:
/etc/lvsro(rs1,rs2)
然后使用exportfs命令输出这个目录:
[root@vs2lvs]#exportfs
如果遇到什么麻烦,可以尝试:
[root@vs2lvs]#/etc/rc.d/init.d/nfsrestart
这样,各个realserver可以通过NFS获得rc.lvs_dr文件,方便了集群的配置:
你每次修改lvs.conf中的配置选项,都可以即可反映在rs1,rs2的相应目录里。
修改/etc/syslogd.conf,增加如下一行:
kern.* /var/log/kernel_log
这样,LVS的一些调试信息就会写入/var/log/kernel_log文件中.
realserver的配置
realserver的配置相对简单,主要是是以下几点:
配置telnet和WWW服务。
telnet服务没有需要特别注意的事项,但是对于www服务,需要修改httpd.conf文件,使得apache在虚拟服务器的ip地址上监听,如下所示:
Listen
关闭realserver上dummy0的arp请求响应能力。
这是必须的,具体原因请参见ARPprobleminLVS/TUNandLVS/DR()。
关闭dummy0的arp响应的方式有多种,比较简单地方法是,修改/etc/rc.d/rc.local文件,增加如下几行:
echo1>
/proc/sys/net/ipv4/conf/all/hidden
ifconfigdummy0up
ifconfigdummy0netmaskbroadcastup
/proc/sys/net/ipv4/conf/dummy0/hidden
再次修改/etc/rc.d/rc.local,增加如下一行:
(可以和步骤2合并)
1.LVS的测试
好了,经过了上面的配置步骤,现在可以测试LVS了,步骤如下:
1.分别在vs1,rs1,rs2上运行/etc/lvs/rc.lvs_dr。
注意,rs1,rs2上面的/etc/lvs目录是vs2输出的。
如果您的NFS配置没有成功,也可以把vs1上的/etc/lvs/rc.lvs_dr复制到rs1,rs2上,然后分别运行。
2.确保rs1,rs2上面的apache已经启动并且允许telnet。
3.然后从client运行telnet,如果登录后看到如下输出就说明集群已经开始工作了:
(假设以guest用户身份登录)
[guest@rs1guest]$-----------说明已经登录到服务器rs1上。
再开启一个telnet窗口,登录后会发现系统提示变为:
[guest@rs2guest]$-----------说明已经登录到服务器rs2上。
然后在vs2上运行如下命令:
[root@vs2/root]ipvsadm
运行结果应该为:
IPVirtualServerversion1.0.6(size=4096)
ProtLocalAddress
ortSchedulerFlags
->
RemoteAddress
ortForwardWeightActiveConnInActConn
TCPrr
rs2:
telnetRoute110
rs1:
wwwRoute100
wwwRoute100
至此已经验证telnet的LVS正常。
------
然后测试一下WWW是否正常:
用你的浏览器查看.101/是否有什么变化?
为了更明确的区别响应来自那个realserver,可以在rs1,rs2上面分别放置如下的测试页面(test.html):
我是realserver#1or#2
然后刷新几次页面(.101/test.html),如果你看到“我是realserver#1”和“我是realserver#2”交替出现,说明www的LVS系统已经正常工作了。
但是由于InternetExplore或者Netscape本身的缓存机制,你也许总是只能看到其中的一个。
不过通过ipvsadm还是可以看出,页面请求已经分配到两个realserver上了,如下所示:
ProtLocalAddress
->
TCP rr
telnetRoute 1 0 0
wwwRoute 1 0 5
wwwRoute 1 0 4
或者,可以采用linux的lynx作为测试客户端,效果更好一些。
如下运行命令:
[root@client/root]whiletrue;
dolynx-dump.56/test.html;
sleep1;
done
这样,每隔1秒钟“我是realserver#1”和“我是realserver#2”就交替出现一次,清楚地表明响应分别来自两个不同的realserver。
五调试技巧
如果您的运气不好,在配置LVS的过程中也许会遇到一些困难,下面的技巧或许有帮助:
首先确定网络硬件没有问题,尤其是网线,ping工具就足够了。
使用netstat