端口汇聚实例超全.docx
《端口汇聚实例超全.docx》由会员分享,可在线阅读,更多相关《端口汇聚实例超全.docx(15页珍藏版)》请在冰豆网上搜索。
端口汇聚实例超全
服务器端口汇聚功能及配置说明
一.Broadcom(博通)BroadcomAdvancedControlSuite4网卡汇聚教程
Broadcom是一家老牌的有线/无线通讯芯片厂商,其生产的网卡芯片也是被各大硬件厂商所采用!
那么今天就和大家介绍下,博通网卡如何创建网卡汇聚!
今天汇聚教程的主角是BCM5790C这款网卡,使用服务器系统为WindowsServer2008R2。
第一步:
下载并安装驱动和管理软件:
大家可以到博通官网根据网卡型号选择驱动和管理软件。
下载地址:
http:
//zh-
选择好网卡型号之后,点击网卡型号就可以下载对应的驱动程序+管理软件包了,如下图:
以上是选择2008/2012/Windows7的
如操作系统为2000/XP/2003/VISTA,在页面最上面选择旧版本:
第二步:
开始创建汇聚:
当驱动和管理工具安装好之后,重启服务器系统,重启完了任务栏上会有一个绿色的网卡小图标,右键点击那个小图标,然后选择启动BACS,即可打开汇聚软件了。
软件启动后,可以看到一个很霸气的启动界面。
软件启动好之后,在Teams(组,也就是汇聚的意思)上鼠标右键,点击CreateTeam(创建组)。
下图是点CreateTeams(创建组)后的欢迎界面,直接点Next(下一步)即可。
下图是让你设置组名称,默认即可,继续点Next。
下图是让你选择汇聚模式,这里给大家简单介绍下3种模式:
SmartLoadBalancing(TM)andFailover(SLB):
智能负载均衡模式。
8023.3adLinkAggregationusingLinkAggregationControlProtocol(LACP):
动态链路汇聚模式,需交换机开启LACP(动态链路汇聚),使用这种汇聚模式,假如交换机不支持LACP或者支持LACP但是未开启的话,汇聚好之后网卡链路只会显示1Gbps。
FEC/EGCGenericTrunking:
静态链路汇聚模式,如果交换机没有LACP模式,那么选择这个。
使用这种汇聚模式,无论你交换机是否支持汇聚,是否支持LACP,那么汇聚好之后都会显示网卡数量*1Gbps的速率。
【推荐】
注意:
为什么下图选中的是第一个?
因为做教程时图没截正确……
下图是让你选择将哪块网卡添加到汇聚组中,选择上面的网卡之后,然后点Add即可。
我们建议大家在有4块网卡的时候每2块创建1个汇聚组,分别用户负载系统和游戏,假如你服务器就只负载系统,或者只负载游戏,那么4个做成一组汇聚也可以。
在这一步是在询问你是否需要配置VLAN,直接点“SkipManageVLAN”,跳过VLAN,然后点Next。
到这里,VLAN的设置已经完成,点击“CommitchangestosystemandExitthewizard”(完成设置,保存设置并退出设置向导)按照下图的操作,然后点Finish。
点击Finish后,会出现下图提示,点Yes,完成汇聚。
正在按照之前的设置,完成汇聚!
ok,至此,汇聚设置已经完成!
那么完成汇聚之后,还需要做一件非常重要的事情!
那就是修改网卡参数,如果不修改网卡参数,那可能导致汇聚效果不理想,具体的设置方法如下图,设置建议:
无盘为什么要修改网卡参数?
怎么改?
声明:
本文由(死性不改)原创编译,转载请保留链接:
二.Inter网卡配置说明
提醒以下几点,
1、交换机支持端口汇聚,双网卡汇聚才有效果
2、本例以2块INTEL网为例,保证型号相同
3、交换机必须要保证汇聚的端口为双全工且速率一致,比如1000M,FULL(全双工)
4、如果没有以下图1的分组选项,则要下载INTEL网卡最新驱动程序,100多M的。
效果:
服务器双网卡(如果是1G)汇聚后为2G,网络吞吐量为原来的2倍,可实现负载均衡等功能
网卡端口汇聚是双向的,如果仅仅是服务器网卡做了汇聚而交换机没有在相应端口设置汇聚的话下行数据无法分流的。
首先是服务器端的设置,本例以INTEL网卡为例,INTEL网卡本身带有管理软件路由器设置。
1、随便选择一个网卡,在网卡属性里先择“分组”——点击“新组”
2、选择需要参加聚合的网卡。
3、在组类型里选择“静态链路聚合”。
(IEEE802.3ad动态链接聚合如果交换机支持的话这个也可以)
4、绑定后的效果如下图。
三、交换机侧的聚合设置
本例以H3C系列交换机为例。
其他交换机查看相关说明书就可。
理论是一样
参与端口汇聚的端口必须工作在全双工模式,端口工作速率必须一致。
1.创建静态汇聚组1
[SwitchA]link-aggregationgroup1modestatic
2.将以太网端口Ethernet1/0/1至Ethernet1/0/3加入汇聚组1(连接服务器的2个端口)
[SwitchA]interfaceEthernet1/0/1
[SwitchA-Ethernet1/0/1]portlink-aggregationgroup1
[SwitchA-Ethernet1/0/1]interfaceEthernet1/0/2
[SwitchA-Ethernet1/0/2]portlink-aggregationgroup1
[SwitchA-Ethernet1/0/2]interfaceEthernet1/0/3
[SwitchA-Ethernet1/0/3]portlink-aggregationgroup1
Discur
interfaceBridge-Aggregation1
descriptionGQZYTD-26,27,28
link-aggregationmodedynamic
#
interfaceBridge-Aggregation2
descriptionFWQJR-SW2-45,46
link-aggregationmodedynamic
#
interfaceBridge-Aggregation3
link-aggregationmodedynamic
#
interfaceNULL0
#
interfaceVlan-interface1
ipaddressdhcp-allocclient-identifiermacVlan-interface1
#
interfaceGigabitEthernet1/0/1
portlink-aggregationgroup2
#
interfaceGigabitEthernet1/0/2
portlink-aggregationgroup2
补充说明:
汇聚组中各成员端口对出端口方向的数据流进行负荷分担, 如果数据流是IP报文,负荷分担基于源IP和目的IP,如果数据流不是IP报文,负荷分担基于源MAC和目的MAC。
这也就是为什么如果交换机没汇聚的话服务器下行数据无法分流的原因
四.linux多网卡绑定聚合——bond技术
将多个Linux网络端口绑定为一个,可以提升网络的性能,比如对于备份服务器,需要在一个晚上备份几个T的数据,如果使用单个的千兆网口将会是很严重的瓶颈。
其它的应用,比如ftp服务器,高负载的下载网站,都有类似的问题。
因此使用Linuxteaming或bond来绑定多个网卡作为一个逻辑网口,配置单个的IP地址,会大幅提升服务器的网络吞吐(I/O)。
Linux的多网卡绑定功能使用的是内核中的"bonding"模块,关于此模块可以参考LinuxEthernetBondingDriver文档,但是目前发布各个Linux版本内核均已包含了此模块,大多数情况下不需要重新编译内核。
Linux的bonding驱动提供了绑定/集成(bond)多个网卡为一个虚拟逻辑网口的功能。
并请注意绑定的网口(bonded)有多种工作模式;一般来说,分为热后备(hotstandby)和负载均衡(loadbalancing).在Redhat/Fedora和其它类RedhatLinux中是比较容易配置的。
1.创建bond0配置文件
vi/etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0 --物理设备名字
IPADDR=192.168.1.1--IP地址
NETMASK=255.255.255.0--子网掩码
NETWORK=192.168.1.0--所属子网
BROADCAST=192.168.1.255--广播地址
GATEWAY=192.168.1.254--网关
ONBOOT=yes--随机启动
BOOTPROTO=none
USERCTL=no--是否允许非root用户控制该设备
2.修改被绑定的eth0和eth1的配置文件
vi/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
USERCTL=no
ONBOOT=yes
MASTER=bond0 ***
SLAVE=yes ***
BOOTPROTO=none
HWADDR=00:
15:
17:
CC:
FC:
35
eth1的配置文件与之相同,只是device的值改为eth1即可。
3.装在bond模块驱动
编辑/etc/modprobe.conf或者/etc/modules.conf文件,加入如下内容,使系统启动时加载bonding模块驱动
aliasbond0bonding
optionbond0miimon=100mode=1
说明:
1).miimon=100用来进行链路监测的。
即每100ms监测一次链路状态。
bonding只监测主机与交换机之间链路。
如果交换机出去的链路出问题而本身没有问题,那么bonding认为链路没有问题而继续使用。
2).mode=1表示提供冗余功能。
除此之外还可以为0、2、3,共四种模式。
0表示负载均衡
4.在/etc/rc.d/rc.local文件中加入如下语句,使得系统启动自动运行
ifenslavebond0eth0eth1
routeadd-net192.168.1.254netmask255.255.255.0 bond0 #如有需要才加该路由
5.检测、验证配置
首先执行命令装载bonding模块:
modprobebonding
重启网络服务,并确认bond0正确启动:
servicenetworkrestart
确认设备已经正确加载:
less/proc/net/bonding/bond0
列出所有网口:
ifconfig
至此,bond的设置就基本结束了
五.CentOS_6.5_X86 配置多网卡汇聚(bonding)
有些应用可能最大的瓶颈在于网络的数据传输(比如某些场所的无盘网络系统),为了解释这一瓶颈问题,多网卡的汇聚技术在此显神威,汇聚可以理解成多个网卡组成一个并行逻辑网卡,而传输的流量正是这些网卡的总和(当然了,还是要取决于你的网卡汇聚模式)
Linux中的汇聚模式有7种,最常用的为0,1,6,最主要介绍这三种模式:
0 (balance-rr) 也就是轮循(RR)模式,接触过的ipvs的就很熟悉,此模式的每张网卡的流量都几乎相等。
需要交换机的支持。
1 (active-backup) 冗余模式,也就是只有一张网卡在工作,当工作网卡出现故障立即替换上,多用于高可用环境上。
6(balance-alb)适应性负载,发送的数据包传输第一张网卡,如果满了,剩下的走第二张,以此类推。
1、让系统开机加载bonding内核,并指定其工作模式
[root@vqiu~]#vi/etc/modprobe.d/bonding.conf
aliasbond0bonding
optionsbond0miimon=100mode=[0,1,2,3,4,5,6]
2、编辑网卡
[root@vqiu~]#vi/etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
USERCTL=no
IPV6INIT=no
MASTER=bond0
SLAVE=yes
[root@vqiu~]#vi/etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
USERCTL=no
IPV6INIT=no
MASTER=bond0
SLAVE=yes
[root@vqiu~]#vi/etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
NAME=bond0
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
USERCTL=no
IPV6INIT=no
IPADDR=10.0.2.15
PREFIX=24
GATEWAY=10.0.2.2
DNS1=8.8.8.8
DNS1=8.8.4.4
三、重启系统
查看各网卡的流量
[root@vqiu~]# netstat-i|grep-v'lo'
KernelInterfacetable
Iface MTUMet RX-OKRX-ERRRX-DRPRX-OVR TX-OKTX-ERRTX-DRPTX-OVRFlg
bond0 1500 0 3301 0 0 0 3278 0 0 0BMmRU
eth0 1500 0 2248 0 0 0 2192 0 0 0BMsRU
eth1 1500 0 1053 0 0 0 1086 0 0 0BMsU