1、Lenovo v5030存储HyperSwap双活实施方案Lenovo v5030 存储HyperSwap实施方案1.部署环境介绍设备类型IP地址用户名/密码SAN交换机Management172.16.83.158/24admin/passwordV5030-1Service IP1172.16.83.150/24passw0rdService IP2172.16.83.151/24passw0rdV5030-2Service IP1172.16.83.152/24passw0rdService IP2172.16.83.153/24passw0rdV5030-clusterManageme
2、nt172.16.83.154/24superuser/passw0rdESXi1Management172.16.83.160/24root/ESXi2Management172.16.83.161/24root/vCenterManagement172.16.83.164/24administratorvsphere.local/Pssw0rd.IP QuorumRedhat 6.5172.16.83.165/24root/网关:172.16.83.2542.配置光纤交换机通过telnet或者ssh登录光纤交换机,用switchshow命令查看交换机的基本信息和所连设备的wwn号存储V50
3、30-1的4个FC端口 WWPN:50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:0d:04:6e:d9存储V5030-2的4个FC端口 WWPN:50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:0d:04:67:c1ESXi1的2个FC端口WWPN:10:00:00:00:c9:b6:19:e2; 10:00:00:00:c9:b6:17:a4ESXi2的
4、2个FC端口WWPN:10:00:00:00:c9:c1:82:f1; 10:00:00:90:fa:1d:a7:a1根据主机存储的WWPN和ZONE规划,编写光纤交换机配置脚本如下:Zonecreate zone_v5k_cluster,50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:0d:04:6e:d9;50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:
5、0d:04:67:c1zonecreate host1_hba1v5k_site1,10:00:00:00:c9:b6:17:a4;50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:0d:04:6e:d9zonecreate host1_hba2v5k_site2,10:00:00:00:c9:b6:19:e2;50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:
6、0d:04:67:c1zonecreate host2_hba1v5k_site1,10:00:00:00:c9:c1:82:f1;50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:0d:04:6e:d9zonecreate host2_hba2v5k_site2,10:00:00:90:fa:1d:a7:a1;50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:
7、0d:04:67:c1zonecreate host1_hba1v5k_site2,10:00:00:00:c9:b6:17:a4;50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:0d:04:67:c1zonecreate host1_hba2v5k_site1,10:00:00:00:c9:b6:19:e2;50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:
8、0d:04:6e:d9zonecreate host2_hba1v5k_site2,10:00:00:00:c9:c1:82:f1;50:05:07:68:0d:08:67:c0;50:05:07:68:0d:08:67:c1;50:05:07:68:0d:04:67:c0;50:05:07:68:0d:04:67:c1zonecreate host2_hba2v5k_site1,10:00:00:90:fa:1d:a7:a1;50:05:07:68:0d:08:6e:d8;50:05:07:68:0d:08:6e:d9;50:05:07:68:0d:04:6e:d8;50:05:07:68:
9、0d:04:6e:d9cfgcreate cfg1,host1_hba1v5k_site1;host1_hba2v5k_site2;host2_hba1v5k_site1;host2_hba2v5k_site2;host1_hba1v5k_site2;host1_hba2v5k_site1;host2_hba1v5k_site2;host2_hba2v5k_site1;zone_v5k_clustercfgsavecfgenable cfg1cfgshow3.初始化存储做HyperSwap前首先要保证两台V5030的微码一致。修改两台存储的默认Service IP,配置为同一网段的4个IP地址
10、,登录第一个节点的Service ip 172.16.83.150/24,进行初始化存储配置,并创建4节点集群。当SAN网络正确配置完成后,在节点1的配置界面,可以看到双活存储的全部4个节点,且节点状态全部为“候选”。创建系统此处要激活V5030的“远程镜像”功能,才能使用HyperSwap功能。至此,IO GROUP 1存储初始化任务完成,浏览器会自动重定向到集群管理IP。4.配置Cluster和站点在存储初始化任务完成后,进入到cluster配置阶段。在v5030的最新微码版本中,这个阶段的配置操作,全部都可以通过WEB GUI图形界面进行配置。进入初始化好的V5030-1节点的web管理
11、界面,将还处于自由状态的V5030-2添加到系统中此时V5030-1和V5030-2已被添加到一起,组成统一管理存储。修改两台V5030的系统拓扑系统拓扑修改完毕后,可看到如下图示两台V5030分别属于site1和site2,并分属两个IO组。集群创建完成后,在service界面里看到的4个节点状态使用两台存储的内部磁盘分别创建属于两个站点的pool0-site1和pool-site2,并创建mdisk、HyperSwap卷5.部署IP QuorumSSH登录存储cluster管理地址,查看现有仲裁状态,命令svcinfo lsquorum。当前在两个站点的存储上,各有一个online状态仲裁
12、盘,但没有第三站点仲裁。输入命令svctask mkquorumapp,生成ip仲裁jar小程序。通过浏览器,登录集群服务界面,下载ipquorum.jar然后将文件ipquoram.jar上传到一台提前创建的一台RHEL 6.5 虚拟机中。在redhat6.5上执行java -jar ipquorum.jar &,运行ip仲裁小程序,并使之转入后台运行。在实际生成环境,建议利用cron计划任务把该程序配置成重启后自动运行。登录存储,执行svcinfo lsquorum, 查看当前仲裁状态,已经有第三站点ip仲裁,status是online,active是yes。这就表明,已经配置好ip qu
13、orum。创建主机,并将卷映射到主机登录vSphere web client,在vCenter中扫描识别刚才映射的存储共享盘。可以看到,这台ESXi主机已经识别到存储盘,两块HBA卡总共16条存储路径。为WinDemo虚拟机,添加裸磁盘映射,以便访问存储共享盘。对识别的存储盘,格式化文件系统,然后使用iometer磁盘压力测试工具进行读写测试。6.配置Linux环境multipathV5030存储配置主机映射Linux Demo虚拟机通过iscsi协议访问v5030双活存储,利用linux自带的multipath工具配置存储多路径。首先,在v5030存储中,配置iscsi portal 地址,
14、分别为172.16.83.168和172.16.83.169。添加主机,主机连接选择“iscsi”Redhat 6.5安装配置iscsi服务挂载redhat 光盘,通过rpm ivh 安装软件包: iscsi-initiator-utils 。#Chkconfig iscsi on #iscsiadm m discovery t sendtargets p 172.16.83.168#iscsiadm m discovery t sendtargets p 172.16.83.169#iscsiadm m node L all#lsblkRedhat 6.5安装并启用multipath挂载re
15、dhat 光盘,通过rpm ivh 安装软件包:device-mapper-multipath-libs,device-mapper-multipath 。#chkconfig multipathd on#modprobe dm-multipath#modprobe dm-round-robin#service multipathd start #mpathconf -enable -with_multipathdy#multipath -F#multipath -v2#multipath llRedhat 6.5挂载并使用iSCSI卷对multipath聚合生成的mpatha和mpathb进
16、行分区和格式化,并挂载到/test。使用dd if=/dev/zero of=/test/test bs=8k count=1000000进行存储盘读写测试。7.故障场景测试本次故障测试只选择了一种最常见的场景,即site1站点整台存储出现宕机故障。此种故障现象,通过直接存储双控断电进行模拟。正常状态时,在远程拷贝界面看到的cluster状态。 当site1站点存储发生整体故障时,site1站点主机的存储多路径软件能够自动判断链路状况,并将路径自动切换到site2站点。site2站点存储会自动接管来自主机的数据访问。整个存储切换接管过程中,前端应用服务不会崩溃,仍然能够继续运行,应用数据也不会
17、丢失。 当site1站点存储修复上线后,双活存储集群会自动进行数据同步。当同步完成后,存储集群会根据负载压力智能选择讲存储路径回切至site1存储。注:测试中遇到的问题是zone的划分1,首先四个node的wwpn号需要划一个zone,每个主机的hba卡需要对应每个node的wwpn号划一个zone,因为两台v5020有四个node,所以最少得划5个zone,但是这么划分,链路冗余不是很好,所以每个host主机的hba卡分别出两条链路分别对应到node节点上,所以两台主机,四个hba卡就成了八条链路,就是八个zone,加上原来的四个node的wwpn号划的zone就是九个zone。2,我们在划的时候,没有充分理解,每个host主机的两块卡分出两条链路连到一台v5020的node节点,没有链接另一台v5020,所以就导致最后搭建完成后为host主机缺少一条链路,这是以后要注意的地方。
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1