Lenovo v5030存储HyperSwap双活实施方案.docx

上传人:b****5 文档编号:7812982 上传时间:2023-01-26 格式:DOCX 页数:25 大小:3.35MB
下载 相关 举报
Lenovo v5030存储HyperSwap双活实施方案.docx_第1页
第1页 / 共25页
Lenovo v5030存储HyperSwap双活实施方案.docx_第2页
第2页 / 共25页
Lenovo v5030存储HyperSwap双活实施方案.docx_第3页
第3页 / 共25页
Lenovo v5030存储HyperSwap双活实施方案.docx_第4页
第4页 / 共25页
Lenovo v5030存储HyperSwap双活实施方案.docx_第5页
第5页 / 共25页
点击查看更多>>
下载资源
资源描述

Lenovo v5030存储HyperSwap双活实施方案.docx

《Lenovo v5030存储HyperSwap双活实施方案.docx》由会员分享,可在线阅读,更多相关《Lenovo v5030存储HyperSwap双活实施方案.docx(25页珍藏版)》请在冰豆网上搜索。

Lenovo v5030存储HyperSwap双活实施方案.docx

Lenovov5030存储HyperSwap双活实施方案

Lenovov5030存储HyperSwap

实施方案

 

1.部署环境介绍

设备

类型

IP地址

用户名/密码

SAN交换机

Management

172.16.83.158/24

admin/password

V5030-1

ServiceIP1

172.16.83.150/24

passw0rd

ServiceIP2

172.16.83.151/24

passw0rd

V5030-2

ServiceIP1

172.16.83.152/24

passw0rd

ServiceIP2

172.16.83.153/24

passw0rd

V5030-cluster

Management

172.16.83.154/24

superuser/passw0rd

ESXi1

Management

172.16.83.160/24

root/

ESXi2

Management

172.16.83.161/24

root/

vCenter

Management

172.16.83.164/24

administrator@

vsphere.local/P@ssw0rd.

IPQuorum

Redhat6.5

172.16.83.165/24

root/

网关:

172.16.83.254

 

2.配置光纤交换机

通过telnet或者ssh登录光纤交换机,用switchshow命令查看交换机的基本信息和所连设备的wwn号

存储V5030-1的4个FC端口WWPN:

50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;

50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9

存储V5030-2的4个FC端口WWPN:

50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;

50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

ESXi1的2个FC端口WWPN:

10:

00:

00:

00:

c9:

b6:

19:

e2;10:

00:

00:

00:

c9:

b6:

17:

a4

ESXi2的2个FC端口WWPN:

10:

00:

00:

00:

c9:

c1:

82:

f1;10:

00:

00:

90:

fa:

1d:

a7:

a1

 

根据主机存储的WWPN和ZONE规划,编写光纤交换机配置脚本如下:

Zonecreate"zone_v5k_cluster","50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9;50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

zonecreate"host1_hba1v5k_site1","10:

00:

00:

00:

c9:

b6:

17:

a4;50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9"

zonecreate"host1_hba2v5k_site2","10:

00:

00:

00:

c9:

b6:

19:

e2;50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

zonecreate"host2_hba1v5k_site1","10:

00:

00:

00:

c9:

c1:

82:

f1;50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9"

zonecreate"host2_hba2v5k_site2","10:

00:

00:

90:

fa:

1d:

a7:

a1;50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

zonecreate"host1_hba1v5k_site2","10:

00:

00:

00:

c9:

b6:

17:

a4;50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

zonecreate"host1_hba2v5k_site1","10:

00:

00:

00:

c9:

b6:

19:

e2;50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9"

zonecreate"host2_hba1v5k_site2","10:

00:

00:

00:

c9:

c1:

82:

f1;50:

05:

07:

68:

0d:

08:

67:

c0;50:

05:

07:

68:

0d:

08:

67:

c1;50:

05:

07:

68:

0d:

04:

67:

c0;50:

05:

07:

68:

0d:

04:

67:

c1"

zonecreate"host2_hba2v5k_site1","10:

00:

00:

90:

fa:

1d:

a7:

a1;50:

05:

07:

68:

0d:

08:

6e:

d8;50:

05:

07:

68:

0d:

08:

6e:

d9;50:

05:

07:

68:

0d:

04:

6e:

d8;50:

05:

07:

68:

0d:

04:

6e:

d9"

cfgcreate"cfg1","host1_hba1v5k_site1;host1_hba2v5k_site2;host2_hba1v5k_site1;host2_hba2v5k_site2;host1_hba1v5k_site2;host1_hba2v5k_site1;host2_hba1v5k_site2;host2_hba2v5k_site1;zone_v5k_cluster"

cfgsave

cfgenable"cfg1"

cfgshow

3.初始化存储

做HyperSwap前首先要保证两台V5030的微码一致。

修改两台存储的默认ServiceIP,配置为同一网段的4个IP地址,登录第一个节点的Serviceip172.16.83.150/24,进行初始化存储配置,并创建4节点集群。

当SAN网络正确配置完成后,在节点1的配置界面,可以看到双活存储的全部4个节点,且节点状态全部为“候选”。

 

创建系统

此处要激活V5030的“远程镜像”功能,才能使用HyperSwap功能。

至此,IOGROUP1存储初始化任务完成,浏览器会自动重定向到集群管理IP。

4.配置Cluster和站点

在存储初始化任务完成后,进入到cluster配置阶段。

在v5030的最新微码版本中,这个阶段的配置操作,全部都可以通过WEBGUI图形界面进行配置。

进入初始化好的V5030-1节点的web管理界面,将还处于自由状态的V5030-2添加到系统中

此时V5030-1和V5030-2已被添加到一起,组成统一管理存储。

修改两台V5030的系统拓扑

系统拓扑修改完毕后,可看到如下图示两台V5030分别属于site1和site2,并分属两个IO组。

集群创建完成后,在service界面里看到的4个节点状态

 

使用两台存储的内部磁盘分别创建属于两个站点的pool0-site1和pool-site2,,并创建mdisk、HyperSwap卷

5.部署IPQuorum

SSH登录存储cluster管理地址,查看现有仲裁状态,命令svcinfolsquorum。

当前在两个站点的存储上,各有一个online状态仲裁盘,但没有第三站点仲裁。

输入命令svctaskmkquorumapp,生成ip仲裁jar小程序。

通过浏览器,登录集群服务界面,下载ipquorum.jar

然后将文件ipquoram.jar上传到一台提前创建的一台RHEL6.5虚拟机中。

在redhat6.5上执行java-jaripquorum.jar&,运行ip仲裁小程序,并使之转入后台运行。

在实际生成环境,建议利用cron计划任务把该程序配置成重启后自动运行。

 

登录存储,执行svcinfolsquorum,查看当前仲裁状态,已经有第三站点ip仲裁,status是online,active是yes。

这就表明,已经配置好ipquorum。

创建主机,并将卷映射到主机

登录vSpherewebclient,在vCenter中扫描识别刚才映射的存储共享盘。

可以看到,这台ESXi主机已经识别到存储盘,两块HBA卡总共16条存储路径。

为WinDemo虚拟机,添加裸磁盘映射,以便访问存储共享盘。

对识别的存储盘,格式化文件系统,然后使用iometer磁盘压力测试工具进行读写测试。

6.配置Linux环境multipath

V5030存储配置主机映射

LinuxDemo虚拟机通过iscsi协议访问v5030双活存储,利用linux自带的multipath工具配置存储多路径。

首先,在v5030存储中,配置iscsiportal地址,分别为172.16.83.168和172.16.83.169。

添加主机,主机连接选择“iscsi”

Redhat6.5安装配置iscsi服务

挂载redhat光盘,通过rpm–ivh安装软件包:

iscsi-initiator-utils。

#Chkconfigiscsion

#iscsiadm–mdiscovery–tsendtargets–p172.16.83.168

#iscsiadm–mdiscovery–tsendtargets–p172.16.83.169

#iscsiadm–mnode–Lall

#lsblk

 

Redhat6.5安装并启用multipath

挂载redhat光盘,通过rpm–ivh安装软件包:

device-mapper-multipath-libs,device-mapper-multipath 。

#chkconfigmultipathdon

#modprobedm-multipath

#modprobedm-round-robin

#servicemultipathdstart     

#mpathconf--enable--with_multipathd y

#multipath-F

#multipath-v2 

#multipath–ll

Redhat6.5挂载并使用iSCSI卷

对multipath聚合生成的mpatha和mpathb进行分区和格式化,并挂载到/test。

使用ddif=/dev/zeroof=/test/testbs=8kcount=1000000进行存储盘读写测试。

 

7.故障场景测试

本次故障测试只选择了一种最常见的场景,即site1站点整台存储出现宕机故障。

此种故障现象,通过直接存储双控断电进行模拟。

正常状态时,在远程拷贝界面看到的cluster状态。

当site1站点存储发生整体故障时,site1站点主机的存储多路径软件能够自动判断链路状况,并将路径自动切换到site2站点。

site2站点存储会自动接管来自主机的数据访问。

整个存储切换接管过程中,前端应用服务不会崩溃,仍然能够继续运行,应用数据也不会丢失。

当site1站点存储修复上线后,双活存储集群会自动进行数据同步。

当同步完成后,存储集群会根据负载压力智能选择讲存储路径回切至site1存储。

 

注:

测试中遇到的问题是zone的划分

1,首先四个node的wwpn号需要划一个zone,每个主机的hba卡需要对应每个node的wwpn号划一个zone,因为两台v5020有四个node,所以最少得划5个zone,但是这么划分,链路冗余不是很好,所以每个host主机的hba卡分别出两条链路分别对应到node节点上,所以两台主机,四个hba卡就成了八条链路,就是八个zone,加上原来的四个node的wwpn号划的zone就是九个zone。

2,我们在划的时候,没有充分理解,每个host主机的两块卡分出两条链路连到一台v5020的node节点,没有链接另一台v5020,所以就导致最后搭建完成后为host主机缺少一条链路,这是以后要注意的地方。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 农林牧渔 > 林学

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1