为VMwareESXi主机添加本地存储的过程及注意事项.docx
《为VMwareESXi主机添加本地存储的过程及注意事项.docx》由会员分享,可在线阅读,更多相关《为VMwareESXi主机添加本地存储的过程及注意事项.docx(68页珍藏版)》请在冰豆网上搜索。
为VMwareESXi主机添加本地存储的过程及注意事项
为VMware-ESXi主机添加本地存储的过程及注意事项
为VMwareESXi主机添加本地存储的过程及注意事项
在规划数据中心的时候,除了考虑当前的实际情况下,还要考虑将来二至三年的可能出现的问题。
但有的时候,虽然已经做了多种考虑,但在信息化实施的过程中,仍然会碰到问题,这时就需要管理员根据实际情况进行处理。
例如,在规划虚拟化数据中心的时候,作为群集中的虚拟化主机,一般不配置本地硬盘,而是采用共享存储,以实现系统的高可用性。
即时为服务器配置本地硬盘,一般也只是配置一个较小的磁盘,例如60~120GB的固态硬盘安装系统。
相信这是大多数虚拟化数据中心的选择与规划。
对于初期规划没有考虑配置本地存储的服务器,如果在后期需要在服务器安装大容量的存储,并且需要在现有业务不中断的情况下进行,应该怎么做?
在添加本地存储中碰到问题怎么解决,本文将讨论这个问题。
1己有数据中心服务器添加本地存储思路及方法
1.1现有数据中心拓扑
机上的所有虚拟机,都迁移到其他主机上之后,关闭该主机。
(2)等主机关闭后,断开该主机电源。
拆开机箱,插入RAID卡。
(3)安装好硬盘,重新开机,进入RAID卡配置界面,为添加的硬盘,配置RAID。
配置完RAID之后,重新启动主机。
(4)重新进入VMwareESXi系统,将新添加的磁盘,添加到ESXi本地存储。
然后将当前主机退出"维护模式"。
(5)之后参照
(1)~(4)的步骤,将其他主机进入维护模式,关机,添加RAID卡、硬盘,并配置RAID,重新启动系统并退出维护模式,这些不一一介绍。
(6)最后检查服务器、存储、及软件系统,没有故障之后,添加存储完成。
下面较为详细的介绍整个过程及注意事项。
1.3将主机进入维护模式
使用vSphereClient将要维护的主机进入维护模式,之后关闭主机并断开电源,添加RAID卡,打开电源、添加硬盘。
主要步骤如下。
(1)使用vSphereClient,登录vCenterServer,右击要维护的主机,在弹出的快捷菜单中选择"进入维护模式",如图1-1-1所示。
图1-1-1进入维护模式
(2)将主机置于维护模式后,当前主机上正在运行的虚拟机,会迁移到其他主机,如图1-1-2所示。
在迁移的过程中,当前正在运行的业务不会中断。
在"近期任务"中可以看到,虚拟机正在迁移到其他主机。
图1-1-2 虚拟机正在迁移
(3)当所有的虚拟机迁移到其他主机后(即使没有运行的虚拟机,也会从当前主机取消注册,并在其他正在运行的主机上重新注册。
当然,保存在主机本地存储上的虚拟机例外),当前主机进入"维护模式",右击该主机名称,在弹出的快捷菜单中选择"关机"或"重新引导",如图1-1-3所示。
在此选择"关机",因为我们要关闭主机电源之后,安装新的RAID卡。
图1-1-3主机进入维护模式
2为服务器添加硬件并重新规划RAID
2.1添加RAID卡及硬盘
当主机关闭之后,拔下电源线,戴上IBM服务器随机带的防静电手套,打开服务器的机箱,在服务器机箱的右上角,插上RAID缓存卡(实际上是一个缓存,用于IBM3650M4主板集成的ServeRAID-M5110e的扩展。
标配是无缓存,可以支持RAID0/1/10,在插上缓存时,可升级支持RAID5/6)。
图1-1-4是我们要插的缓存卡,图1-1-5是插入后的相片(在服务器的右上角位置)。
图1-1-4RAID缓存
图1-1-5插入缓存卡后
链接资料:
这是本次要安装的硬盘,如图1-1-6所示。
本次安装的是1TB、2.5寸普通笔记本硬盘(可以用在服务器上)。
计划在每台服务器上安装6块硬盘。
图1-1-6要安装的硬盘
在IBM3650M4中,最多可以配16块2.5寸硬盘,其中只有8个硬盘位有接线底座,硬盘位标号为0~7,另8个硬盘位没有接线底府,如图1-1-7这是有硬盘接线底座的拍照截图。
在这个服务器上,实际上已经安装了一个120GB的固态硬盘,还剩下7个硬盘位。
图1-1-7要安装的硬盘位置
这是安装的硬盘架,如图1-1-8所示。
将硬盘装好之后如图1-1-8所示。
2.2配置RAID
装好RAID卡及硬盘后,打开服务器的电源,进入RAID卡配置界面,开始配置磁盘,主要步骤如下。
(1)在服务器开机之后,当出现RAID卡配置信息时“PressforWebBIOS”时,按Ctlr+R热键,进入RAID卡配置界面,如图1-3-1所示。
图1-3-1RAID卡配置信息
【说明】如果不能出现上述界面,而是直接进入系统,则可以插入一个启动U盘或光盘,重新启动服务器,等出现提示后按F12键,选择启动项,选择U盘或光盘启动,才会出现进入RAID卡配置界面。
(2)进入RAID卡配置界面,当前界面显示了RAID卡的型号(当前为ServerRAIDM5110e)、版本(23.12.0-0019),如图1-3-2所示。
单击“Start”按钮进入配置界面。
图1-3-2选择适配器界面
(3)进入RAID卡配置界面后,在右侧显示当前的配置信息。
在本示例中,有6块930.390GB的硬盘(1TB)的硬盘没有配置,如图1-3-3所示。
有一个110.827GB硬盘已经配置为,是RAID0(单块硬盘只能配置为RAID0)。
我们这个图并不是添加RAID卡之后的第一次截图。
如果原来没有添加RAID5卡(或升级缓存),在添加RAID5卡之后,原来配置的硬盘都要重新配置。
图1-3-3显示逻辑磁盘信息
(4)在图1-3-3中,单击“ConfigurationWizard(配置向导)”,进入RAID配置向导,如图1-3-4所示。
选择“ClearConfiguration”可以清除当前RAID配置,如果已经配置了RAID,选择此项将会删除配置、数据会丢失。
选择“NewConfiguration”,在清除当前RAID配置之后,再创建新的配置,此项同样会丢失数据(如果你要清除当前配置,并重新配置,请选择此项)。
如果你已经有了RAID配置,要创建多个不同的RAID配置信息,则选择“AddConfiguration”,添加一个新的配置。
在此我们选择此项。
图1-3-4配置向导
(5)在“SelectConfigurationMethod”,选择“ManualConfiguration”,手动配置,如图1-3-5所示。
图1-3-5手动配置
(6)在左侧“Drives”列表中,选择未分配的磁盘,将其添加到“DriveGroups”中。
如果已经有了一个磁盘组,则需要将这些磁盘,加到另一个磁盘组,如图1-3-6所示。
在本示例中,原来的120G固态硬盘在“DriveGroups0”中,则可以选中当前6个1TB的磁盘,单击“AddtoArray”,加到“DriveGroups1”中。
图1-3-6选中磁盘加到阵列
(7)当所有磁盘添加到磁盘组后,单击“AcceptDG”,接受配置,如图1-3-7所示。
图1-3-7接受配置
(8)如果还有其他磁盘,或者其他配置,可以从左侧选择磁盘,将其添加到右侧的磁盘组中。
如果所有磁盘已经选择完毕,单击“Next”按钮继续,如图1-3-8所示。
图1-3-8磁盘选择完毕
(9)在“SpanDefinition”对话框,在“ArrayWithfreeSpace”列表中,显示了上一步添加的磁盘的总空间,以前当前支持的RAID模式,单击“AddtoSPAN”,将其添加到右侧的“Span”列表中,如图1-3-9所示。
图1-3-9添加到SPAN
【说明】Span是在逻辑上把几个物理磁盘一个接一个串联到一起,从而提供一个大的逻辑磁盘。
Span上的数据简单的从第一个磁盘开始存储,当第一个磁盘的存储空间用完后,再依次从后面的磁盘开始存储数据。
Span存取性能完全等同于对单一磁盘的存取操作。
Span也不提供数据安全保障。
它只是简单的提供一种利用磁盘空间的方法,Span的存储容量等于组成Span的所有磁盘的容量的总和。
(10)如果还有其他空间,可以继续添加。
当添加完成后,单击“Next”按钮,如图1-3-10所示。
图1-3-10添加完毕
(11)在接下来的界面中,选择RAID级别、Strip大小、逻辑卷大小等。
在“RAIDLevel”选择RAID级别,当前可供选择的是RAID0、RAID10(显示为RAID1)、RAID5。
如图1-3-11所示。
在右下角显示了不同RAID级别时,可用的容量。
例如,在本示例中,有6个1TB的硬盘(每个硬盘是930.390GB),在选择RAID0级别时,可用容量是5.451TB(6个硬盘容量);在选择RAID10时,可用容量是2.725TB(3个硬盘容量);在选择RAID5时,可用容量是4.542TB(5个硬盘容量)。
图1-3-11RADI级别及容量
如果是大容量的普通硬盘,例如本示例中的5400转、1TB硬盘,建议使用RAID10,因为这样有较好的性能;如果是10K的SAS硬盘,例如600G、10000转的SAS硬盘,在兼顾性能、容量的同时,建议选择RAID5。
在做RAID5时,一般建议每组中最多是5~6块硬盘。
例如,在有10块硬盘时,可以各选5块做两组RAID5。
这样兼顾安全性及性能。
(12)在“StripSize”,可供选择的值是8KB、16KB、32KB、64KB、128KB、256KB、512KB、1MB。
对于较大的IO读写,选择较大的值;对于较小的IO读写,则选择较小的值。
在本示例中,存储用于虚拟化应用,存储空间是先分配给ESXi,由ESXi再分配给虚拟机。
在以虚拟机为单位的应用中,建议选择较大的数值,在此选择1MB,如图1-3-12所示。
图1-3-12StripSize
(13)其他选项一般选择默认值即可,在“SelectSize”处,选择要划分逻辑磁盘的容量。
如果要创建多个逻辑磁盘,可以在此输入第1个逻辑磁盘的容量,然后单击“Accept”创建第一个逻辑磁盘。
之后可以创建第2个、第3个等你需要的逻辑磁盘。
在此我们用所有的空间,创建一个逻辑磁盘,此时可以单击“UpdateSize”按钮,使用所有空间,然后单击“Accept”按钮,如图1-3-13所示。
图1-3-13使用整个空间创建逻辑磁盘
(14)创建之后的逻辑磁盘显示在右侧的列表中,单击“Next”按钮继续,如图1-3-14所示。
图1-3-14创建逻辑磁盘完成
(15)在“ConfigurationPreview”对话框中,单击“Accept”按钮,接受并保存这个配置,如图1-3-15所示。
图1-3-15保存配置
(16)在“SavethisConfiguration”对话框,单击“Yes”按钮,保存设置,如图1-3-16所示。
图1-3-16保存设置
(17)RAID配置程序会提示“所有在新虚拟磁盘上的数据都会丢失,要初始化吗”,单击“Yes”按钮,如图1-3-17所示。
图1-3-17提示数据丢失,是否初始化
(18)之后新创建的虚拟磁盘会开始初始化,默认是“快速初始化”。
在初始化完成后,可以单击左下角的“Home”按钮,返回主菜单。
如果有多个虚拟磁盘,如果要选择引导驱动器,可以在“VirtualDrives”列表中,选择要做引导的虚拟磁盘,单击“SetTootDrive”,设置引导驱动器。
在设置之前,在右侧有“Current=1”之类的提示,表示当前引导磁盘是“VD1:
RAID0:
110.827GB”,如图1-3-18所示。
图1-3-18执行初始化并设置引导磁盘
(19)返回到主界面之后,在右侧可以看到,所有的磁盘已经配置,如图1-3-19所示。
当前一共有两个配置,分别是120G的固态硬盘做的RAID0,以及6块1TB硬盘做的RAID10。
配置完成后,单击“Exit”按钮退出。
图1-3-19配置完成
(20)在“ExitApplication”对话框,单击“Yes”按钮,如图1-3-20所示。
图1-3-20退出应用程序
(21)在“PleaseRebootyourSystem”对话框,按“Ctrl+Alt+Del”,重新启动计算机。
如图1-3-21所示。
图1-3-21重新引导系统
之后服务器将重新启动。
3为服务器添加存储及注意事项
3.1退出维护模式并添加本地存储
当主机再次进入VMwareESXi之后,使用vSphereClient登录vCenterServer,将置于维护模式的主机“退出维护模式”并添加本地存储,主要步骤如下。
(1)当主机开机之后,进入VMwareESXi后,在vSphereClient中,可以看到主机已经连接上。
右键单击主机,在弹出的快捷菜单中选择“退出维护模式”,如图1-4-1所示。
图1-4-1退出维护模式
(2)在“配置→存储器”中,单击“添加存储器”链接,如图1-4-2所示。
图1-4-2添加存储器
(3)在“选择存储器类型”中选择“磁盘/LUN”,如图1-4-3所示。
图1-4-3添加本地磁盘
(4)在“选择磁盘/LUN”对话框中,在右侧会显示出当前可以添加的磁盘,并显示驱动器类型及容量,如图1-4-4所示,当前是6块1TB硬盘划分为RAID0,所以容量是2.73TB左右(3个1TB硬盘容量)。
图1-4-4选择要添加的磁盘
(5)在“文件系统版本”对话框,选择“VMFS-5”文件系统,只有VMFS-5文件系统才支持2TB以上大小,如图1-4-5所示。
图1-4-5文件系统版本
(6)在“当前磁盘布局”对话框,显示了当前磁盘所有可用空间的情况,当前硬盘为2.73TB,硬盘为空白,如图1-4-6所示。
图1-4-6当前磁盘布局
(7)在“属性”对话框中,指定数据存储的属性,在“输入数据存储名称”文本框中,输入要添加的数据存储名称,该名称将会添加在当前ESXi主机中。
在有多台主机时,要为存储规划统一的名称。
规划可以有多种方式,一般我是使用主机名+存储名+序号。
例如,这是在第2台ESXi主机上添加的第一个本地存储,则可以将名称命名为esx02-d1,如图1-4-7所示。
图1-4-7命名存储
(8)添加存储之后,在“配置→存储器”右侧可以看到添加的存储,如图1-4-8所示。
图1-4-8添加后的存储
对于另外两台主机,也要参考上面的步骤进行操作,即:
l将主机置于待机模式
l关闭主机电源,并断开电源线
l打开服务器主机,插上RAID卡,并添加硬盘
l插上电源线,打开服务器电源,进入RAID配置界面
l使用vSphereClient,将主机退出维护模式,并添加本地存储。
大家要注意,当vSphere数据中心中主机数量少于3台时,只能将其中1台主机置于维护模式。
如果数据中心有多个主机,可以将其中的多台主机同时置于维护模式,这要看数据中心中故障主机的容量设置。
所以,在大多数情况下,一台一台安装配置是相对安全可靠的。
3.2如果系统安装在本地硬盘需要重新设置启动磁盘
虽然我们介绍的简单,但在实际使用、安装配置的过程中,总是会碰到问题。
下面我们将在为IBM服务器添加RAID卡、配置硬盘中,可能碰到的问题介绍一下,并给出对应的解决方法。
如果在添加RAID卡之前,服务器安装了硬盘(例如安装了一个固态硬盘),并且在这个硬盘上安装了系统。
那么,在添加RAID卡之后,这个本地硬盘需要初始化、配置为RAID才能使用。
之后可以将系统安装在这个固态硬盘上,并重新添加到vCenterServer。
主要步骤如下。
(1)进入RAID卡配置,将这个单独的固态硬盘配置为RAID0,并划分一个逻辑盘。
图2-1-1将固态硬盘配置为RAID0
(2)在“VirtualDrives”选项中,选中新配置为RAID0的固态硬盘,选择“SetBootDrive”,然后单击“GO”按钮,将固态硬盘的RAID设置为引导磁盘,如图2-1-2所示。
设置之后显示当前引导盘为VD1或是VD0(只有在有多个逻辑分区时才需要设置,如果只有一个逻辑磁盘则不需要这样做)。
图2-1-2设置引导磁盘
(3)使用VMwareESXi安装光盘(或安装U盘),重新启动服务器,在“SelectaDisktoInstallorUpgrade”对话框,选择要存储操作系统的位置,如图2-1-3所示。
在此列表中,“Local”列表显示的是服务器的本地磁盘或本地存储,“Remote”显示的是服务器的远程存储,一般是通过FC或SAS连接的存储设备。
在当前服务器中,本地硬盘有一个2.27TB(这是6块硬盘做RAID10后的磁盘)、一个110.83GB的(这是单个120GB的固态硬盘做的RAID0)、一个28.89GB(这是用来引导安装VMwareESXi5.5的引导U盘);远程有三个磁盘,分别为10GB、3TB、2.14TB,其中10GB这个是单独分配给当前服务器,用于安装系统用的,另两个则是分配给当前阵列中所有服务器的共享存储,操作系统不能安装在这两个大容量的存储上,否则会丢失数据。
在本示例中,如果操作系统原来安装在固态硬盘上,则选择110.83GB的这个本地硬盘,将系统安装在本地存储上即可。
图2-1-3选择要安装的磁盘
(4)在安装之后,进入VMwareESXi控制台界面,为服务器设置原来的IP地址,并使用vSphereClient登录vCenterServer,将VMwareESXi添加到原有的群集中,重新配置网卡,而数据、其他设置不需要配置,即可。
3.3修改系统启动顺序
如果在添加RAID卡之后,重新启动服务器不能引导(系统安装在远程的共享存储上时),这是启动顺序不对,进入CMOS设置,修改后装的SAS卡最先引导即可。
主要步骤如下。
(1)重新启动服务器,当出现图2-2-1所示菜单时,按F1热键。
图2-2-1开机热键菜单
(2)进入系统配置界面后,移动光标到“SystemSettings”并按回车键,如图2-2-2所示。
图2-2-2系统设置
(3)在系统设置界面,移动光标到“DevicesandI/OPorts”并按回车键,如图2-2-3所示。
图2-2-3设置与IO端口
(4)在设备与IO端口配置页,移动光标到“SetOptionROMExecutionOrder”并按回车键,如图2-2-4所示。
图2-2-4设置执行顺序
(5)默认的启动顺序依次是本地SAS控制器、网卡、Slot插槽设备,而RAID磁盘则属于本地SAS(RAID)设备,而远程存储(通过FC或SAS连接)的则是属于Slot插槽上的启动设备。
如图2-2-5所示。
如果要修改启动顺序,在此按回车键。
图2-2-5默认启动顺序
(6)在本次选择中,是将Slot插槽调整到前面。
可以移动光标分别到Slot1、2、3,然后按+号将其向前调整(按-则是向后调整),如图2-2-6所示。
将三个Slot插槽调整到前面。
图2-2-6选中设备后按+、-调整启动顺序
(7)调整之后,如图2-2-7所示。
按ESC返回。
图2-2-7调整启动顺序后
(8)返回到系统设置页后,移动光标到“SaveSettings”按回车键,保存设置,如图2-2-8所示。
图2-2-8保存设置
(9)然后按ESC退出CMOS设置,按Y确认,如图2-2-9所示。
图2-2-9退出CMOS设置
4在添加本地存储中碰到的问题及解决方法
4.1添加RAID卡后出现PCI故障报警
如果添加RAID卡之后,服务器面板报警,显示“PCI”故障,如图2-2-10所示,则需要进入CMOS进行设置,主要步骤如下。
图2-2-10PCI故障灯
(1)开机按F1进入系统设置,选择“LoadDefaultSettings”加载默认设置,如图2-2-11所示。
图2-2-11恢复默认设置
(2)然后进入“SystemSettings”(系统设置)对话框,选择“Network”进入网卡设置,如图2-2-12所示。
图2-2-12网络设置
(3)在网络设置对话框中,选择“NetworkBootConfiguration”(网络启动配置),如图2-2-13所示。
图2-2-13网卡启动配置
(4)在“NetworkBootConfiguration”页中,将1、2、3网卡的PXE引导功能禁止(保留编号为0的网卡的PXE引导功能,用来安装系统)。
本例以配置标号为2的网卡为例。
移动光标到“MAC:
40:
F2:
E9:
XX:
XX:
XXOnboardPFA6:
0:
2”按回车键,如图2-2-14所示。
图2-2-14选择网卡
(5)进入网卡配置页,在“PXEMode”处按回车键,在弹出的对话框中选择“Disabled”,如图2-2-15所示。
图2-2-15禁止PXE功能
(6)设置之后如图2-2-16所示。
之后移动光标到“SaveChanges”保存设置。
图2-2-16保存设置
之后参照(4)~(6)6设置,将标号为1、3的网卡也禁止PXE功能,并保存设置。
这些不一一介绍。
(7)之后返回“SystemSettings”,选择“DevicesandI/OPorts”,如图2-2-17所示。
图2-2-17设备与IO端口配置
(8)在设备与端口配置页面,选择“Enable/DisableAdapterOptionROMSupport”,如图2-2-18所示。
图2-2-18设置适配器ROM支持
(9)在默认情况下,“ROMSupport”都是允许“Enable”的状态,如图2-2-19所示。
图2-2-19默认情况下为允许
(10)在此项中,要分别为Legacy及UEFI的选项进行设置,一般情况下将以太网卡2、3设置为禁用即可,如图2-2-20所示。
如果设置此项,保存设置退出后,仍然出现PCI的错误提示,则还需要在此界面中将Slot1、2、3设置为禁用。
图2-2-20禁用网卡
(11)设置之后返回系统配置页,选择“SaveSettings”,保存设置并退出,如图2-2-21所示。
图2-2-21保存设置
再次启动之后,在开始的时候仍然出现故障提示,在经过RAID卡配置检测之后(显示如图2-2-22页),故障警告提示清除,至此PCI故障解决。
图2-2-22RAID卡配置
此时服务器前面板指示灯变为“绿色”,如图2-2-23所示。
图2-2-23指示灯变绿
此时打开面板可以看到PCI指示灯已经不亮,如图2-2-24所示。
图2-2-24面板详细信息没有故障指示
在实际使用中,如果要使用共享存储,建议为服务器配置两个SAS或FC卡连接到存储。
在这种情况下,可以提供“冗余”功能。
如果为服务器配置了两个SAS或FC卡,在系统检测中,为服务器分配的存储会显示两次,如图2-2-25所示。
图2-2-25S