1、为VMwareESXi主机添加本地存储的过程及注意事项为VMware-ESXi主机添加本地存储的过程及注意事项为VMware ESXi主机添加本地存储的过程及注意事项在规划数据中心的时候,除了考虑当前的实际情况下,还要考虑将来二至三年的可能出现的问题。但有的时候,虽然已经做了多种考虑,但在信息化实施的过程中,仍然会碰到问题,这时就需要管理员根据实际情况进行处理。例如,在规划虚拟化数据中心的时候,作为群集中的虚拟化主机,一般不配置本地硬盘,而是采用共享存储,以实现系统的高可用性。即时为服务器配置本地硬盘,一般也只是配置一个较小的磁盘,例如60120GB的固态硬盘安装系统。相信这是大多数虚拟化数据
2、中心的选择与规划。对于初期规划没有考虑配置本地存储的服务器,如果在后期需要在服务器安装大容量的存储,并且需要在现有业务不中断的情况下进行,应该怎么做?在添加本地存储中碰到问题怎么解决,本文将讨论这个问题。1 己有数据中心服务器添加本地存储思路及方法1.1 现有数据中心拓扑机上的所有虚拟机,都迁移到其他主机上之后,关闭该主机。(2)等主机关闭后,断开该主机电源。拆开机箱,插入RAID卡。(3)安装好硬盘,重新开机,进入RAID卡配置界面,为添加的硬盘,配置RAID。配置完RAID之后,重新启动主机。(4)重新进入VMware ESXi系统,将新添加的磁盘,添加到ESXi本地存储。然后将当前主机退
3、出维护模式。(5)之后参照(1)(4)的步骤,将其他主机进入维护模式,关机,添加RAID卡、硬盘,并配置RAID,重新启动系统并退出维护模式,这些不一一介绍。(6)最后检查服务器、存储、及软件系统,没有故障之后,添加存储完成。下面较为详细的介绍整个过程及注意事项。1.3 将主机进入维护模式使用vSphere Client将要维护的主机进入维护模式,之后关闭主机并断开电源,添加RAID卡,打开电源、添加硬盘。主要步骤如下。(1)使用vSphere Client,登录vCenter Server,右击要维护的主机,在弹出的快捷菜单中选择进入维护模式,如图1-1-1所示。图1-1-1 进入维护模式(
4、2)将主机置于维护模式后,当前主机上正在运行的虚拟机,会迁移到其他主机,如图1-1-2所示。在迁移的过程中,当前正在运行的业务不会中断。在近期任务中可以看到,虚拟机正在迁移到其他主机。图1-1-2 虚拟机正在迁移(3)当所有的虚拟机迁移到其他主机后(即使没有运行的虚拟机,也会从当前主机取消注册,并在其他正在运行的主机上重新注册。当然,保存在主机本地存储上的虚拟机例外),当前主机进入维护模式,右击该主机名称,在弹出的快捷菜单中选择关机或重新引导,如图1-1-3所示。在此选择关机,因为我们要关闭主机电源之后,安装新的RAID卡。图1-1-3 主机进入维护模式2 为服务器添加硬件并重新规划RAID2
5、.1 添加RAID卡及硬盘当主机关闭之后,拔下电源线,戴上IBM服务器随机带的防静电手套,打开服务器的机箱,在服务器机箱的右上角,插上RAID缓存卡(实际上是一个缓存,用于IBM 3650 M4主板集成的Serve RAID-M5110e的扩展。标配是无缓存,可以支持RAID0/1/10,在插上缓存时,可升级支持RAID5/6)。图1-1-4是我们要插的缓存卡,图1-1-5是插入后的相片(在服务器的右上角位置)。图1-1-4 RAID缓存图1-1-5 插入缓存卡后链接资料:这是本次要安装的硬盘,如图1-1-6所示。本次安装的是1TB、2.5寸普通笔记本硬盘(可以用在服务器上)。计划在每台服务器
6、上安装6块硬盘。图1-1-6 要安装的硬盘在IBM 3650M4中,最多可以配16块2.5寸硬盘,其中只有8个硬盘位有接线底座,硬盘位标号为07,另8个硬盘位没有接线底府,如图1-1-7这是有硬盘接线底座的拍照截图。在这个服务器上,实际上已经安装了一个120GB的固态硬盘,还剩下7个硬盘位。图1-1-7 要安装的硬盘位置这是安装的硬盘架,如图1-1-8所示。将硬盘装好之后如图1-1-8所示。2.2 配置RAID装好RAID卡及硬盘后,打开服务器的电源,进入RAID卡配置界面,开始配置磁盘,主要步骤如下。(1)在服务器开机之后,当出现RAID卡配置信息时“Press for WebBIOS”时,
7、按Ctlr+R热键,进入RAID卡配置界面,如图1-3-1所示。图1-3-1 RAID卡配置信息【说明】如果不能出现上述界面,而是直接进入系统,则可以插入一个启动U盘或光盘,重新启动服务器,等出现提示后按F12键,选择启动项,选择U盘或光盘启动,才会出现进入RAID卡配置界面。(2)进入RAID卡配置界面,当前界面显示了RAID卡的型号(当前为ServerRAID M5110e)、版本(23.12.0-0019),如图1-3-2所示。单击“Start”按钮进入配置界面。图1-3-2 选择适配器界面(3)进入RAID卡配置界面后,在右侧显示当前的配置信息。在本示例中,有6块930.390GB的硬
8、盘(1TB)的硬盘没有配置,如图1-3-3所示。有一个110.827GB硬盘已经配置为,是RAID0(单块硬盘只能配置为RAID0)。我们这个图并不是添加RAID卡之后的第一次截图。如果原来没有添加RAID5卡(或升级缓存),在添加RAID5卡之后,原来配置的硬盘都要重新配置。图1-3-3 显示逻辑磁盘信息(4)在图1-3-3中,单击“Configuration Wizard(配置向导)”,进入RAID配置向导,如图13-4所示。选择“Clear Configuration”可以清除当前RAID配置,如果已经配置了RAID,选择此项将会删除配置、数据会丢失。选择“New Configurati
9、on”,在清除当前RAID配置之后,再创建新的配置,此项同样会丢失数据(如果你要清除当前配置,并重新配置,请选择此项)。如果你已经有了RAID配置,要创建多个不同的RAID配置信息,则选择“Add Configuration”,添加一个新的配置。在此我们选择此项。图1-3-4 配置向导(5)在“Select Configuration Method”,选择“Manual Configuration”,手动配置,如图1-3-5所示。图1-3-5 手动配置(6)在左侧“Drives”列表中,选择未分配的磁盘,将其添加到“Drive Groups”中。如果已经有了一个磁盘组,则需要将这些磁盘,加到另
10、一个磁盘组,如图1-3-6所示。在本示例中,原来的120G固态硬盘在“Drive Groups 0”中,则可以选中当前6个1TB的磁盘,单击“Add to Array”,加到“Drive Groups 1”中。图1-3-6 选中磁盘加到阵列(7)当所有磁盘添加到磁盘组后,单击“Accept DG”,接受配置,如图1-3-7所示。图1-3-7 接受配置(8)如果还有其他磁盘,或者其他配置,可以从左侧选择磁盘,将其添加到右侧的磁盘组中。如果所有磁盘已经选择完毕,单击“Next”按钮继续,如图1-3-8所示。图1-3-8 磁盘选择完毕(9)在“Span Definition”对话框,在“Array
11、With free Space”列表中,显示了上一步添加的磁盘的总空间,以前当前支持的RAID模式,单击“Add to SPAN”,将其添加到右侧的“Span”列表中,如图1-3-9所示。图1-3-9 添加到SPAN【说明】Span是在逻辑上把几个物理磁盘一个接一个串联到一起,从而提供一个大的逻辑磁盘。Span上的数据简单的从第一个磁盘开始存储, 当第一个磁盘的存储空间用完后, 再依次从后面的磁盘开始存储数据。Span存取性能完全等同于对单一磁盘的存取操作。Span也不提供数据安全保障。它只是简单的提供一种利用磁盘空间的方法,Span的存储容量等于组成Span的所有磁盘的容量的总和。(10)如
12、果还有其他空间,可以继续添加。当添加完成后,单击“Next”按钮,如图1-3-10所示。图1-3-10 添加完毕(11)在接下来的界面中,选择RAID级别、Strip大小、逻辑卷大小等。在“RAID Level”选择RAID级别,当前可供选择的是RAID0、RAID10(显示为RAID 1)、RAID5。如图1-3-11所示。在右下角显示了不同RAID级别时,可用的容量。例如,在本示例中,有6个1TB的硬盘(每个硬盘是930.390GB),在选择RAID 0级别时,可用容量是5.451TB(6个硬盘容量);在选择RAID10时,可用容量是2.725TB(3个硬盘容量);在选择RAID 5时,可
13、用容量是4.542TB(5个硬盘容量)。图1-3-11 RADI级别及容量如果是大容量的普通硬盘,例如本示例中的5400转、1TB硬盘,建议使用RAID 10,因为这样有较好的性能;如果是10K的SAS硬盘,例如600G、10000转的SAS硬盘,在兼顾性能、容量的同时,建议选择RAID 5。在做RAID 5时,一般建议每组中最多是56块硬盘。例如,在有10块硬盘时,可以各选5块做两组RAID 5。这样兼顾安全性及性能。(12)在“Strip Size”,可供选择的值是8KB、16KB、32KB、64KB、128KB、256KB、512KB、1MB。对于较大的IO读写,选择较大的值;对于较小的
14、IO读写,则选择较小的值。在本示例中,存储用于虚拟化应用,存储空间是先分配给ESXi,由ESXi再分配给虚拟机。在以虚拟机为单位的应用中,建议选择较大的数值,在此选择1MB,如图1-3-12所示。图1-3-12 Strip Size(13)其他选项一般选择默认值即可,在“Select Size”处,选择要划分逻辑磁盘的容量。如果要创建多个逻辑磁盘,可以在此输入第1个逻辑磁盘的容量,然后单击“Accept”创建第一个逻辑磁盘。之后可以创建第2个、第3个等你需要的逻辑磁盘。在此我们用所有的空间,创建一个逻辑磁盘,此时可以单击“Update Size”按钮,使用所有空间,然后单击“Accept”按钮
15、,如图1-3-13所示。图1-3-13 使用整个空间创建逻辑磁盘(14)创建之后的逻辑磁盘显示在右侧的列表中,单击“Next”按钮继续,如图1-3-14所示。图1-3-14 创建逻辑磁盘完成(15)在“Configuration Preview”对话框中,单击“Accept”按钮,接受并保存这个配置,如图1-3-15所示。图1-3-15 保存配置(16)在“Save this Configuration”对话框,单击“Yes”按钮,保存设置,如图1-3-16所示。图1-3-16 保存设置(17)RAID配置程序会提示“所有在新虚拟磁盘上的数据都会丢失,要初始化吗”,单击“Yes”按钮,如图1-
16、3-17所示。图1-3-17 提示数据丢失,是否初始化(18)之后新创建的虚拟磁盘会开始初始化,默认是“快速初始化”。在初始化完成后,可以单击左下角的“Home”按钮,返回主菜单。如果有多个虚拟磁盘,如果要选择引导驱动器,可以在“Virtual Drives”列表中,选择要做引导的虚拟磁盘,单击“Set Toot Drive”,设置引导驱动器。在设置之前,在右侧有“Current1”之类的提示,表示当前引导磁盘是“VD1:RAID0:110.827GB”,如图1-3-18所示。图1-3-18 执行初始化并设置引导磁盘(19)返回到主界面之后,在右侧可以看到,所有的磁盘已经配置,如图1-3-19
17、所示。当前一共有两个配置,分别是120G的固态硬盘做的RAID0,以及6块1TB硬盘做的RAID10。配置完成后,单击“Exit”按钮退出。图1-3-19 配置完成(20)在“Exit Application”对话框,单击“Yes”按钮,如图1-3-20所示。图1-3-20 退出应用程序(21)在“Please Reboot your System”对话框,按“Ctrl+Alt+Del”,重新启动计算机。如图1-3-21所示。图1-3-21 重新引导系统之后服务器将重新启动。3 为服务器添加存储及注意事项3.1退出维护模式并添加本地存储当主机再次进入VMware ESXi之后,使用vSpher
18、e Client登录vCenter Server,将置于维护模式的主机“退出维护模式”并添加本地存储,主要步骤如下。(1)当主机开机之后,进入VMware ESXi后,在vSphere Client中,可以看到主机已经连接上。右键单击主机,在弹出的快捷菜单中选择“退出维护模式”,如图1-4-1所示。图1-4-1 退出维护模式(2)在“配置存储器”中,单击“添加存储器”链接,如图1-4-2所示。图1-4-2 添加存储器(3)在“选择存储器类型”中选择“磁盘/LUN”,如图1-4-3所示。图1-4-3 添加本地磁盘(4)在“选择磁盘/LUN”对话框中,在右侧会显示出当前可以添加的磁盘,并显示驱动器
19、类型及容量,如图1-4-4所示,当前是6块1TB硬盘划分为RAID0,所以容量是2.73TB左右(3个1TB硬盘容量)。图1-4-4 选择要添加的磁盘(5)在“文件系统版本”对话框,选择“VMFS-5”文件系统,只有VMFS-5文件系统才支持2TB以上大小,如图1-4-5所示。图1-4-5 文件系统版本(6)在“当前磁盘布局”对话框,显示了当前磁盘所有可用空间的情况,当前硬盘为2.73TB,硬盘为空白,如图1-4-6所示。图1-4-6 当前磁盘布局(7)在“属性”对话框中,指定数据存储的属性,在“输入数据存储名称”文本框中,输入要添加的数据存储名称,该名称将会添加在当前ESXi主机中。在有多台
20、主机时,要为存储规划统一的名称。规划可以有多种方式,一般我是使用主机名+存储名+序号。例如,这是在第2台ESXi主机上添加的第一个本地存储,则可以将名称命名为esx02-d1,如图1-4-7所示。图1-4-7 命名存储(8)添加存储之后,在“配置存储器”右侧可以看到添加的存储,如图1-4-8所示。图1-4-8 添加后的存储对于另外两台主机,也要参考上面的步骤进行操作,即:l 将主机置于待机模式l 关闭主机电源,并断开电源线l 打开服务器主机,插上RAID卡,并添加硬盘l 插上电源线,打开服务器电源,进入RAID配置界面l 使用vSphere Client,将主机退出维护模式,并添加本地存储。大
21、家要注意,当vSphere数据中心中主机数量少于3台时,只能将其中1台主机置于维护模式。如果数据中心有多个主机,可以将其中的多台主机同时置于维护模式,这要看数据中心中故障主机的容量设置。所以,在大多数情况下,一台一台安装配置是相对安全可靠的。3.2如果系统安装在本地硬盘需要重新设置启动磁盘虽然我们介绍的简单,但在实际使用、安装配置的过程中,总是会碰到问题。下面我们将在为IBM服务器添加RAID卡、配置硬盘中,可能碰到的问题介绍一下,并给出对应的解决方法。如果在添加RAID卡之前,服务器安装了硬盘(例如安装了一个固态硬盘),并且在这个硬盘上安装了系统。那么,在添加RAID卡之后,这个本地硬盘需要
22、初始化、配置为RAID才能使用。之后可以将系统安装在这个固态硬盘上,并重新添加到vCenter Server。主要步骤如下。(1)进入RAID卡配置,将这个单独的固态硬盘配置为RAID0,并划分一个逻辑盘。图2-1-1 将固态硬盘配置为RAID0(2)在“Virtual Drives”选项中,选中新配置为RAID0的固态硬盘,选择“Set Boot Drive”,然后单击“GO”按钮,将固态硬盘的RAID设置为引导磁盘,如图2-1-2所示。设置之后显示当前引导盘为VD1或是VD0(只有在有多个逻辑分区时才需要设置,如果只有一个逻辑磁盘则不需要这样做)。图2-1-2 设置引导磁盘(3)使用VMw
23、are ESXi安装光盘(或安装U盘),重新启动服务器,在“Select a Disk to Install or Upgrade”对话框,选择要存储操作系统的位置,如图2-1-3所示。在此列表中,“Local”列表显示的是服务器的本地磁盘或本地存储,“Remote”显示的是服务器的远程存储,一般是通过FC或SAS连接的存储设备。在当前服务器中,本地硬盘有一个2.27TB(这是6块硬盘做RAID10后的磁盘)、一个110.83GB的(这是单个120GB的固态硬盘做的RAID0)、一个28.89GB(这是用来引导安装VMware ESXi 5.5的引导U盘);远程有三个磁盘,分别为10GB、3T
24、B、2.14TB,其中10GB这个是单独分配给当前服务器,用于安装系统用的,另两个则是分配给当前阵列中所有服务器的共享存储,操作系统不能安装在这两个大容量的存储上,否则会丢失数据。在本示例中,如果操作系统原来安装在固态硬盘上,则选择110.83GB的这个本地硬盘,将系统安装在本地存储上即可。图2-1-3 选择要安装的磁盘(4)在安装之后,进入VMware ESXi控制台界面,为服务器设置原来的IP地址,并使用vSphere Client登录vCenter Server,将VMware ESXi添加到原有的群集中,重新配置网卡,而数据、其他设置不需要配置,即可。3.3修改系统启动顺序如果在添加R
25、AID卡之后,重新启动服务器不能引导(系统安装在远程的共享存储上时),这是启动顺序不对,进入CMOS设置,修改后装的SAS卡最先引导即可。主要步骤如下。(1)重新启动服务器,当出现图2-2-1所示菜单时,按F1热键。图2-2-1 开机热键菜单(2)进入系统配置界面后,移动光标到“System Settings”并按回车键,如图2-2-2所示。图2-2-2 系统设置(3)在系统设置界面,移动光标到“Devices and I/O Ports”并按回车键,如图2-2-3所示。图2-2-3 设置与IO端口(4)在设备与IO端口配置页,移动光标到“Set Option ROM Execution Or
26、der”并按回车键,如图2-2-4所示。图2-2-4 设置执行顺序(5)默认的启动顺序依次是本地SAS控制器、网卡、Slot插槽设备,而RAID磁盘则属于本地SAS(RAID)设备,而远程存储(通过FC或SAS连接)的则是属于Slot插槽上的启动设备。如图2-2-5所示。如果要修改启动顺序,在此按回车键。图2-2-5 默认启动顺序(6)在本次选择中,是将Slot插槽调整到前面。可以移动光标分别到Slot 1、2、3,然后按+号将其向前调整(按-则是向后调整),如图2-2-6所示。将三个Slot插槽调整到前面。图2-2-6 选中设备后按+、-调整启动顺序(7)调整之后,如图2-2-7所示。按ES
27、C返回。图2-2-7 调整启动顺序后(8)返回到系统设置页后,移动光标到“Save Settings”按回车键,保存设置,如图2-2-8所示。图2-2-8 保存设置(9)然后按ESC退出CMOS设置,按Y确认,如图2-2-9所示。图2-2-9 退出CMOS设置4 在添加本地存储中碰到的问题及解决方法4.1 添加RAID卡后出现PCI故障报警如果添加RAID卡之后,服务器面板报警,显示“PCI”故障,如图2-2-10所示,则需要进入CMOS进行设置,主要步骤如下。图2-2-10 PCI故障灯(1)开机按F1进入系统设置,选择“Load Default Settings”加载默认设置,如图2-2-
28、11所示。图2-2-11 恢复默认设置(2)然后进入“System Settings”(系统设置)对话框,选择“Network”进入网卡设置,如图2-2-12所示。图2-2-12 网络设置(3)在网络设置对话框中,选择“Network Boot Configuration”(网络启动配置),如图2-2-13所示。图2-2-13 网卡启动配置(4)在“Network Boot Configuration”页中,将1、2、3网卡的PXE引导功能禁止(保留编号为0的网卡的PXE引导功能,用来安装系统)。本例以配置标号为2的网卡为例。移动光标到“MAC:40:F2:E9:XX:XX:XX Onboar
29、d PFA 6:0:2”按回车键,如图2-2-14所示。图2-2-14 选择网卡(5)进入网卡配置页,在“PXE Mode”处按回车键,在弹出的对话框中选择“Disabled”,如图2-2-15所示。图2-2-15 禁止PXE功能(6)设置之后如图2-2-16所示。之后移动光标到“Save Changes”保存设置。图2-2-16 保存设置之后参照(4)(6)6设置,将标号为1、3的网卡也禁止PXE功能,并保存设置。这些不一一介绍。(7)之后返回“System Settings”,选择“Devices and I/O Ports”,如图2-2-17所示。图2-2-17 设备与IO端口配置(8)
30、在设备与端口配置页面,选择“Enable / Disable Adapter Option ROM Support”,如图2-2-18所示。图2-2-18 设置适配器ROM支持(9)在默认情况下,“ROM Support”都是允许“Enable”的状态,如图2-2-19所示。图2-2-19 默认情况下为允许(10)在此项中,要分别为Legacy及UEFI的选项进行设置,一般情况下将以太网卡2、3设置为禁用即可,如图2-2-20所示。如果设置此项,保存设置退出后,仍然出现PCI的错误提示,则还需要在此界面中将Slot 1、2、3设置为禁用。图2-2-20 禁用网卡(11)设置之后返回系统配置页,
31、选择“Save Settings”,保存设置并退出,如图2-2-21所示。图2-2-21 保存设置再次启动之后,在开始的时候仍然出现故障提示,在经过RAID卡配置检测之后(显示如图2-2-22页),故障警告提示清除,至此PCI故障解决。图2-2-22 RAID卡配置此时服务器前面板指示灯变为“绿色”,如图2-2-23所示。图2-2-23 指示灯变绿此时打开面板可以看到PCI指示灯已经不亮,如图2-2-24所示。图2-2-24 面板详细信息没有故障指示在实际使用中,如果要使用共享存储,建议为服务器配置两个SAS或FC卡连接到存储。在这种情况下,可以提供“冗余”功能。如果为服务器配置了两个SAS或FC卡,在系统检测中,为服务器分配的存储会显示两次,如图2-2-25所示。图2-2-25 S
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1