XX教育局云平台方案建议书Word文件下载.docx

上传人:b****6 文档编号:20171661 上传时间:2023-01-17 格式:DOCX 页数:44 大小:1.91MB
下载 相关 举报
XX教育局云平台方案建议书Word文件下载.docx_第1页
第1页 / 共44页
XX教育局云平台方案建议书Word文件下载.docx_第2页
第2页 / 共44页
XX教育局云平台方案建议书Word文件下载.docx_第3页
第3页 / 共44页
XX教育局云平台方案建议书Word文件下载.docx_第4页
第4页 / 共44页
XX教育局云平台方案建议书Word文件下载.docx_第5页
第5页 / 共44页
点击查看更多>>
下载资源
资源描述

XX教育局云平台方案建议书Word文件下载.docx

《XX教育局云平台方案建议书Word文件下载.docx》由会员分享,可在线阅读,更多相关《XX教育局云平台方案建议书Word文件下载.docx(44页珍藏版)》请在冰豆网上搜索。

XX教育局云平台方案建议书Word文件下载.docx

承办区委、区政府交办的其他事项。

广东省XX区教育局历来重视自身信息化的建设,已建立起较为完善的信息应用体系,并贯穿于办公、服务、管理和决策的各个方面。

本方案建议广东省XX区教育局采用云计算技术,解决传统数据中心运维管理成本高、资源利用率低、业务部署上线周期长等难点。

1.2面临的风险和挑战

根据客户沟通交流的情况,目前遇到的问题是随着IT应用的急速发展,设备不断增长已给他们部门带来了机房场地严重不足,运维管理压力巨大等问题。

希望引入异构云计算的解决这方面的问题,同时需要考虑到需要将前期投入的设备也能有效的融于这个云计算的方案里。

对于这个方案,除了考虑到前期设备的利用外,对业务有效支撑、稳定性、安全性、可扩展性及后续运维难度等也是关注的重点。

广东省水利厅IT基础系统的发展面临着如下问题:

(1)系统建设周期长、IT投资成本高

随着业务的不断发展,业务系统建设需求增多,但是基于原有的建设和运维模式,各单位为了满足自身的信息化建设需求,各自采购服务器、存储、安全等硬件设备,导致烟囱式建设现状,重复投资造成了极大的资源浪费。

同时,各应用系统的服务器工作负载不一,服务器资源不能被合理、有效利用。

根据对行业IT系统情况的调研发现,传统的应用系统大多数采用每一个应用系统配备专属服务器,大部分服务器资源利用率在5-25%左右,大量的IT资源利用率低下,但总拥有成本却在不断上升。

由于基于原有的硬件部署方式无法对资源进行共享和调配,做到资源合理有效利用,造成了的设备资源浪费,能耗高,占用机房面积大,管理繁杂并且故障率极高,同时由此带来硬件投资成本、部署成本都在不断上升。

(2)空间环境受到挑战、运维管理成本高

由于业务系统的不断发展,逐渐无法满足业务系统的空间需求、功耗需求、散热需求;

空间投资和管理维护成本迅速膨胀:

服务器、配件、软件的不断购买,机房扩建,制冷系统改造,电费持续升高,IT固定资产日益庞大、硬件种类繁多,IT运维管理成本不断增长,对提倡绿色环保、低碳经济、运维管理成本控制是一个巨大的挑战。

(3)业务连续性保障差、数据安全性弱

广东省XX区教育局系统的应用多是广东省水利厅的基础信息化工具,经过常年的建设和使用,积累了基于实战应用的规范化工作流程和大量丰富完整的数据,广东省XX区教育局工作逐渐形成依托信息化的模式,因此对应用系统稳定不间断运行和数据安全保护有着极高的需求。

但是随着工作中越来越多的依赖IT系统的协助,应用系统的不间断持续运转的需求就越来越强烈。

硬件和软件故障、系统单点故障、自然灾害,甚至计划维护所导致的停机时间,都有可能影响到业务运行和数据安全,如何保证业务连续性和数据安全性,是当前IT系统的一个巨大的挑战。

(4)业务部署流程环节多、上线周期长

随着广东省XX区教育局的发展,不断需要上线新的业务,就需要购置新的服务器;

购置服务器和部署业务系统需要计划部门和采购部门、维护部门等相关部门的参与,各个部门的进度和流程不一致,经常导致业务部署流程环节多、上线周期长。

通过IT系统基础设施逐步云化部署,基于云平台虚拟化技术,实现计算存储网络的虚拟化、资源共享、灵活分配,实现业务服务器的整合和调配,集中化以及基于策略的管理,以适应快速发展的业务需求,降低IT总持有成本,聚焦核心业务发展。

因此,云平台建设势在必行。

1.3需求现状分析

在本次项目的硬件架构设计中基本采用了x86架构服务器以实现硬件的集中统一管理;

同时初期规划建设一个高效可靠而易于管理维护的虚拟化平台架构,作为未来系统多应用平台的整体弹性部署基础架构。

这样就使得未来业务系统的部署能够根据实际业务量大小对运行该应用的虚拟机资源进行在线动态调整与增加,以提高未来快速部署应用系统的效率及实现基础架构平台的高效管理维护,同时提高X86服务器平台的高可用性、降低应用业务系统的整体建设成本,并逐步探索和积累云计算基础架构平台的运营管理经验。

现目前数据中心有一套Vmware云平台系统(20*vCPU),进行服务器虚拟,目前拥有20台服务器,考虑到将来数年业务应用部署与生命周期管理,需对现现有扩容建设,约30-50台虚拟服务器规模,CPU扩容至100vCPU,使用内存700G,存储约20T.以满足新增业务需求。

1.4方案设计原则

Ø

靠性及可用性

系统的可靠性包括整体可靠性、数据可靠性和单一设备可靠性三个方面。

云平台的分布式架构,从整体系统上提高可靠性,降低系统对单设备可靠性的要求。

系统的可用性是通过冗余、高可用集群、应用与底层设备松耦合等特性来体现,从硬件设备冗余、链路冗余、应用容错等方面充分保证整体系统的可用性。

安全性

遵循国家电子政务安全等保标准,设计安全防护体系保证电子政务数据中心安全。

保障网络安全、主机安全、应用安全、数据保安全、安全管理。

成熟性

从架构设计、软硬件选型和IT管理三个方面设计电子政务数据中心解决方案,采用经过大规模商用实践检验的架构方案和软硬件产品选型,采用符合ITIL规范的IT管理方案,保障方案的成熟性。

先进性

合理利用云计算的技术先进性和理念先进性,突出云计算给客户带来的价值。

采用虚拟化、资源动态部署等先进技术与模式,并与电子政务业务相结合,确保先进技术与模式应用的有效与适用。

可扩展性

支撑数据中心的资源需要根据业务应用工作负荷需求进行弹性伸缩,IT基础架构应与业务系统松耦合,这样,在业务系统进行容量扩展时,只需增加相应数量的IT硬件设备,即可实现系统的灵活扩展。

2总体技术方案

2.1FusionSphere解决方案简介

(1)FusionSphere解决方案,可以帮助用户实现:

在数据中心初建时,统一管理数据中心内分布式、异构的基础设施,实现云化。

当数据中心需要云化改造和扩容时,无须担心采购的计算、存储、网络、安全等物理资源或者虚拟化基础设施的Vendor-Lock-In问题。

在数据中心新建、分步改造和扩容建设的时候,企业可以通过标准的OpenStackAPI总线,选择满足OpenStack标准接口的第三方供应商的云产品和服务。

(2)FusionSphereOpenStack简介

FusionSphereOpenStack指华为OpenStack,基于社区OpenStack的社区版本进行增强和加固。

在保持OpenStack开放接口的基础之上发布的OpenStack企业版。

FusionSphereOpenStack支持商用发布。

FusionSphereOpenStack保持了OpenStack社区版本的开放性和兼容性:

支持第3方厂商的计算、存储、网络和安全物理硬件。

支持第3方的计算虚拟化、存储虚拟化、网络虚拟化和安全虚拟化产品。

在云服务层面,基于OpenStack社区版本提供备份、热迁移、亲和性资源调度、电信云定制化扩展、物理资源池等扩展服务。

在运维层面,基于OpenStack社区版本提供安装部署、升级/补丁、管理数据备份/恢复、信息收集、健康检查等运维服务。

FusionSphereOpenStack扩展电信运营商、企业建设IT基础设施及业务平台所需要的特性,整体提供开放的标准化北向接口。

(3)FusionSphereOpenStack在FusionSphere解决方案的位置

2.2云平台设计方案

2.2.1计算虚拟化方案设计

在虚拟化数据中心,所有资源整合后在逻辑上以单一整体的形式呈现,这些资源根据需要进行动态扩展和配置,水利厅信息系统业务按需使用资源。

通过虚拟化技术,增强数据中心的可管理性,提高应用的兼容性和可用性,加速应用的部署,提升硬件资源的利用率,降低能源消耗。

虚拟化是云计算的基础,在虚拟化数据中心,通过虚拟化技术将物理服务器进行虚拟化,具体为CPU虚拟化、内存虚拟化、设备I/O虚拟化等,实现在单一物理服务器上运行多个虚拟服务器(虚拟机),把应用程序对底层的系统和硬件的依赖抽象出来,从而解除应用与操作系统和硬件的耦合关系,使得物理设备的差异性与兼容性与上层应用透明,不同的虚拟机之间相互隔离、互不影响,可以运行不同的操作系统,并提供不同的应用服务。

华为FusionSphereOpenStack逻辑结构由虚拟基础设施套件和云基础服务套件组成。

系统逻辑架构图如下:

FusionSphereOpenStack逻辑结构

华为云平台管理节点主要由:

虚拟化基础引擎FusionCompute和云管理FusionManager。

一套云平台部署一对FusionManager主备节点,FusionManager通过自动发现功能发现其管辖下的物理设备资源(包括机框、服务器、刀片、存储设备、交互机)以及他们的组网关系;

提供虚拟资源与物理资源管理功能(统一拓扑、统一告警、统一监控、容量管理、用量计费、性能报表、关联分析,生命周期),并且对外提供统一的管理Portal。

FusionSphereOpenStack各模块功能如下:

OpenStack基于社区Havana版本进行可靠性、网络安全加固,提供以下功能:

虚拟机生命周期管理

虚拟机监控和HA

虚拟机动态扩展

虚拟网络管理

虚拟存储管理

CBS提供了云数据中心HostOS的PXE方式安装部署功能。

CPS提供了能够按照All-In-One模式和自定义模式安装部署。

Upgrade提供了升级功能,支持整体下电的快速升级和基于热迁移的Rolling-upgrade模式的无损升级。

Backup提供了管理数据备份/恢复功能,支持定时自动备份管理数据。

HealthCheck提供了健康检查及相关信息收集功能。

FusionCompute提供基础的虚拟化功能,提供服务器、存储、网络的虚拟化功能,并向上对FusionManager提供接口。

每套FusionCompute主要由一对主备管理节点VRM组成。

一对VRM对应一个物理集群(或者叫站点)。

一个物理集群中可以把多台服务器划分成一个资源集群(又叫HA资源池),一个计算资源池有相同的调度策略,为了使用热迁移相关的调度策略要求资源池主机CPU同制。

计算资源池不包括网络资源与存储资源。

一个物理集群中可以包含多个资源集群。

2.2.1.1业务虚拟化评估

业务系统中,可以按照如下原则进行业务虚拟化改造,如果某些应用不能进行虚拟化,可以把能虚拟化的业务进行虚拟化改造,不能进行虚拟化的业务,保持不变或采用物理机部署,由FusionSphere统一管理。

适合虚拟化平台的业务:

业务对资源有快速部署、标准化(X86架构)的需求;

系统和应用不依赖于特殊的、无法虚拟化的硬件;

系统资源平均利用率较低;

业务增长快,导致平台频繁扩容;

需要用较低成本来提高系统可用性和可靠性。

不适合虚拟化业务:

应用厂商明确表示不支持虚拟化,不建议虚拟化;

应用软件厂商表示不提供在虚拟化平台上运行的技术支撑,请慎重考虑,建议请华为评估;

业务对实时性要求非常高的系统,如要求毫秒级响应,建议暂缓或请华为评估;

数据库双机或数据库集群,如OracleRAC等,暂缓虚拟化,采用物理机部署;

非X86平台系统,如小型机,暂缓虚拟化,如果可迁移到X86系统,则评估是否可采用高端X86服务器物理部署;

依赖特殊的外设(EVDO卡,特殊的语音板卡、加密卡等PCI卡)或专用设备(排队机、LNS设备、工控机)的系统,暂缓虚拟化;

系统本地I/O或网络吞吐非常繁忙,如大型数据库IO要求非常高,会导致整个集群资源产生瓶颈,影响整个集群性能,建议不要进行平台化部署。

如数据库IOPS平均值大于1500时,会占用过多共享存储资源,可能会导致其他虚拟机变慢,不建议采用虚拟化部署,采用物理机部署;

2.2.1.2虚拟化资源池设计

服务器是虚拟化数据中心的核心,其承担着数据中心“计算”功能。

对于虚拟化数据中心中的服务器,通常都是将相同或者相似类型的服务器组合在一起,安装云操作系统(FusionSphere),使其计算资源能以一种虚拟服务器的方式被不同的应用使用,即所谓的虚拟化资源池。

这里所提到的虚拟服务器,是一种逻辑概念。

对不同处理器架构的服务器以及不同的虚拟化平台软件,其实现的具体方式不同。

在搭建虚拟化资源池之前,首先应该确定资源池的数量和种类,并对服务器进行归类。

归类的标准通常是根据服务器的CPU类型、型号、配置、物理位置来决定。

对虚拟化数据中心而言,属于同一个资源池的服务器,通常就会将其视为一组可互相替代的资源。

所以,一般都是将相同处理器、相近型号系列并且配置与物理位置接近的服务器——比如相近型号、物理距离不远的机架式服务器或者刀片服务器。

在做资源池规划的时候,也需要考虑其规模和功用。

如果单个资源池的规模越大,可以给虚拟化平台提供更大的灵活性和容错性:

更多的应用可以部署在上面,并且单个物理服务器的宕机对整个资源池的影响会更小些。

如果有条件的话,通常推荐先审视一下企业自身的业务应用。

可以考虑将应用分级,将某些级别高的应用尽可能地放在某些独立而规模较小的资源池内,辅以较高级别的存储设备,并配备高级别的运维值守。

而那些级别比较低的应用,则可以被放在那些规模较大的公用资源池(群)中。

对于x86系列的服务器,除了用于生产系统的资源池以外,还需要专门搭建一个测试用资源池,以便云计算平台项目实施过程以及平台上线以后运维过程中使用。

在云计算平台上线以后,原有非云计算平台上的应用会逐步向云计算平台迁移,空出的服务器资源池也会逐渐并入云计算平台的资源池中。

2.2.1.3虚拟化资源池服务器规划

云平台服务器配置计算方法:

为了保证云平台上虚拟机的可靠性,在发生服务器异常故障时,使得故障服务器上的虚拟机能在其它服务器通过云平台HA功能运行起来,尽量减少业务的中断时间,所以在系统部署时,代表系统计算资源的服务器CPU和内存资源要保留20%以上的冗余。

虚拟机的网卡是共享服务器上的物理网卡的带宽的,而且可以虚拟机创建好后继续添加虚拟网卡,所以虚拟网卡的数量不构成计算资源的约束。

本次配置10台服务器。

2.2.1.4虚拟化资源池部署规划

管理和计算节点部署规划

管理和计算节点部署图

FusionSphereOpenStack需要部署为3Controllers模式。

3Controllers模式需部署3个控制节点和多个计算节点,通过模板的多实例来提高系统可靠性。

FusionSphere工具中选择3Controller模式之后,FusionSphereOpenStack自动选择三台主机作为Controller节点。

在3Controller模式下,以部署3个控制节点、5个计算节点(部署1个Router和Loadbalancer角色)、虚拟机总数量不超过50个并且服务器配置如下所示的场景为例。

处理器:

64-bitx86IntelE5-2640(8core,2.00GHz)*2

内存:

128GB

硬盘:

6*600GBSAS(1个系统盘,1个FusionStorage管理集群元数据盘,4个用于FusionStorage存储池的硬盘),1*400GSSD卡

3Controllers性能消耗

注:

可根据业务虚拟机数量调节管理虚机规格大小,提高管理节点性能。

控制节点

计算节点

角色

CPU

内存

磁盘

(vCPU数量)

(GB)

sys-client

0.5

5

130

sys-server

1

2

-

database

auth

image

60

controller

3

50

measure

mongodb

4

rabbitmq

compute

blockstorage

7+2.5*磁盘数量

blockstorage-driver

router+loadbalancer

2.2.2网络方案设计

2.2.2.1网络总体方案

整体网络划分为三层,分别为:

1)接入层

服务器和存储设备上行接入到接入层交换机。

服务器侧建议采用6网卡(业务管理两网卡、存储两网卡)方式进行组网,业务、管理平面分别通过两网卡聚合确保链路冗余,存储平面通过多路径确保链路冗余。

在接入交换机划分VLAN,将管理、业务、存储三个平面逻辑隔离。

为简化组网提高组网可靠性,建议接入交换机采用堆叠方式:

存储网络:

用于承载服务器和磁盘阵列之间的专用数据访问。

存储网络通过多路径确保链路冗余,服务器与存储设备通过存储网络二层直接互通。

存储设备为虚拟机提供存储资源,但不直接与虚拟机通信,而通过虚拟化平台转化。

业务网络:

为用户提供业务通道,为虚拟机虚拟网卡的通信平面,对外提供业务应用。

各业务部门可以细分VLAN进行访问隔离。

管理网络:

负责整个云计算系统的管理、业务部署、系统加载等流量的通信。

BMC平面主要负责服务器的管理,BMC平面可以和管理平面隔离,也可以不进行隔离。

1)汇聚层

接入交换机上行到汇聚层交换机。

汇聚交换机建议采用交换机集群的方式,接入交换机采用ETH-TRUNK上行至汇聚交换机,汇聚交换机堆叠之后,无需启用VRRP功能,如果需要汇聚交换机提供网关功能,则直接将VLANIF接口作为用户网关地址。

2)核心层

汇聚交换机上行接入核心层交换机。

核心交换机也建议采用集群的方式。

核心交换机采用OSPF或者静态路由的方式同上层设备进行对接:

当采用OSPF对接时,OSPF发布地址包括核心交换机互联地址,直连路由地址以及loopback地址。

当采用静态路由方式时,建议核心交换机同上级设备采用VRRP地址为网关地址。

2.2.2.2存储网络设计

每台服务器有两块存储网卡,网卡不进行绑定。

每个IPSAN存储的控制有8块网卡,每两块网卡一个网段,共有4个存储网段。

服务器上的每块物理网卡配置两个逻辑的不同网段的IP地址,服务器共有四个网段的IP,对应IPSAN存储上的网段。

存储面共提供8条逻辑链路(配置存储多路径),4条物理链路。

●柜内存储IPSAN采用8路径负载分担的模式,确保存储业务的可靠性和稳定性,8路径中任意一条路径故障都不会中断业务。

●IPSAN两控制器A、B分别4×

10GE接入到柜内两台存储S5700系列交换机,采用二层组网,A、B控制器使用4个IP网段对应交换机4个VLAN,每台S5700系列交换机划分2个VLAN,与IPSAN互联的端口允许2个VLAN通过,即允许两个IP网段通过。

服务器上需要运行多路径软件,保证多个路径的负荷分担效率和可靠性,每个服务器提供2个网口,每个网口配置两个VLAN子网的IP地址,分别对应IPSAN控制器的1个网段。

2.2.2.3网络配置

●IP

每云平台管理节点、BMC、服务器底层虚拟化需要一个管理IP。

对于做HA可靠性的两个节点需要多一个浮动IP。

每个虚拟机至少需要一个业务IP。

●路由

核心交换机为每一个子网启用一个VLANIF接口,并将VLANIF地址作为网关地址。

机柜内的虚拟机之间通过柜内接入交换机进行二层互通。

机柜间虚拟机通过核心交换机(如S9312)实现三层互通,将网关地址为VLANIF地址。

●VLAN总体规划

例:

管理及BMC平面VLAN:

2~50

存储平面VLAN:

51~100

业务平面VLAN:

XXX

基本虚拟网卡:

101~500

用户多网卡自定义VLAN:

501~1500

其他预留:

1501~4096

2.2.3存储方案设计

2.2.3.1设计原则

通过基于硬件的存储虚拟化系统将网络中各种不同类型的存储设备集合起来协同工作,共同对外提供数据存储和业务访问功能,并根据业务系统的存储需求,提供相应类型的存储服务。

不同类型的存储设备集合协同工作的前提是实现对公司现有存储的统一管理,通过存储虚拟化技术实现异构存储的统一管理。

为实现虚拟机可以在不同物理主机之间在线迁移,虚拟机数据应部署在共享存储中。

同时为保障数据传输高性能和高可靠性,每台云服务器需配置了2块万兆网卡通过两台万兆交换机与共享存储连接。

2.2.3.2存储虚拟化架构

华为FusionSphere存储虚拟化平台主要由文件系统、磁盘驱动和磁盘工具组成。

SAN设备和本地磁盘等块设备连接到服务器上后,经过设备驱动层和通用块层后,对主机呈现一个磁盘设备。

文件系统建立在主机能够访问的存储设备上,创建文件系统的过程就是主机对存储设备执行格式化,在存储设备上写入文件系统的元数据和inode信息,建立文件到裸设备块的映射,并负责裸设备块的管理,包括空间分配和释放。

对于虚拟化来说,文件系统屏蔽了块层的操作,提供了文件级的抽象操作。

虚拟机磁盘就是放在文件系统中的文件。

虚拟机磁盘在使用时,需要由磁盘驱动挂载给虚拟机,驱动分为用户态驱动tapdisk2、内核态后端驱动和前段驱动,用户虚拟机的所有读写IO都会由前段驱动截获,转发给后端驱动,并转换为用户态驱动的读

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高等教育 > 研究生入学考试

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1