超融合数据中心方案建议书.docx

上传人:b****7 文档编号:25508338 上传时间:2023-06-09 格式:DOCX 页数:21 大小:2.72MB
下载 相关 举报
超融合数据中心方案建议书.docx_第1页
第1页 / 共21页
超融合数据中心方案建议书.docx_第2页
第2页 / 共21页
超融合数据中心方案建议书.docx_第3页
第3页 / 共21页
超融合数据中心方案建议书.docx_第4页
第4页 / 共21页
超融合数据中心方案建议书.docx_第5页
第5页 / 共21页
点击查看更多>>
下载资源
资源描述

超融合数据中心方案建议书.docx

《超融合数据中心方案建议书.docx》由会员分享,可在线阅读,更多相关《超融合数据中心方案建议书.docx(21页珍藏版)》请在冰豆网上搜索。

超融合数据中心方案建议书.docx

超融合数据中心方案建议书

方案建议书

 

需求分析

现状和需求

数据中心发展趋势

超融合与传统架构选择

超融合方案设计

设计原则

方案设计

计算资源

存储资源

网络拓扑

容灾方案

方案优势

横向扩展优势

性能优势

可靠性

易于部署

集中管理

自动故障恢复

配置清单

 

1需求分析

现状和需求

为提供高性能,高可靠性,高扩展性的云平台架构,计划采用新一代的超融合架构建设云平台,提供计算和存储的资源。

数据中心发展趋势

回顾数据中心的发展,可以分为个阶段。

年代,称为客户端服务器时代,特点是数据中心以小型机支撑业务系统为主,各系统独立建设,不同系统之间相互隔离,后来出现了存储,实现了不同系统之间的数据共享。

千年开始,服务器开始逐渐普与,服务器虚拟化的兴起,使得存储称为数据中心虚拟化的标准配置。

虚拟化时代数据中心服务器资源可以横向扩展,但是存储不能横向扩展,只能纵向升级,不能适应虚拟化对性能的要求。

年后进入了云时代,企业需要建立云数据中心,服务资源和存储资源都需要资源池化,传统的存储架构已经不能适应云时代的数据中心要求,需要采用软件定义的方式来构建存储资源池,需要支持多种,企业私有云需要能够和公有云对接。

图数据中心发展趋势

据的研究预测,传统存储的销售额呈现明显下滑的趋势,市场份额逐渐被近期兴起的超融合架构取代,未来五年,超融合架构的市场份额会超过传统存储,十年后,的市场占有份额会降到以下。

 

图存储发展趋势

超融合与传统架构选择

超融合基础架构(,或简称“”)是指在同一套单元设备中不仅仅具备计算、网络、存储和服务器虚拟化等资源和技术,而且还包括备份软件、快照技术、重复数据删除、在线数据压缩等元素,而多套单元设备可以通过网络聚合起来,实现模块化的无缝横向扩展(),形成统一的资源池。

是实现“软件定义数据中心”的终极技术途径。

类似、等互联网数据中心的大规模基础架构模式,可以为数据中心带来最优的效率、灵活性、规模、成本和数据保护。

使用计算存储超融合的一体化平台,替代了传统的服务器加集中存储的架构,使得整个架构更清晰简单。

图超融合架构示意图

下表列举了使用超融合架构(计算存储)和传统数据中心三层架构(服务器光纤交换机存储)的对比:

超融合架构

传统数据中心基础架构

性能

尽可能提供本地吞吐,并使用保证应用需求。

不存在性能瓶颈

随着访问集中存储的服务器越来越多,性能瓶颈将日益凸显

横向扩展

可以简单的在集群中增加节点以扩展集群规模和性能

由于架构限制,无法实现横向扩展

高可用性

可以通过三副本的方式容忍最多两个节点同时故障,并且硬件故障时数据重建速度快,性能几乎不受影响

通过技术实现高可用性,但面对硬件故障时,性能下降严重。

整合比

虚拟机密度高,是传统倍以上

虚拟机密度低

内置容灾

内置容灾功能,支持同步和异步容灾

需要额外配置和购买,实施成本高

安装配置

开箱即用的部署方式,只需分钟即可完成安装配置

需要准备大量安装实施前的信息收集和整理工作,并且由专人进行安装部署,最少需要天时间

管理维护

统一界面管理,维护方便

无需配置、卷、组

需要专门存储管理软件,配置复杂。

需要厂商支持。

空间占用

使用超融合架构:

(包含服务器和存储)节点。

使用传统架构:

每台路服务器至少占用,另加存储空间。

2超融合方案设计

新一代数据中心建设包含众多信息化应用的实施,与此相对应,机房服务器和存储设备也必将大量使用,并且随着后期应用扩充和服务扩容,服务器和存储设备的投入必然越来越庞大。

一方面,管理硬件基础设施的压力和成本会不断增大;另一方面,由于应用的多样性,服务器和存储难于有效整合,服务器的资源使用都远低于其实际的处理能力,计算能力和存储容量难以充分利用。

实施虚拟化云计算数据中心,可以有效整合服务器与存储资源,形成计算资源池,根据新一代数据中心各项应用的实际需要动态分配计算资源,最大效率的利用现有服务器与存储设备,并对数据中心硬件设备进行有效管理和监控。

设计原则

在方案设计中我们将遵循以下总体原则:

以业务需求为导向

技术架构最终是为业务服务的,因此技术架构的设计一定要以业务的需求为导向,充分考虑非功能需求,例如系统的重要程度、安全要求、业务连续性等。

遵循互联网标准

新业务系统都是面向互联网和物联网业务,因此架构体系要遵循互联网数据中心设计和建设标准,吸收互联网架构的优势。

提高资源利用率

现已经部署了大量的服务器,资源使用率低是较突出的一个问题,因此在项目中,提高资源利用率成为一个重要的任务。

动态扩展性

在发展趋势中,动态基础架构已经成为基础架构的发展方向。

使基础架构成为一个动态、灵活、具有弹性的基础架构,同时在实时地运营过程可进行灵活的资源动态调整。

资源扩展要体现在计算资源和存储资源的同时扩展。

分布式一切

应用系统的高可用性是保障服务等级的重要因素,在架构设计中应该以软件定义为主,借助软件的分布式架构满足高可用性要求,实现系统架构和平台架构的无单点故障、无单点瓶颈问题,保障新一代的业务系统健壮性。

安全性

在系统设计中,安全性是一个非常重要的问题。

在架构中需要考虑到虚拟化架构内外部的安全,包括数据安全等问题,以保证整个系统长期安全稳定的运行。

方案设计

2.1.1计算资源

基于架构的模块化数据中心由(区块)和(节点)组成。

下图为标准的一个(区块)设备,仅占用个机架单元(高)。

而每台标准的(区块)设备均含有四个独立的节点,每个(节点)都是一台独立的服务器。

却能够提供台标准路的服务器和最大存储容量。

图:

(区块)和(节点)

的计算资源池是通过服务器虚拟化来实现的,可以支持、与平台提供的等,如图。

在虚拟化层形成计算资源池,为业务系统的虚拟机提供不同的服务质量和能力,包括了高可用()、容错()、在线迁移()、资源动态负载均衡()等虚拟化的特性。

同时,可以支持业务虚拟机在不同的之前进行迁移,也就是的能力,例如从迁移到等。

图超融合架构计算资源池(服务器虚拟化)

2.1.2存储资源

提供的分布式文件系统()可以将一组集群内的节点组成一个统一的分布式存储平台。

对于虚拟化平台软件而言就是一个集中的共享式存储,与任何其他集中式存储阵列一样工作,且提供更为简单便捷的存储管理,无需像传统集中存储那样再配置、卷、或者组。

图分布式存储架构和功能

分布式存储架构不仅同样提供传统存储的能力外,还提供更多的能力。

针对于虚拟化方面提供快照、克隆等机制,数据层实现本地优先访问、存储分层等性能机制,对数据进行压缩和去重提高存储可用容量,借助两份以上冗余数据提供存储的可靠性,增加或减少节点数据分布会自动平台,当节点宕机或磁盘损坏后具备数据自恢复能力等。

每个节点提供两种磁盘,标准配置为块,容量从到;块的,容量为和(部分型号节点提供和的)。

图分布式存储系统逻辑架构

被设计成为非常动态的平台,可以适用于不同工作负载的应用,并且允许混合节点类型:

例如将计算密集型节点和存储密集型节点混合在一个集群中。

对于集群内部磁盘容量大小不同的,确保数据一致的分布非常重要。

有自带的称为磁盘平衡的技术,用来确保数据一致的分布在集群内部各节点上。

磁盘平衡功能与各节点的本地磁盘利用率和内置的(数据生命周期管理)一同工作。

它的目标是使得所有节点的磁盘利用率大致相等。

另外,节点通过实现和的数据热分层。

简单而言,磁盘的热分层时实现在集群内所有节点的和上,并且由负责触发数据在热分层之间的迁移。

本地节点的在热分层中是最高优先级的,负责所有本地虚拟机的读写操作。

并且还可以使用集群内所有其他节点的,因为层总是能提供最好的读写性能,并且在混合存储环境中尤为重要。

在超融合的虚拟化环境中,所有操作都将由本地节点上的()接管,以提供极高的性能。

据以往经验与用户习惯分析,一般运行服务器虚拟化的虚拟机对性能要求在左右,而单个节点可提供上的,节点集群可提供将近的。

完全可以满足需求。

2.1.3网络拓扑

在每个单节点上,默认提供如下网络端口:

*,*端口

四口

下图为推荐的网络拓扑图:

图网络拓扑

在计算虚拟化资源池中的每台虚拟化节点上会运行多台虚拟机,多台虚拟机之间共享网络,为了方便管理建议采用虚拟交换机来配置和管理网络,虚拟交换机可在数据中心级别提供集中和聚合的虚拟网络,从而简化并增强虚拟机网络。

在虚拟交换机的网络划分上,仍然可以采用的方式划分不同的子网,实现不同子网段的安全和隔离。

在每个物理节点上有多种网络需求,包括管内部通讯网络、管理网络、生产网络等,因此每个节点需配置多块网卡,网络设计建议如下:

类型

设计

备注

物理节点之间的内部通讯网络

以太网

双链路冗余

每个节点通过两条万兆链路分别连接两台万兆交换机,保证网络设备和链路的冗余度。

建议用户使用万兆网络互联物理节点,当发生密集的写时,万兆网络能保证提供足够带宽满足节点之间的同步流量。

客户端与服务器虚拟机之间的通讯网络,虚拟化服务器对外服务网络

以太网,双链路冗余

每个节点通过两条千万兆链路分别连接两台千万兆交换机,保证网络设备和链路的冗余度。

用户访问虚拟服务器对外提供服务时,通过千万兆链路可以实现与后端存储流量隔离。

硬件管理网络

()

以太网

每个节点都有独立的千兆链路,用于连接专门的管理网络,实现管理网络与业务网络、存储网络分离。

可以最大限度保证管理的灵活性和安全性。

2.1.4容灾方案

平台自带的存储层面与基于虚拟机粒度的备份恢复功能。

用户可以针对每个虚拟机设置不同的备份策略,包括备份计划和备份保留周期,会自动通过存储快照方式对虚拟机进行备份。

所有的快照均是基于存储层面的,与虚拟化层面的快照不同,存储层面的快照不会影响虚拟机的性能,对于虚拟化软件是完全透明的。

传统的备份方式通过网络传输备份数据,需要特定的备份窗口以免影响业务正常运行。

备份可以与传统的备份策略互补,既能保证对于重要的虚拟机进行高频度备份又不会占用额外的网络带宽。

例如:

∙对于普通虚拟机可以使用传统的备份方式每周进行全备,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每天甚至每小时的备份,数据直接保留在存储上以便快速恢复。

∙对于比较重要的虚拟机可以使用传统备份每周全备、每天增量的方式,将备份数据保留在外部存储(例如磁带库中);同时使用备份进行每小时甚至每小时的备份,数据直接保留在存储上以便快速恢复。

容灾功能,分为两个级别:

和。

都是基于虚拟机快照的方式将更新数据异步复制到远程的集群中。

可以实现同城双数据中心之间的接近于“零”(需要裸光纤支持),即便是标准也能实现为小时(基于网络带宽和更新数据量),满足绝大多数异地容灾的业务需求。

容灾支持双向、一对多、多对一各种不同的复制模式。

并且可以通过自带的管理界面激活容灾中心的虚拟机进行容灾演练。

不再需要额外繁琐的灾难恢复计划,基于鼠标点击即可完成容灾切换。

路坦力的复制方案提供如下几个特色功能:

●保护域(/)

主要角色:

同时保护的多个“虚拟机/文件”的逻辑组

描述:

一组多个虚拟机或文件基于某个相同的保护策进行复制保护。

一个可以保护一整个容器()或你所选中的多个虚拟机或文件。

●一致性组(/)

主要角色:

中多个相关联的或文件构成的一个子集,以实现故障时一致性。

描述:

中多台相关联的或文件需要在“同一时刻”发起快照。

从而确保在虚拟机或文件回滚时的数据一致性。

一个中可包含多个。

●复制时间策略()

主要角色:

快照、复制的时间策略

描述:

为或中的提供定制的快照、复制的时间策略

●保留策略()

主要角色:

本地或远程站点中保留的快照数量

描述:

保留策略定义了本地或远程站点中保留的快照数量。

注意:

在远程保留复制

方案优势

使用虚拟化基础架构,在保证用户数据的高速访问和高可靠性同时,不再需要传统的集中式存储架构,避免在今后运行过程中出现设计初期忽视的性能问题。

按照服务器和存储使用现状,建议使用来支撑现有应用。

在今后随着业务发展,可以方便的按照节点进行扩容,避免建设初期一次性投资过大,后期却发现性能问题,需要追加投资的问题出现。

是部署广泛、值得信赖的虚拟化基础架构平台。

适用于最重要的国防、医疗、教育等领域,可为数据中心虚拟化带来横向扩展架构、高可用性和可靠性等优势。

研究显示,并非所有的企业数据中心项目真正做到了全面部署,很大一部分项目通常因为基础设施的成本不断攀升而束之高阁。

传统服务器和存储阵列扩展成为企业数据中心项目成本高昂、过程复杂并且难于实施的主要因素。

从诸多数据中心项目实施来看,在企业环境中,性能、可靠性、可扩展性是关键,因为最终用户体验直接来自于基础设施的高性能和高可靠性。

将融合基础设施、横向扩展架构和软件定义存储的各种优势结合在一起,可提供极佳的数据中心虚拟化体验,而其成本仅为传统服务器和存储器的一小部分。

完整集群是一种能够横向扩展的计算和存储基础设施,它使各组织机构无需存储网络(或)即可实现数据中心虚拟化。

专门为虚拟化而设计,能够提供全面的计算和存储能力,以与企业级的性能、可扩展性、可用性和数据管理功能。

它采用英特尔芯片、固态硬盘等符合行业标准的硬件组件,以与市场领先的高级管理程序,以便提供开箱即用的解决方案,让数据中心虚拟化变得极其简单有效。

)互联网架构的分布式计算

架构与的架构相类似,是一种可以横向扩展的计算存储融合的基础架构,消除了对于集中式存储对于网络的依赖。

并且在基于的架构之上,提供了适合企业环境的解决方案。

是一种特定的解决方案为内部的应用所使用(例如),而提供的是一种通用的虚拟化环境解决方案。

另外,有更好的横向扩展能力,提供更好的企业级数据管理特性,通常这些特性需要额外的网络或者存储硬件才能实现,例如,高可用性、备份、快照、灾难恢复等。

)专为虚拟化设计

是针对虚拟化环境而设计的,因此可以很好的支持虚拟化环境中基于传统存储架构所实现的功能,包括虚拟机的热迁移和高可用性等。

架构是虚拟机感知型的,它克服可传统架构下解决方案的一些弊端,例如,当一个存储设备()共享所有虚拟机使用时,很难使用在存储上使用基于虚拟机的备份、复制和快照功能,并且当架构越来越复杂时,很难诊断性能瓶颈。

而架构克服了这些限制。

)存储分层优势

架构充分发挥了存储分层的固态硬盘的优势,由于传统存储都是针对机械硬盘而设计的,而传统的机械硬盘与硬盘的数据访问方式完全不同,机械硬盘需要旋转和寻道,而硬盘则完全没有这些限制,因此不能指望针对机械硬盘设计的存储软件能充分发挥硬盘的性能优势。

架构使用来保存大量经常访问的数据,从虚拟机的元数据到业务数据都保存在分布式中已提供极高的性能,并且保存在持久化的存储中以便于存取。

架构极高的吞吐性能是得益于使用磁盘,包括:

•保留用于敏感的操作;

•包含空间节省的技术,允许大量的逻辑数据被存储在一个小的物理空间中;

•自动迁移“冷”数据(或者不常访问的数据)到大容量硬盘中,并且允许管理员指定低优先级的虚拟机不使用磁盘。

2.1.5横向扩展优势

给虚拟化环境带来的重要差异化因素之一就是,基础设施在进行扩展时其性能仍然保持不变。

在架构中,在每个物理节点本地都运行一个虚拟存储控制虚机()。

负责本地所有其他虚拟机的操作。

当集群扩展时,新增加节点的同时也新增了,保证了整个集群性能的横向扩展。

与传统集中存储不同,传统架构下集中存储只有两个存储控制器,在集群扩展时,存储控制器无法进行有效的扩展,从而必然成为整个架构的瓶颈。

为了展示这种能力,曾实施过一个巨型的项目,模拟桌面启动风暴,并且当基础设施从台桌面扩展到台时,其性能从最终用户体验的角度来看保持了一致。

在大多数传统的存储环境中,最佳性能仅出现在第一天,因为应用程序或工作负载越来越多,导致性能随着时间的推移不断下降,直至需要进行叉车式升级,采用全新的存储阵列。

下图是系列设备在方案设计中的横向扩展示意图。

通常办公类虚拟桌面,一个系列节点可以支持个虚拟桌面,每增加一个节点,可以多支持个虚拟桌面,真正实现线性的横向扩展:

图线性扩展示意图

下图说明了从台桌面扩展到台时,应用响应时间保持不变:

相对应用性能

虚拟桌面数量与应用响应时间

图不同数量下的相应时间

2.1.6性能优势

解决方案在数据中心虚拟化环境中的主要优势之一就是性能,而性能优势是通过传统的服务器和存储架构实现的。

在传统的架构中,时延是因为每次访问存储都需要通过网络而造成的。

通过和等协议提供存储本身没有问题,但网络会增加时延。

可提供协议的优势与其易用性,而通过所谓的“无网络”消除了网络时延。

分布式文件系统直接对虚拟机进行检测,然后将特定虚拟机的所有数据存放到本地物理服务器上。

因此,虚拟机不是通过网络、而是通过高速内部总线访问其数据。

并且所有节点标配磁盘,提供极高的以满足虚拟化环境各种类型应用需求,无论是虚拟桌面还是服务器虚拟化场景。

更为重要的是,每个节点的磁盘并非有每个节点单独使用,而是在整个集群范围内作为一个整体使用。

言下之意,不会由于单个节点本地的耗尽而导致其性能急剧下降。

当出现这种极端情况时,节点会使用集群中其他节点的空间。

因为即使跨网络访问其他节点磁盘也会比访问本地磁盘快很多。

因此极端最差情况时性能也与使用传统集中存储架构时服务器通过网络访问数据的场景相当。

其实不会出现这种极端情况,因为当利用率超过一定阈值后,的会自动发现并将最少访问的数据从迁移到上,以保证有足够容量满足突发的请求。

这一自动热分层技术对虚拟化主机而言完全透明。

用户无需关心数据保存在哪里,这完全由依据数据访问频度而自动调度。

2.1.7可靠性

平台使用复制因子()和校验和()来保证当节点或者磁盘失效时,数据的冗余度和可用性。

当数据写入时,会被“同步”复制到另个或者个的之中(依赖设置为或者),当这个操作完成之后,此次写操作才被确认()。

这样能确保数据至少存在于个或者个独立的节点上,保证数据的冗余度。

所有节点都参与数据的复制操作,这样能消除“热点节点”,并保证线性的性能扩展。

当数据被写入时,同时计算该数据块的校验和,并且作为数据块元数据中的一部分进行存储。

随后数据块在保证满足的前提下,被“异步”推送到中。

当发生节点或者磁盘失效,数据块会重新在所有节点间进行复制以满足复制因子的设置。

任何时候,读取数据块并同时计算其校验和以确保数据块有效。

当数据块检查结果不匹配校验和时,副本数据将会覆盖该无效数据块。

在分布式文件系统中(),我们使用了一些关键技术来确保:

数据在时间内都是可用的(即“强一致性”),并且保证扩展到超大规模数据量时依然可靠。

这就是文件系统元数据强一致性的算法。

使用一种“环状”的结构的分布式数据库来保存重要的元数据。

为了确保元数据的可用性和冗余度,也同样引入了复制因子()。

一旦一条记录被写或者更新后,这条记录将同时写到“环”中的另一个节点,然后被复制到个其他节点(决定与集群的大小)。

集群中大多数()节点必须同意才能一条记录,这就是强一致性的算法。

这确保了平台数据的“可靠性”。

2.1.8易于部署

开箱即用的部署方式,可以免去传统集中存储环境下存储的规划、连接、配置等复杂的管理操作,无需再配置组、、卷等。

新设备安装上架后只需要约分钟即可完成初始化配置,用户可以马上开始部署应用虚拟机。

集群的扩展也非常方便,通过鼠标点击即可扫描并自动发现新安装的节点,按照提示完成地址配置之后,新节点即完成加入集群操作,新增资源也自动纳入资源池统一调度管理。

2.1.9集中管理

通过的界面实现所有基础架构的管理操作,包括健康检查、物理机管理、虚拟机管理、存储管理、数据保护、告警监控、报表分析等内容。

用户不再需要通过不同界面进行各种管理任务,所有任务都在同一个界面中完成,极大减少的管理复杂程度。

并且可以通过设置不同权限的用户,支持整合,将域用户和角色对应到的用户和组,从而实现分级的运维管理。

图统一管理界面

所有物理和虚拟管理对象均提供详细的性能采集数据,包括、内存、磁盘容量、、吞吐、读写延迟等指标,不再依赖于专用的监控工具和复杂的监控脚本。

图统一监控能力

自定义的报表工具可以灵活的将将不同监控项进行组合和展示,减少日常维护的工作量。

图自定义监控指标

另外,还提供的管理组件,可以将多个管理界面集中管理,不仅可以节省管理员在多个集群之间切换的繁琐动作,更能够将多个集群的状态数据进行汇总,可以方便管理员快速定位当前整个架构中是否存在热点主机或者热点虚拟机,特别有利于简化大规模架构、或者多站点场景下的日常管理任务。

2.1.10自动故障恢复

抛弃了传统的机制来保护硬件失效,采用全新的复制因子和校验和技术来保证当节点或者磁盘失效时,数据的冗余度和可用性(参见章节可靠性)。

当发生单点磁盘甚至是单个节点故障时,集群将自动发现这一故障,并立刻在后台开始数据重建工作。

整个重建过程非常简单,假设复制因子是,系统会自动发现只有份副本的数据块,并将其在另一个节点上复制第份副本即可。

最重要的是,这个数据重建过程是基于的分布式框架实现的,集群中所有节点的都可参与数据重建工作,并且依据负载情况动态调配,因此重建工作不会影响系统性能。

与传统的数据重建不同的是,重建过程会极大影响磁盘的正常操作,导致整个系统性能降级,并且由于磁盘容量越来越大,整个重建过程也将耗费更长时间,甚至超过小时。

另外,独有的技术更能预防单个机箱(即整个)失效时数据依然可以访问,实现原理即当用户环境中有超过个,并且配置相近的节点数量时,会自动将原始数据块和副本数据块放在不同的中的两个节点上(缺省时,数据只是随机放在两个不同的节点上,有可能这两个节点位于同一个中)。

当发生机箱故障时,由于数据副本在机箱之外,因此数据依然可用,可以提供更高等级的数据冗余度。

3配置清单

本次投标产品型号为,采用软硬一体的设备,设备采用高密度设计,在机箱中可配置个节点。

共配置个节点。

系列机箱与电源配置特性:

机箱尺寸:

高寸(),宽寸(),深度寸()

功耗:

最大,典型

电源要求:

单节点详细配置为:

两路核处理器,主频

内存:

盘:

*

盘:

*

网卡:

口(含模块),个千兆口,一个管理口

设备前视图:

设备后视图:

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 工程科技 > 纺织轻工业

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1