双活数据中心建设方案模板文档格式.doc
《双活数据中心建设方案模板文档格式.doc》由会员分享,可在线阅读,更多相关《双活数据中心建设方案模板文档格式.doc(15页珍藏版)》请在冰豆网上搜索。
2.2基于DNS的业务部署模式 7
2.2.1DNS技术简介 7
2.2.2企业数据中心DNS典型部署 8
2.2.3GSLB与SLB 10
第3章XXXX双活数据中心设计 13
3.1XXXX网络结构 13
3.2XXXX双活数据中心部署 14
15
第1章概述
为进一步推进XXXX信息化建设,以信息化推动XXXX业务工作的改革与发展,XXXX在科技楼建有核心机房和一个小的本地容灾备份中心,现在在干保楼又新建了容灾网,实现同城双中心布局。
为提高业务可靠性与双中心设备资源的利用率,XXXX拟建同城双活数据中心,达到双中心同时对外提供同种业务的目标,同时实现业务切换无感知、计算资源灵活调度的功能目标。
1.1数据集中阶段的数据中心建设
1.1.1传统架构存在的问题
传统数据中心网络采用传统以太网技术构建,随着各类业务应用对IT需求的深入发展,业务部门对资源的需求正以几何级数增长,传统的IT基础架构方式给管理员和未来业务的扩展带来巨大挑战。
具体而言存在如下问题:
l维护管理难:
在传统构架的网络中进行业务扩容、迁移或增加新的服务功能越来越困难,每一次变更都将牵涉相互关联的、不同时期按不同初衷建设的多种物理设施,涉及多个不同领域、不同服务方向,工作繁琐、维护困难,而且容易出现漏洞和差错。
比如数据中心新增加一个业务类型,需要调整新的应用访问控制需求,此时管理员不仅要了解新业务的逻辑访问策略,还要精通物理的防火墙实体的部署、连接、安装,要考虑是增加新的防火墙端口、还是需要添置新的防火墙设备,要考虑如何以及何处接入,有没有相应的接口,如何跳线,以及随之而来的VLAN、路由等等,如果网络中还有诸如地址转换、7层交换等等服务与之相关联,那将是非常繁杂的任务。
当这样的IT资源需求在短期内累积,将极易在使得系统维护的质量和稳定性下降,同时反过来减慢新业务的部署,进而阻碍公司业务的推进和发展。
l资源利用率低:
传统架构方式对底层资源的投入与在上层业务所收到的效果很难得到同比发展,最普遍的现象就是忙的设备不堪重负,闲的设备资源储备过多,二者相互之间又无法借用和共用。
这是由于对底层网络建设是以功能单元为中心进行建设的,并不考虑上层业务对底层资源调用的优化,这使得对网络的投入往往无法取得同样的业务应用效果的改善,反而浪费了较多的资源和维护成本。
l服务策略不一致:
传统架构最严重的问题是这种以孤立的设备功能为中心的设计思路无法真正从整个系统角度制订统一的服务策略,比如安全策略、高可用性策略、业务优化策略等等,造成跨平台策略的不一致性,从而难以将所投入的产品能力形成合力为上层业务提供强大的服务支撑。
1.1.2H3C全融合虚拟化架构
H3C提供横向虚拟化、1虚多的设备虚拟化以及纵向虚拟化的全融合虚拟化方案。
通过建设网络资源池,不仅简化了网络部署,而且提高了网络设备的利用率,是业界最具优势的数据中心网络解决方案。
1.2双活数据中心建设目标
XXXX双活数据中心应实现如下设计目标:
l简化管理:
同城双中心业务统一部署,统一管理,使上层业务的变更作用于物理设施的复杂度降低,能够最低限度的减少了物理资源的直接调度,使维护管理的难度和成本大大降低。
l高效复用:
同城双中心网络资源与计算资源高效利用,减少设备主备部署,提高网络设备利用率。
物理服务器部署虚拟机,实现计算资源高度复用,提高计算资源利用率。
l策略一致:
降低具体设备个体的策略复杂性,最大程度的在设备层面以上建立统一、抽象的服务,每一个被充分抽象的服务都按找上层调用的目标进行统一的规范和策略化,这样整个IT将可以达到理想的服务规则和策略的一致性。
l无缝切换:
同城双中心同时对外提供同一种业务,当某中心业务失效,要实现应用的无缝切换,在短时间内实现业务的快速恢复。
l资源调度:
同城双中心二层互联,计算资源可以在双中心之间灵活迁移,快速扩展,统一调度。
第2章双活数据中心业务部署
2.1基于IP的业务部署模式
2.1.1模式简介
基于IP发布的业务一般用于企业内部管理,业务运营。
客户直接通过访问某个IP地址来实现端到端通信。
由标准的路由协议以及健康路由注入来实现IP地址的自动发布。
2.1.2企业数据中心IP业务典型部署
两个数据中心的SLB跨中心部署HACluster,服务器跨数据中心部署负载均衡集群。
同一个业务的在两个数据中心的业务IP不同,分别为VIP-A与VIP-B。
1、部署时ExternalselfIP和业务IP可以直接使用相同的网段,因为用户访问业务时通过主机路由进行选路,而HACluster中只有为Active的SLB才会发布主机路由。
2、对于同一业务,数据中心A使用VIP-A对外提供服务,数据中心B使用VIP-B对外提供服务,实现业务在两个数据中心之间的负载均衡,当数据中心A发生故障时,Trafficgroup-1将进行HA切换,VIP-A的主机路由将由数据中心B的SLB发布。
如果数据中心A的SLB发生故障,如图所示。
由于两个数据中心的SLB跨中心部署HACluster,服务器跨数据中心部署负载均衡集群,所以数据中心B的SLB在一个心跳周期结束之后,感知到数据中心A的SLB无响应,数据中心A的SLB发生故障,TrafficGroup-1将发生HA切换,此时用户访问VIP-A时将直接到达数据中心B,由SLB处理后发送至数据中心A的服务器。
如果当数据中心A的服务器发生故障,如图所示。
数据中心SLB探测到本中心的服务器都故障,则触发TrafficGroup-1将发生HA切换,此时用户访问VIP-A时将直接到达数据中心B,由数据中心B的服务器进行处理,因为此时数据中心A的服务器已无处理能力。
2.2基于DNS的业务部署模式
2.2.1DNS技术简介
2.2.2企业数据中心DNS典型部署
数据中心A和数据中心B分别使用VIP-A和VIP-B对外提供服务,当用户请求域名时,GSLB根据设定的权值给不同用户返回VIP-A或VIP-B。
SLB实现HACluster后,可以根据将不同的业务IP划分到不同的TrafficGroup,HA的切换是基于TrafficGroup实现的,以VIP-A对应的TrafficGroup-1为例。
TrafficGroup-1的缺省设备是数据中心A中的SLB,VIP-A在该SLB上生效,当TrafficGroup-1发生HA切换后,VIP-A将在数据中心B中的SLB上生效。
SLB对数据中心A和数据中心B内的服务器都进行健康检查,负载分担算法设置本数据中心内的优先级较高,当有业务需要处理时,会优先选择本数据中心的服务器进行处理,当本数据中心的服务器都发生故障后,将由远端数据中心的服务器处理业务,同时触发TrafficGroup的HA切换。
GSLB会对LTM的健康状态进行检查,当发现LTM故障后,将触发DNS的切换,从而实现全局路径的优化。
如此,即可将客户端访问数据中心的流量实现有效的负载分担,使双中心的利用率最高。
如果数据中心A的SLB故障后,如图所示。
因为两个数据中心的SLB跨中心部署HACluster,服务器跨数据中心部署负载均衡集群。
当数据中心A的SLB发生故障时,TrafficGroup-1将发生HA切换,VIP-A在数据中心B的SLB上生效,用户访问服务器的流量将经过二层LAN扩展网络到达数据中心B的SLB,经过处理后再发送至数据中心A中的服务器进行处理。
因此,实现故障切换过程客户无感知。
当数据中心A的SLB发生故障后,GSLB还是会探测本中心的SLB,在探测超时后对故障进行感知,触发DNS切换,此时用户访问时,该域名将被解析为VIP-B,解决业务流量次优路径的问题。
当数据中心A的服务器都发生故障时,TrafficGroup-1将发生HA切换,VIP-A在数据中心B的SLB上生效,用户访问服务器的流量将经过二层LAN扩展网络到达数据中心B的SLB,服务器返回的流量经过二层LAN经过二层LAN扩展网络到达数据中心A,实现业务切换无流量丢失。
2.2.3GSLB与SLB
GSLB即全局负载均衡设备,又名GTM,如下图所示。
GSLB的工作原理,如下图所示。
GSLB能够完成DNS解析请求的负载均衡、服务器状态监控以及用户访问路径优化,解决跨中心业务的协同问题,提高多中心资源利用效率,实现全局负载均衡。
SLB即服务器负载均衡设备,又名LTM,主要用来完成本地流量的管理,实现服务器集群的负载分担,同时通过多种算法探测服务器健康状态,给业务切换提供依据与触发条件。
如下图所示。
LTM设备能够支持四台跨数据中心集群,实现SLB的LOCALCLUSTER的功能,提高了LTM本身的稳定性与可靠性,同时实现多业务的负载分担。
第3章XXXX双活数据中心设计
3.1XXXX网络结构
3.2XXXX双活数据中心部署
XXXX双活数据中心关键在于中心A和中心B各部署两台S12500核心交换机。
核心交换机部署横向虚拟化IRF,一虚多MDC以及云间互联EVI,配合GTM和LTM,实现应用级容灾。
部署过程如下:
1.双中心各两台S12508先横向虚拟化IRF,将两台或多台物理设备虚拟成一台逻辑设备,逻辑上成为一个网元。
如图所示。
横向虚拟化的优势IRF:
Ø
统一的管理:
由其中某物理设备的某控制单元作为整组设备的控制单元
统一的板卡和端口命名:
各个设备加机框ID的前缀
统一的L2/L3、IPv4/IPv6、MPLS等转发表
可以实现跨设备的链路聚合
2.在横向虚拟化的基础之上,再部署一虚多的设备虚拟化技术MDC(MultitenantDeviceContext),可以实现将一台物理网络设备通过软件虚拟化成多台逻辑网络设备。
也就是说通过软、硬件虚拟化的配合,MDC逻辑设备具有完全的设备功能,有独立的软件环境和数据,有独立的硬件资源。
甚至可以像一台物理设备一样单独重启,而不影响物理设备上其他MDC的正常运行。
如图所示。
在MDC1所属的板卡上可以部署各个业务的业务网关,在MDC2上部署EVI特性,实现双中心之间的二层互通,优化二层网络质量,防止单中心故障域扩散到多中心。
双中心之间的光纤链路保持,可以提高二层互联的传输保障。
3.两个数据中心部署LTM,可以实现四台LTM跨中心部署可集群,可以保证虚拟机迁移过程中业务的不中断。
数据中心之间通过EVI隧道建立二层LAN扩展网络,LTM经过二层LAN扩展网络做HACluster,每个数据中心使用LTM构建服务器的负载均衡集群。
两个数据中心提供相同业务,数据中心A中的集群的业务IP使用ExternalVIP-A,两个数据中心的LTM共享该地址,其中数据中心A的LTM为缺省设备,将发布VIP_A的主机路由,当该LTM故障后,数据中心B的LTM上配置的ExternalVIP-A立即生效,将发布VIP_A的主机路由,同时数据中心A的LTM撤销VIP_A的主机路由,以实现业务在数据中心之间的切换。
每个数据中心的L