双活数据中心方案Word下载.docx

上传人:b****1 文档编号:13435576 上传时间:2022-10-10 格式:DOCX 页数:9 大小:20.56KB
下载 相关 举报
双活数据中心方案Word下载.docx_第1页
第1页 / 共9页
双活数据中心方案Word下载.docx_第2页
第2页 / 共9页
双活数据中心方案Word下载.docx_第3页
第3页 / 共9页
双活数据中心方案Word下载.docx_第4页
第4页 / 共9页
双活数据中心方案Word下载.docx_第5页
第5页 / 共9页
点击查看更多>>
下载资源
资源描述

双活数据中心方案Word下载.docx

《双活数据中心方案Word下载.docx》由会员分享,可在线阅读,更多相关《双活数据中心方案Word下载.docx(9页珍藏版)》请在冰豆网上搜索。

双活数据中心方案Word下载.docx

发生灾难

时,灾备数据中心可以短时间内恢复业务并投入运行,减轻灾难带来的损失。

种模式只能解决业务连续性的需求,但用户无法就近快速接入。

灾备中心建设的

投资巨大且运维成本高昂,正常情况下灾备中心不对外服务,资源利用率偏低,

造成了巨大的浪费。

2.构建业务连续性:

两个数据中心(同城/异地)的应用都处于活动状态,都有业务对外提供服

务且互为备份。

但出于技术成熟度、成本等因素考虑,数据库采用主备方式部署,

数据库读写操作都在主中心进行,灾备中心进行数据同步。

发生灾难时,数据中

心间的数据库可以快速切换,避免业务中断。

双活数据中心可充分盘活企业闲置

资源,保证业务的连续性,帮助用户接入最优节点,提高用户访问体验。

3.提升业务服务能力:

多个数据中心同时对外提供服务且互为备份,各中心的数据库可同时处理应

用的读写请求,网络、存储、应用和数据库全部实现多活。

各数据中心独立运营,

用户流量可被智能调度,形成灵活、弹性和可扩展的面向服务的业务架构。

三、业务目标:

用户建设多数据中心的思路和建设模型略有不同,但大多数用户的主要建设目标

可以归纳为以下几点:

◆ 

流量分发

用户访问流量可灵活、弹性的调度到多个数据中心,使各数据中心压力相对

均衡,保证用户接入最近最快速的数据中心节点,提高用户访问体验。

故障切换

当出口链路或内部服务器出现异常时,运维人员可第一时间获悉故障情况,

业务可根据需要自动或手动平滑切换至正常节点,保证用户访问的连续性。

业务安全

数据中心所处位置基础设施完善,水电通信供应稳定,数据中心内部有相应

技术手段保证整个数据中心抵抗 

DDos 

攻击,各业务系统不被黑客非法入

侵。

环境一致性

多个数据中心对用户来说理应是透明的,其对外服务时提供统一接口,各数

据中心内部数据和服务能力需要完全一致,且随时处于可切换状态。

四、实现逻辑

我们把整个数据中心在逻辑上分为接入层和服务层,其处理逻辑的示意图如下:

接入层(智能 

DNS)

接入层(RHI 

路由注入)

服务层

五、总体设计

总行数据中心整体上分为主中心和灾备中心,二者的网络架构、业务系统和

服务能力都基本相同,同时对外提供服务,形成双活数据中心。

数据中心内部划

分为互联网业务区(提供外网服务,如手机银行、网上银行等)、核心生产业务

区(传统生产业务,如ATM、柜面等)、数据库区(生产/查询)和业务测试区,

出于成本考虑,灾备数据中心不设业务测试区。

主备数据中心和各一级分行之间

通过专线互联,利用动态路由协议组建企业内部专网。

数据中心的对外业务集中在互联网业务区,通常使用域名方式对外发布,客

户端访问业务系统时,需要先由 

DNS 

将域名解析为 

IP 

地址,然后再访问该目标

IP。

对外业务的全局负载通常利用 

解析实现,其可根据用户地理位置、用

户所属运营商和网络质量、数据中心服务能力等因素作为判断依据,为不同用户

返回不同的 

地址,实现流量的合理分配。

对于数据中心的内网业务,一部分

与外网业务相同,通过域名发布。

另一部分与一级分行业务类似,直接通过 

IP

地址访问。

对于通过 

地址访问的业务,内网全局负载采用 

IP-Anycast(RHI

路由注入)技术实现,其原理是在各数据中心以相同 

发布业务,由动态路由

协议根据 

COST 

值等参数用户判断访问的最佳路径。

六、互联网业务全局负载(以网银为例)

1.设计模型

我们把网银业务从逻辑上分为接入侧和服务侧,接入侧包括出口链路、全局

负载设备;

服务侧包括 

WEB 

服务单元、APP 

服务单元和 

DB 

服务单元。

WEB

服务单元包含 

SSL 

卸载设备、WAF 

防火墙、负载均衡和服务器;

APP 

服务单元

包含防火墙、负载均衡和服务器;

服务单元包含防火墙、负载均衡、数据库

审计和数据库。

服务单元在 

个数据中心同时提供服务,

实现应用双活。

考虑到数据强一致性、技术成熟度和成本等因素,双数据中心间

的 

服务单元建议主备部署,数据中心内部的数据库集群可结合本地负载均衡

实现多活。

为达到最佳负载效果,需要各服务单元的负载设备可以访问其他数据

中心对应服务单元的服务器,但优先调度本地服务器。

2.实现方式

(1)流量调度

数据中心层面:

我们推荐使用两层逻辑算法的智能 

调度策略,首先,

全局负载设备会判断用户的地理位置,将用户调度到就近的数据中心,解决南北

互访的问题;

其次,根据用户所属运营商选择对应链路供用户接入,解决跨运营

商访问慢的问题。

此外,全局负载还可对客户端 

LDNS 

发起反向探测,判断用

户网络质量,为用户选择最佳接入路径。

服务单元层面:

WEB、APP 

和 

服务单元都配备了本地负载均衡器,用户

访问流量到达数据中心内部后,由服务单元的负载设备根据预设策略分发给各服

务器,可根据用户需求灵活选择轮询、优先级、最小连接等算法。

(2)业务连续性

通过 

DC 

Cookie 

保证用户接入同一数据中心。

用户首次访

问时,本地 

负载设备在响应数据包中插入 

Cookie,当客户端网络发生

变化时,第二次访问就可能被调度到其他数据中心,这时其他数据中心的 

负载设备会识别该 

Cookie,将用户请求转发至第一次处理该用户访问的 

负载设备,再由该负载设备进行调度。

服务单元的负载建议通过 

cookie 

会话保持(插入、改

写和被动)保证业务连续性;

服务单元的负载可通过 

或源 

会话

保持保证业务连续性(是否需要会话保持,选择何种会话保持方式需要结合应用

具体情况);

服务单元一般不需要会话保持。

(3)健康状态检查

通过内置的应用级健康监视器对服务器进行主动探测,提供

HTTP、HTTPS、RADIUS、FTP 

等常用模板。

对于其他应用,提供接口供用户

自定义检测内容和响应内容。

此外,还提供极具特色的被动健康检查功能,通过

对 

TCP 

HTTP 

协议的数据交互做采样分析,判断服务器的健康状态。

全局负载与服务侧的各区域负载均衡联动,实时共享信息,

判断服务侧整体服务能力;

同时全局负载设备会探测出口各链路健康状态,结合

服务侧整体服务能力和设备自身负荷情况,综合判断该数据中心的健康状态(正

常、繁忙、故障)。

(4)故障切换

服务单元内部某服务器繁忙或故障时,将用户请求调度到其

他正常服务器。

a.某数据中心的 

或 

服务器全部繁忙或全部故障时,用户接入链路

不切换,通过专线将数据转发至正常数据中心对应服务单元。

b.主数据中心的数据库服务器全部故障时,用户接入链路不切换,通过专线

将直接激活备数据中心的数据库,实现数据库一键切换。

数据库切换前需要验证

数据库的正确性,用户需要完成数据验证并保证数据库按顺序切换。

c.数据中心的所有链路同时故障时,全局负载设备将用户流量平滑牵引至正

常数据中心。

单链路故障时,可根据用户需求切换至本中心其他链路或其他中心

同 

ISP 

链路。

此外,当某数据中心出现服务能力不足时(链路繁忙、服务单元繁

忙等),全局负载设备还可以基于数据中心的整体健康得分情况将用户分流至其

他数据中心,保障用户正常访问。

(5)安全保障

a.网络出口处部署 

防护设备并在运营商处购买流量清洗服务,保证数

据中心整体安全。

b.网络出口处部署 

FW 

IPS 

设备,从网络层和应用层保证数据中心不被恶

意入侵。

c.全局负载设备提供 

防火墙功能,充分保证 

安全。

各服务单元部署防火墙,保证区域安全。

服务单元直接

面向互联网用户,需要部署 

卸载设备实现 

加解密,提高业务访问安全。

同时,通过部署 

WAF 

保障 

服务器的安全。

(6)业务优化加速

a.跨数据中心的数据库同步需占用大量带宽资源,且数据量非常大,部署

WOC 

设备可大幅压缩传输数据,削减流量。

服务单元跨数据中心

通信时,通过 

设备的协议优化和流缓存等技术实现加速。

当二者同时需要

大量带宽资源时,优先保证数据库同步。

b.互联网区的 

服务单元直接面向公网,受公网网络质量影响较大,负

载均衡可通过协议优化、数据压缩和智能加速等技术减少网络环境影响,提高用

户访问体验。

此外,外网用户会有大量重复请求,通过负载设备的高速缓存技术,

对静态和内容进行缓存,减少服务器数据交互,降低服务器性能压力,提高访问

速度。

(7)其他

a.负载设备在服务单元内部通过旁路部署,为保证来回数据一致需要开启

SNAT 

功能,一般情况下,WEB 

服务器都需要统计用户访问源 

IP,可通过负载

设备在 

头部插入 

X-Forwarded-for 

字段来透传用户真实源 

b.数据中心网络出口对各类设备性能要求较高,针对某些传统防火墙性能不

足的情况,可以在防火墙前后各部署负载均衡设备,实现防火墙的负载。

c.考虑到极端情况,单数据中心需要能承载所有业务压力,建议选择2 

倍于

实际性能需求的负载均衡设备。

负载均衡设备自身拥有过载保护机制,当CPU、

内存等指标达到阀值时,向用户发出告警信息,并重定向或丢弃后续新建连接。

七、内网业务全局负载(以一级分行为例)

各分行数据中心与总行数据中心通过动态路由协议互联,形成大的企业内网

环境。

其大多数业务(ATM、POS、签章、柜面等)通过 

地址直接访问,利

用 

RHI 

路由注入的方式对外发布。

负载设备以 

M+N 

集群的方式分别部署在两

个数据中心,不同的业务系统由不同的负载设备承载,解决了应用集中的风险问

题,同时提供灵活的应用部署和无缝业务切换。

(1)流量调

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 解决方案 > 学习计划

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1