谈现代计算机机房供电概念.docx

上传人:b****5 文档编号:6200187 上传时间:2023-01-04 格式:DOCX 页数:11 大小:2.08MB
下载 相关 举报
谈现代计算机机房供电概念.docx_第1页
第1页 / 共11页
谈现代计算机机房供电概念.docx_第2页
第2页 / 共11页
谈现代计算机机房供电概念.docx_第3页
第3页 / 共11页
谈现代计算机机房供电概念.docx_第4页
第4页 / 共11页
谈现代计算机机房供电概念.docx_第5页
第5页 / 共11页
点击查看更多>>
下载资源
资源描述

谈现代计算机机房供电概念.docx

《谈现代计算机机房供电概念.docx》由会员分享,可在线阅读,更多相关《谈现代计算机机房供电概念.docx(11页珍藏版)》请在冰豆网上搜索。

谈现代计算机机房供电概念.docx

谈现代计算机机房供电概念

谈现代计算机机房供电概念王其英

1目前数据中心存在的问题

1.1IT设备集中化

管理集中化是目前中大型数据中心发展趋势之一,比如我国各大区金融结算中心的用电容量都在1500kW以上,为了工作的可靠性和连续性,都需要建立同容量的备份中心,而且还不止一个;通信枢纽数据中心的用电容量在1500kW以上者也为数不少;数字图书馆数据中心、校校通数据中心也都具有相当的规模,等等。

集中管理不但效率高、容易控的更新制,而且也对设备的优化、节约资金的投入和提高可用性都提供了可靠的保障。

当然所谓集中管理是指相对而言,是相对意义上的集中。

也就是说有多个节点,大节点集中中节点的信息,中节点集中小节点的信息,小节点还有工作站和终端之分等等。

IT设备集中化管理示意图见图1。

即使是一个小的节点,由于处理的信息量很大,也需要集中相当容量的IT设备。

 

1.2IT设备机架化

IT设备机架化是一种集中化管理的结构方式。

原来的服务器大都分散放置在一个平面上,为了集中,就开始将分散的IT设备(如服务器等)向一个中心集中。

为了节省占地面积和便于管理,必须将原来平铺放置在地面上的IT设备改为立体放置,即放入机架(柜)内。

一般的做法是做成19英寸的标准机架或机柜,如图2(a)所示。

这种19英寸的标准机架与以往不同,它必须符合下面的几个要求。

(1)兼容性好

由于IT产品的制造商不止一个,产品的结构形式也不尽相同。

又图3的杂乱布线堵塞了风道。

这就向由于在性能上各有千秋,所以在一个IT设备提出了改善制冷效果的要求。

数据中心有多家的产品已司空见惯。

这就要求此类标准机柜具有良好的兼容性,即可将不同厂家的产品都能够放置在这种机柜内。

(2)通风良好

以往的机柜结构大都为前面是玻璃门,冷却方式是气流自下向上吹。

由于制冷系统的风压很低(多为25Pa),所以气流只能到达机柜中部,致使上部形成热区而导致故障。

为了减小风路的长度,将机柜内的冷却气流改为前后方向,这就将原来的玻璃前门和后门改为多孔状,如图3杂乱布线堵塞了风道。

这就向IT设备提出了改善制冷效果的要求。

(3)线缆易于管理

由于多个IT设备的集中放置使得线缆增加很多。

这种布线方式不但堵塞了风道,而且这种连电源线和数据线都无法分清的杂乱局面使线缆难于管理,这就要求有一个易于管理的结构。

为了提高可靠性和可用性,很多设备采用了双电源供电。

就要求机柜的底部和顶部都要设置适当的电缆进出口。

如图2(b)、(c)所示。

1.3功率密度越来越高,配电问题和线缆管理问题变得复杂

由上所述,将多台诸如服务器之类的IT设备集中于一个机架内,势必增大了功密度和配电路数,使线缆大量增多,使管理变得非常困难,如图3所示。

 

1.4热负荷密度越来越高,IT设备微环境的冷却问题必须解决

以往数据中心的机房冷却有一个认识上的误区,即认为只要将机房的温度降下来,IT设备当然也就得到了冷却。

实际上机房大环境的冷却效果并不能代表机柜内微环境的制冷功

率效果。

某机房的冷却情况如图4所示。

从图中可以看出,尽管空调机就在旁边,由于仍无法解决IT设备内部的散热问题,不得不在外部另加风扇帮助。

另外,在有高架地板的机房内,由于线缆的大量增多而堵塞风道的情况频频发生,使散热也变得非常困难,这也是导致故障的因素。

 

1.5要求IT设备更新和扩容迅速,供电的UPS及其相关设备也应能随之变化

由上述的几点可以看出一个问题,即现代的数据中心配置越来越复杂,带给用户的困难也越来越多。

数据中心IT设备的迅速扩容不但要求UPS也要做相应的变化,而且其他相关条件和环境也要随之改善。

比如空调机、发电机、机房面积、消防系统、安保系统、新风系统等等。

用户不但面对来自四面八方参差不齐的供应商产品,而且还应当具备各方面的知识。

换言之,他们必须有一个由各方面“专家”组成的机构来应付这种局面。

另一方面,数据中心的这些设备也来自各个厂商,即使是同样的设备也性能各异。

单个设备的可靠性和相互之间连结的可靠性都没有保障,这样由各独立单元构成系统的可靠性到底有多高?

只能单凭各供应商提供的数据进行综合,可是供应商提供的数据可信度究竟有多大?

用这些数据计算出的可靠性又有多高?

有多大的参考价值一旦系统故障又去找哪一个供货商理论等等。

这都是一些不确定因素。

2数据中心功能范围的划分

2.1概述

(1)构成数据中心的第一环境部分

一个比较完备的数据中心不仅仅是IT设备和供电系统,其环境因素是不可忽略的。

第一环境部分的功能是创造机房电子设备能够安全运行的条件。

为了设备运行可靠,通风散热是必要的,一般说在25℃以上的一定范围内每升高10℃,设备(包括各类电池)的寿命就会降低一半,可见高温是设备寿命的天敌。

一般空调机在降温的同时也在除湿,但机房相对湿度低到一定值时就容易产生静电,静电又是MOS器件的杀手。

比如一个一般的塑料袋摩擦一下就可产生3000V以上的静电电压,可一举击穿MOS器件,为此就需要配备加湿系统。

灰尘中含有可导电的带电离子,也是导致机器故障的不利因素。

为了保持机房内机器的清洁度,就要求机房的气压相对于室外为正压,这样就可以保证室外的空气不能流入机房内,从而隔断了室外灰尘的侵入。

然而由于机房并不是密封的,室内空气的外泄势必会造成气压下降,为室外空气的流入创造了流动条件。

为了防止这种现象的发生,就需要不断地向室内补充新风。

这种新风是经过几次过滤的室外空气,尘埃颗粒小于一定尺寸,尘埃含量小于一定数值,新风需要具有一定温度和湿度。

防雷(浪涌)系统是必不可少的,年遭雷击的电子设备是有发生,遭雷击的机房系统也有实例。

保证防雷系统有效工作的关键是接地,而接地是一个工程也是一个系统。

接地系统除具有防雷的保护作用,还是IT设备对数据正确运算和传输的保障,所以它也是构成数据中心的主要部分,如图5所示。

从图中还可以看出,消防系统也被引入机房。

数据中心失火事件时有发生,起火原因多来自供配电系统故障和人为所致。

高架地板在许多数据中心得到了普遍的采用。

它不但为IT设备的冷却提供了方便,也为电缆的铺设提供了路径。

另外还对噪声大的设备采取屏蔽措施创造了有利条件。

(2)构成数据中心的第二环境部分

这部分的功能是在第一环境下直接保证IT设备正确运行。

这部分主要由一些职能环节构成。

比如供电系统、配电系统、布线系统、通风散热系统、智能监控系统等。

(3)构成数据中心的安保部分

这部分属于“软件”。

这部分属于规章制度、技术培训、维护修理和参观交流等。

(4)构成数据中心的主体部分这就是IT设备,是数据中心的大脑。

这部分执行着对数据的产生、加工和传输的任务。

以上任何一个环节出问题都有可能导致这一部分的故障。

(5)影响系统可靠性的因素

数据中心由上述诸多独立因素构成。

所谓独立是指在以往的建设中几乎是每一个分系统就对应一个供货商,即使是有工程承包商,也只是将多家别人的产品在机房中做一些拼凑工作,从表面看起来是一个整体,实际上一般数据中心机房的设备由于是来自不同地域和不同厂家,它们在性能上的一致性和连接紧密性都会存在着一定的“缝隙”。

整个系统的可靠性又取决于系统中最薄弱的环节,而且各环节都有可能成为最薄弱的那一个。

环节越多这种可能性就越大,换言之,可靠性也就越低。

再加之各系统的质量问题,尽管从主观上或设计意图上想把可靠性做高,但由于种种的客观原因,也难做到十全十美。

为了有一个定性的概念,用下面的简单例子进行说明。

例如图6中的12个分系统的可靠性值r1都可做到0.9999999,12个分系统的11个界面(缝隙)可靠性值r2也是0.9999999。

那么构成整个系统后的总可靠性值R就变为:

R=r²12r211=0.9999923=0.99977

(1)

系统硬件的可靠性由单个系统的5个“9”变成组成整个系统后的3个“9”。

即数据机房系统的硬件可靠性比分系统时降低了两个数量级。

2.2数据中心功能范围的第一次划分——整体机房概念

从以上的分析可以看出,影响可靠性的主要因素就在于分散而独立的分系统质量和它们之间的界面结合质量。

如果能够解决这两方面的问题,就可使数据中心的系统可靠性提高一大步。

在这种观念的驱使下,在2000年就有人提出了整体机房概念。

这个概念的主要内容是把除IT设备以外的所有项目由一家统一管理,数据中心除IT以外的配套设备和接口机制都由一家负责统一采购,在外购材料的质量上有所保证。

其划分情况如图6所示。

这样做的好处是明显减轻了用户的负担,使用户再不需要去面对众多的供应商和基建部门。

以后的服务也不需要分别签约。

即只面对一个整体机房承包商即可,最多就是在和一个IT供应商打交道。

这在一定意义上起了积极的作用。

                             图6 数据中心的主要部分构成系统示意图             

但是整体机房的概念仍未脱出分别采购的束缚。

以往的整体机房承包者的主要工作是基建、装修和相关设备采购和安装。

由于一般的整体机房承包者既不做空调机又不做UPS,相关设备也需外购,即使是生产空调机和UPS的厂家来做整体机房,除了配电和连接设备等部分是“量身定做”以外,其他设备实质上还是外购。

其主要原因还是各设备仍然为分散独立的个体,再加之有些整体机房承包商的二次外包,在质量上也打了折扣。

所以设备的质量和接口的质量并没有质的变化,整个数据中心系统的可靠性也仍然没有实质性的改观。

因此图6和图7只是大同小异。

当然对于那些既做空调机又做UPS的承包商来说仍然起到了“捆绑销售”的积极作用。

2.3数据中心功能范围的第二次划分—NCPI概念

为了提高数据中心的系统可靠性,2002年美国可用性某研究中心提出了NCPI的概念,对数据中心的功能范围进行了第二次划分。

此次划分和以往有了本质的区别。

它将构成数据中心的第二环境部分纳入NCPI范畴,并以InfrastruXure(英飞)的结构形式将这些分系统有机地结合起来,成为一个整体,如图8中属于NCPI的6部分。

从图中可以看出,由于这几部分真正做到了一体化结构,相互之间的结合部位没有了“缝隙”。

在英飞结构中还专门预留了插入IT设备的基座,使IT设备就位后和英飞融为一体。

由于构成数据中心的第一环境部分专业性、工程性和独立性太强,不能与英飞结合为一体,仍另外划出。

比如接地系统、新风系统、空调机和防浪涌系统等等。

NCPI概念和英飞结构系统的引入,使数据中心的系统可靠性有了明显改善。

如果仍以上面的假设为例,即所有IT设备和构成数据中心第一环境部分的系统可靠性值不变,英飞结构系统的可靠性值为0.99999(这个值是英飞系统容易实现的)。

由于此时的分析单元由12个减少到7个,界面也由原来的11个减少到6个,这使得整个系统可靠性就变为:

R=rr26=0.9999913=0.99995

(2)

这个值与式

(1)的结果(0.99977)相比较,就可以看出可靠性提高了一个数量级。

实际上,“英飞”集成的部分远不止这些。

比如单单配电部分就不止一级,有的达10级以上。

有10级就有9个结合部,共19个涉及可靠性的环节,所以“英飞”结构可靠性的提高不止一个数量级。

2.4NCPI与整体机房的关系

(1)NCPI的含义NCPI(NetworkCriticalPhysicalInfrastructure)的含义是网络关键物理基础设施。

“网络”是指网络设施和IT系统等。

如服务器、路由器和计算机之类的设备等。

“关键”是指对网络运行的可用性影响最为严重的那些因素。

比如供电、配电、高温、浪涌和噪声等。

“物理基础设施”是指支撑IT运行的物理环境。

比如机柜、监控、温度、湿度、通风散热和服务等。

也有的把NCPI比作是一个互相关联的四面体,如图9所示。

在系统上相互支撑,缺一不可。

IT微环境处于这个四面体的中心,任何一个环节失去作用或作用不力,都会使微环境失去平衡而导致IT设备故障。

(2)NCPI与整体机房的关系

尽管NCPI的提出和实施解决了整体机房无法解决的一些问题,但它仍不能代替整体机房。

整体机房又可称为第一环境,首先它要有一个建筑物式的遮蔽空间,这个空间要创造的物理环境是适宜的空间、适宜的温度、适宜的湿度、适宜的承重量地板、适宜的送风和回风通道、适宜的新风补充量、适宜的保温墙壁和天花板以及美观的专修等。

NCPI在一般情况下则必须是处于整体机房之内的第二系统,它必须得到整体机房各种外界条件的保护,如图10所示。

从图中可以看出,NCPI是置于整体机房之内的第二环境,IT就是核心。

图11用一个球形分层包裹图形象地说明了它们之间的关系。

由此也可以看出,整体机房和NCPI不是一回事,一来是它们的结构不同,二来是它们的作用也不同。

整体机房是一个营造大环境的机构,而NCPI则是在大环境庇护下的小环境机构,它们是不可分割的依附关系,而且共同服务的最终目标是建立IT微环境。

微环境才是直接保证IT可靠工作的机构。

所谓微环境就是指IT设备内元器件所处的环境,这个环境直接决定它们的可靠性。

可见人们为了实现数据中心的高可靠性和高可用性所付出的工作量和资金耗费是巨大的。

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 考试认证 > IT认证

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1