1、机房耗电量如何计算机房的温度和湿度是多少机房耗电量如何计算?机房的温度和湿度是多少? 目前我国大型数椐信息中心用电量比起先进国家差距比较大。例如我国机房的能效比PUE在2.2以上,而谷歌(Google)数椐中心PUE值是1.2,他的PUE平均值只有1.07。调查国内机房用电分配是:IT占44%,制冷占38%以上(有甚至的高达50%),其余电源、照明占18%左右。可以看出制冷耗电是影响PUE值的关键,空调冷是机房的耗电元凶。1一、 机房关键设备机柜的功率 机柜有服务器(大容量)柜功率为1430kW;标准存储柜有35kW;网络柜11.5kW。它们的组合比例是按规划用途设计的,其中标准存储柜占绝大多
2、数,是决定它们的平均功率的决定因素。例如北京电信通三元大厦互连网数据中心(简称IDC):该数据中心内使用了思科、MGE、等多家国际一流厂商的先进技术和设备,;它外网出口有:电报大楼、中国电信、中国联通、中国铁通、中国网通、灶君庙,其次在外省市也有节点,保证最大端到端延迟时间100ms,网络丢包率1%,每年网络不可用时间50秒,可提供的网络利用率99.99%。该数据中心正在为用户提供全面的高质量服务。 它的机柜配置如下:机柜总数268台,其中大容量服务器柜10台(每台14kW);网路柜9台(每台1.5kW);设备柜和核心(配电)柜8+4=12台(计80kW);其余全为标准存储柜237台(每台3k
3、W)。以上IT总功率944.5kW,因机柜是单向供电,换到三项并考虑功率因数(0.85)应为:944.5/1.732/0.85=641.6kVA; 该系统能效比PUE为16;它的每台平均功率为944.5kW/268=3.6kW. 该系统用电配置了1000kVA变压器一台;还配置了四台200kVA的UPS电源作为停电急用。调研知国内金融行业机房机柜多在35kw之间。 2 二、 我国数椐信息中心机房用电发展趋势本文并不认为机房单台用电功率随发展趋势而增大。原因是:1、大量先进技术的应用使机柜耗电下降。机房中耗电量大的是大容量服务器机柜,只要把用电大户耗电降下就事半功倍。目前推广应用的云计算储存、云
4、计算技术在IT也得到应用,用标准-模块化技术,采用云存储的高性能机制和PB级规模下高密度低功耗的运作模式将有效控制云计算耗电量,可使大容量服务器机柜用电不大于4kW;我们还能透过虚拟化技术,将10部实体服务器整并成一部,即可减少最高8090%的服务器用电量。 在IT技术不断普及的今天,数据中心的作用日益体现出来。如何建设一个绿色节能、稳定可靠、能满足不断变化的IT需求的数据中心,也成为数据中心的管理者和建设者们一个非常关心的问题。而云计算、虚拟化以及大数据在数据中心中的应用,使得未来数据中心充满了活力也充满了变数,但我们可以相信更加节能稳定的数据中心离我们以及不远。大量智能模块的应用;如电压调
5、节模块、自动检测模块、系统自动控制模块可使机房在最节能有效情况下运行。2、国家及企业对绿色环保、节能的重视使机房耗电下降国家有关部门高度重视我国数据机房的能效鼻PUE值在2.2以上,专家也呼吁尽快制定机房建设节能标准。估计新的标准PUE在1.21.6之间;企业也在根据自己的需求建设技术先进、功能使用,经济合理、绿色环保节能的数据中心上下功夫。在节能要求上尽量要求设计部门细致做到最先进的机房布局;采用自然进气,尽量减少制冷设备的使用。还有很多降低电耗的方法,如:降低大容量服务器的用电量,比如我公司服务器并不需要绘图处理器等,因此拿掉不需要的零组件,不但减少电力的浪费,由于零组件数量降低,风扇的使
6、用数目也可减少,提升整体服务器的用电效率;加装气流辅助设备,如果有建置高密度机柜的机房,高密度机柜容易产生热点,可以在机柜后方加装气流辅助设备,这样一来,热空气就不是透过热通道将热带走,而是透过气流辅助设备,将机柜的热量集中直接往天花板排送,加速机柜的的散热速度。平均分配高密度机柜高密度机柜如果摆放的位置过于紧密,容易因为热点,造成机柜冷却效率不彰,此时,如果只是强化冷却效果,不但造成空调的浪费,机柜冷却的效果有限。于是,将高密度机柜平均分配在整个机房环境,比方来说,机房某一个区域,都是摆放负载量不大的机柜,这个时候就可以将部分高密度机柜摆放至该区域,也因此,透过借用未充分使用的冷却效能,不但
7、可以解决高密度机柜所造成热点的问题,透过平均分担,也减轻空调系统的负荷,更重要的是,也减少空调系统电力的支出; 采用无变压的UPS设备随着企业规模的扩增,IT设备的采购量也会跟着递增,设备越多,就需要更多的UPS设备来强化电力系统的稳定性与可靠度。目前有越来越多的厂商推出无变压式的UPS设备,可以让整机效率提升至90,相较于传统的UPS,效率只有75至85,透过无变压器的UPS能更有效率的使用电源,让每一度电都花费在系统运作上,进而降低电力成本;等等。1.机房工作站、存储等占地面积计算机房面积计算公式:A(主机房面积)=F单台占用面积3.55.5m2台(取中间值4.5)*N机柜总台数 主机房面
8、积=4.5(m2台)*30台 =135m22.UPS选型指标1) 机房内设备的用电量机房计划安装30台机柜,每个机柜按照3kw功耗计算,机房内机柜设备的耗电将在3kw*30台=90kw。2) 机房内其它设备(消防、监控、应急照明)监控、应急照明和消防设备耗电大约在8000w左右。不间断电源系统的基本容量可按下式计算:E1.2P式中E不间断电源系统的基本容量(不包含冗余不间断电源设备) P电子信息设备的计算负荷(kWkV.A)。P=1)+2)=90kw+8kw=98KWE1.2PE1.2*98 KWE110.4KVA考虑UPS运行在60%和70%之间是最佳状态,建议在上面的计算结果除以0.7进行
9、再一次放大。110.4KVA/0.6184KVA。根据机型手册选择靠近功率的机型,因此选择200KVA的UPS。为了电源端的安全可靠性,建议采用UPS机器配置1+1冗余方案,因此需要两台200KVA的UPS。所以在选型上:选择两台200KVA UPS做1+1并机。3.空调选型指标经验采用“功率及面积法”计算机房冷负荷。Qt=Q1+Q2 其中,Qt 总制冷量(KW) Q1 室内设备负荷=UPS功耗0.8Q2 环境冷负荷=0.120.18kW/m2 机房面积Q1 室内设备负荷=200KVA*0.8=160KWQ2 环境冷负荷=0.15kW/m2 *251 m2=37.5KWQt=Q1+Q2=160
10、KW+37.5KW=197.5KW所以:机房内所需制冷量197.5KW,建议在制冷量上做40%冗余。采用320kw的制冷空调(制冷功率80KW空调4台) 4.机房总用电量 实际总用电量=UPS用电功率+空调用电功率+照明+其他 UPS设备耗电:200KVA=200kw精密空调耗电:制冷量/2.5=320kw/2.5=128kw 照 明: P(每平米的照明功率)* S(机房面积) 20w*251平米=5kw其他设备:10kw 实际总用电量=(200KW) +(128KW)+5KW+10KW =343KW机房建设时要考虑余量一般为25%,实际配电总功率450KW5.机房整体面积1) 机房工作站、存
11、储等占地面积135.5M22) UPS、配电及电池占地面积UPS系统延时单台30分钟需选用12V-200AH电池32节,两台需要64节。 3以上合计28M2此数据为设备实际占地,无维修空间,维修空间的面积为设备实际占地面积的2-3倍倍。所以UPS、配电及电池占地面积约70M2。3)空调占地面积空调选用4台空调,单台空调占地面积为2.1 M2,空调为全正面维护,实际占地为空调本身的一倍就可以约为4 M2。4台空调共16 M2。4)机房总面积机房工作站、存储等占地面积135M2+ UPS、配电及电池占地面积70M2+空调占地面积16M2=221M2 消防占地面积为机房面积30 M2机房总面积约为:
12、251 M2 各类机房的温湿度标准参考 4各类机房的温湿度监控标准参考A类机房:包括干线传输枢纽和设置长途交换机、省际/省内骨干信令转接点、省际/省内骨干智能网SCP、省际/省内骨干数据网设备的电信机房及其动力机房等。正常温、湿度范围:温度1025,湿度4070%可接受的温、湿度范围:温度1026,湿度4075%B 类机房:包括设置本地网汇接局、关口局、智能网SCP、信令转接点、无线市话核心网设备、传输骨干节点、数据骨干节点(含城域网核心层设备)、IDC、拨号服务器的通信机房及其动力机房,进口程控交换母局和5万门以上的国产程控交换母局机房及其测量室、动力机房,服务重要用户及要害部门的交换、传输
13、、数据设备通信机房,长途干线上下话路站等。 5正常温、湿度范围:温度1028,湿度3070%可接受的温、湿度范围:温度528,湿度3080%C 类机房:包括5万门以下国产程控交换母局、城域网汇聚层数据机房及所属的动力机房,长途传输中继站等。正常温、湿度范围:温度1030,湿度3075%可接受的温、湿度范围:温度530,湿度2080%D 类机房:包括设置固定电话模块局、用户接入网、城域网接入层设备(小区路由器、交换机)、DSLAM设备、线缆进线室机房等。正常温、湿度范围:温度533,湿度20%80%可接受的温、湿度范围:温度035,湿度15%85%注:可接受的温、湿度范围是指在短时间内(连续4小时以内),允许设备在低于、或高于正常温、湿度范围的条件下工作的温、湿度范围。
copyright@ 2008-2022 冰豆网网站版权所有
经营许可证编号:鄂ICP备2022015515号-1