数据中心理念和指标创新的分析.docx

上传人:b****1 文档编号:1837371 上传时间:2022-10-24 格式:DOCX 页数:9 大小:46.10KB
下载 相关 举报
数据中心理念和指标创新的分析.docx_第1页
第1页 / 共9页
数据中心理念和指标创新的分析.docx_第2页
第2页 / 共9页
数据中心理念和指标创新的分析.docx_第3页
第3页 / 共9页
数据中心理念和指标创新的分析.docx_第4页
第4页 / 共9页
数据中心理念和指标创新的分析.docx_第5页
第5页 / 共9页
点击查看更多>>
下载资源
资源描述

数据中心理念和指标创新的分析.docx

《数据中心理念和指标创新的分析.docx》由会员分享,可在线阅读,更多相关《数据中心理念和指标创新的分析.docx(9页珍藏版)》请在冰豆网上搜索。

数据中心理念和指标创新的分析.docx

数据中心理念和指标创新的分析

数据中心评估理念和评估指标创新的分析

唐怀坤

[内容提要]:

数据中心PUE值一直是业界比较关注的指标,本文分析了PUE的悖论,分析总结了近期数据中心能耗评估指标的国内外一些前沿理论成果,提出了基于数据中心全生命周期理念、投资经济性理念、黑箱理论为基础的CPT、EPT指标计算及测试方法,这些指标方法也符合未来数据中心逐步过渡到“云计算”的指标评估趋势。

[关键词]:

IDC数据中心PUE节能减排

1、导言:

工信部在2012年5月4日公布了《通信业十二五发展规划》、《互联网行业十二五规划》,规划文件明确要求“IDC空间布局进一步优化,实现技术升级,改造后IDC的PUE值力争达到2.0以下;新建大型云计算数据中心的PUE值达到1.5以下”;2012年2月27日《工业节能十二五规划》提出到2015年明确要求数据中心PUE值下降8%;国家发改委等组织的“云计算示范工程”也要求示范工程建设的数据中心PUE要达到1.5以下。

但是目前为止并还没有科学的评价机制和测量标准;对于数据中心机房是否仅仅节约运行成本就可以了?

什么样的数据中心投资最经济?

节能环保水平评价如何落实并通过科学的模型或方法加以标准化?

对这些方向的综合考虑是摆在通信电源界的研究课题之一。

1关于PUE值

1.1PUE的由来

PowerUsageEffectiveness,由GreenGrid的ChristianBelady在2006年提出(目前就职于Microsoft)PUE实际是提出的一个衡量能源使用效率的方法,GreenGrid中文翻译为“绿色网格组织”,是一个非盈利性IT组织,它推出了两个知名的衡量能效的标准,分别是PUE和DCiE(datacenterinfrastructureefficiency,PUE的倒数)。

目前国内较多采用PUE计算公式为:

PUE=数据中心总耗电/IT设备耗电;数据中心的总耗电是维持数据中心正常运行的所有耗电,包括IT设备、制冷设备、供配电系统和其它设施的耗电的总和。

如果数据中心所在建筑同时用于办公等其它用途,则办公等所消耗的电能不包括在数据中心总耗电中。

在数据中心中,只有IT设备的耗电被认为是“有意义”的电能。

1.2数据中心的规模和评价现状

据Gartner统计,我国现有各类数据中心40多万个,数量约占全球13%,2011年,我国数据中心总耗电量达700亿千瓦时,已经占到全社会用电量的1.5%,相当于2011年天津市全年的总用电量(引自:

《数据中心能效测评指南》)。

根据《中国电信节能技术与应用蓝皮书》所载,一般机房内芯片级主设备1W的功耗会导致总体耗电量达到2.68-2.84W,而其中机房空调冷却系统的耗电量约占机房总能耗的40%。

美国电力转换公司APC最近的统计数据显示,数据中心的冷却成本大约占总能源账单的50%。

而国际组织UptimeInstitute指出,由于数据中心机房内气流不适当,用于冷却的冷空气有60%都浪费了;数据中心的过度冷却(overcooling)差不多达到实际需求的2倍,

美国一项统计数据称,数据中心的能耗已经占据美国全国能耗的8%。

而我国IT业(含IDC机房1.5%)消耗的能源大约占整个能源消耗量的3%,数据中心成本支出最大的是能源消耗,占到总体成本的45%~60%,因此出现了像雅虎、惠普、梅林、谷歌等一些国际网络公司这些公司以疏散的服务器间距、不采用空调牺牲空气灰尘和湿度指标而单纯追求达到制冷要求,使其新建的一些节能型、一次性投资型数据中心的PUE值达到1.07-1.2以内,原因是经过测算,IT设备全生命周期内投入空调的运营成本已经接近设备投资成本;而我们国家的大型数据中心机房理念、规范标准、建设模式、电源保障模式相对来说仍然是相对保守的,步伐迈的不够大。

序号

机构与数据中心名称

PUE

正式发布/或报道时间

1

FacebookPrineville数据中心

1.073

2011年3月

2

雅虎纽约洛克数据中心

1.08

2010年9月25日

3

google的比利时GOOG数据中心

1.16

2010年10月15日

4

惠普英国温耶德数据中心

1.16

2011年2月12日

5

微软都柏林数据中心

1.25

2010年7月1日

6

google的云计算数据中心

1.28

2010年

7

世纪互联云计算中心

1.3

2010年10月28日

8

IBM中国创新中心

1.36

2010年

9

eBay盐湖郊区数据中心

1.4

2010年5月

10

腾讯的天津数据中心

1.5

2010年

11

苏州国科综合数据中心

1.6

2010年12月4日

12

微软北京总部的数据中心

1.61

2010年

13

中科院超级计算中心

1.63

2010年3月

14

西门子北京数据中心

1.7

2010年11月

15

万国数据昆山数据中心

1.8

2010年10月30日

(引自:

2011年《科研信息化技术与应用》金雅芬中国科学院数学与系统科学研究院统计数据)。

2PUE悖论

虽然PUE目的是引导节能减排,建设环保型绿色数据中心,但是实际情况是已经陷入了逻辑悖论,是一个不严谨的理论,以下从8个方面分析了业界使用PUE这个标准时遇到的问题:

(1)虚拟化技术与PUE值

虚拟化技术是指通过资源池化的方法,将一个物理机划分为多个虚拟机,借此实现对于服务器系统的整合,达到减少企业购买服务器的数量的目的,充分利用服务的CPU资源。

能够同等服务能力的条件下降低IT设备电力消耗大约20%,同等服务能力的条件下页缩小了20%的机房空间,同时也增加了单机架平均20%的功耗。

此时测定服务器的利用效率反而是科学的。

也有采用SPEC芯片利用效率测试工具类型的软件来监测IT设备的数据处理流量/秒(或数据吞吐量/秒)与IT设备的功耗之比的技术。

虚拟化减少了设备数量,进而减少了机房空间,加大了设备的功率密度,进而实际增加了PUE值。

(2)机架疏密度与PUE值

机架的列间距、机柜的尺寸都直接影响机架的舒密程度。

由于数据机房的分区域建设、服务器的分步投资,必然导致基础架构和使用面积的不均衡,机房存在热岛效应的前提下,势必降低出风口温度、提高风速、提高风冷比来达到降温目的,势必带来过度冷却,机房通风地板送风风速按照国家标准要求取值3m/s,而现实运行中的机房通风地板最好的送风风速也就是1.5m/s;据Uptime学会统计目前全球85%以上数据中心机房存在过度制冷的问题。

(3)设备功率密度与PUE值

服务器按照安装类型分为机柜式、机架式和刀片式。

现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上,而原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡;照整体区域平均冷却模式设计的机房空调环境如应用于高热密度或高散热量的负荷就无法避免地采用了过度冷却方式,导致机房能耗超高;

举个例子:

某数据机房,常规热密度机房总热负荷367kW;采用常规机柜3kW/单机柜,机柜数量123个,机房面积500m2;采用高功率密度设备,3.2KW*40个、12KW*20个后,机房面积从500m2减小到176.8m2,节省近65%机房面积。

同样的设备热负荷,但是实际情况是PUE值却增加了15%。

(4)主机业务量处理能力与PUE值

主机服务器机型ARM和X86单位功耗的由于后端子模块的门控时钟和电源开关、前端乱序执行能力;软件和制造工艺差别很大,但处理能力较相近,也就是说数据设备的相对功耗下降,机房面积和制冷空间不变的情况下有可能PUE值提高了。

(5)不同建设模式、机房发展速度与PUE值

仓储集装箱式、微模块式和钢混框架结构的IDC机房建设模式显然也有差异,通常前者PUE值低,见效快、投资分布实施比较合理而后者往往在制冷上要考虑较多围护结构的因素和对空气冷却的因素,因此PUE相差很大,但很难说后者的数据机房是低效不环保;在机房发展速度上,同样建设模式和实用面积,发展速度不同但基础配套比如空调冷水机组仍然是在使用的,并不是成线性变化。

(6)动态和静态PUE值

纬度23度26分以外的冬季的IDC机房可以利用自然风冷技术使PUE值接近1.2,而夏季天气炎热时IDC机房PUE值有可能依然为1.5以上。

最高PUE值、平均PUE值和最低PUE值之间是动态变化的。

而市场上往往没有统一标准是年度平均静态PUE指标还是某一动态时间点的静态PUE值。

(7)辅助设施与PUE值

现代新建数据中心大多数采用能效比较高的水冷型空调机组,相比较传统单体式风冷空调系统,其主机容量较大,而数据中心机房的启用通常是分期、分楼层开展,尤其是北方还有水管防冻设备的能耗;另外,变压器损耗、线损、公共照明、水泵等设备都是保障数据中心正常运行必不可少的组成部分。

(8)测量基准点

IT设备自身也有AC/DC/DC三级转换模块,其自身在电压转换的过程中也有能量损耗;甚至有的设备直接采用机架式EPS电源,输入IT设备的能耗测量点更不好取舍。

因此测量基准点的不确定也使PUE是一个不严谨的指标。

总之,数据中心节能途径:

通过选址自然冷源节能、基础配套设施节能、通过IT主设备新技术新工艺节能、云计算虚拟化技术节能等多个方面组合节能技术,而PUE没有充分考虑后两者的节能途径。

就使不同数据中心可比性下降,但是现在招投标、施工验收、数据机房评等级等都拿PUE来设置门槛其实是不合理的。

经过总结发现:

PUE值1.5以下的数据中心特点之一:

(1)不用空调;完全采用自然了冷却;采用雾化水:

(2)风冷+水冷型冷水机组:

(3)仓储式数据中心:

PUE最终落实到空调的能效比和机房气流组织设计仿真和应用,也就是CFD

(ComputationalFluidDynamics,计算流体动力学)仿真,最后PUE=CFD。

因此,PUE比较适合对机房所有设备机架装机容量满载情况下的模糊“动态测评”,因为即使是现有数据中心也有可能出现新旧服务器的替换、机房的改造。

但相对来说这种数据机房使用比较稳定;另一种适用场景是新建机房业务需求已明确,设备已一次性安装完毕、机架装机率接近100%,极少存在扩容和替换,此时比较适用。

但是基本上这是不可能的。

  悖论有三种主要形式。

  

(1)一种论断看起来好像肯定错了,但实际上却是对的(佯谬)。

  

(2)一种论断看起来好像肯定是对的,但实际上却错了(似是而非的理论)。

(3)一系列推理看起来好像无法打破,可是却导致逻辑上自相矛盾。

持PUE适用于所有数据中心场景的观点就属于第

(2)种悖论形式。

3、PUE值的发展和努力

3.1行业人士观点:

1)KPMG公司气候变化与持续服务实践负责人JohnHickox指出,虽然其能够帮助你将自己的PUE值与行业平均值进行对比,但是许多公司错误的将它们理解为比较基准,因为没有两个数据中心是一样的;

2)市场研究公司Gartner的分析师SimonMingay称“PUE还无法帮助监测所供应的电力的有效使用情况。

例如,如果数据中心经理开始使用虚拟化来提高平均服务器利用率,那么相应的效率提升并不能反映在PUE上”。

3)绿色网格组织董事会成员兼秘书长KatherineWinkler认为“PUE并不是一个通用指标,目前仍在改进中”。

4)PUE之父ChristianBelady说:

“我并不在意你的PUE是1.25还是1.5。

只要你在关注这个问题,同时又在不断取得进步就足够了。

”实际上他本人也认为这个指标不应该被滥用。

3.2CADE指标

CADE(Enterpriseaveragedatacenterefficiency),“企业平均数据中心效率

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 自然科学 > 天文地理

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1