CDC数据中心研究报告文档格式.docx

上传人:b****5 文档编号:17544554 上传时间:2022-12-07 格式:DOCX 页数:22 大小:1.84MB
下载 相关 举报
CDC数据中心研究报告文档格式.docx_第1页
第1页 / 共22页
CDC数据中心研究报告文档格式.docx_第2页
第2页 / 共22页
CDC数据中心研究报告文档格式.docx_第3页
第3页 / 共22页
CDC数据中心研究报告文档格式.docx_第4页
第4页 / 共22页
CDC数据中心研究报告文档格式.docx_第5页
第5页 / 共22页
点击查看更多>>
下载资源
资源描述

CDC数据中心研究报告文档格式.docx

《CDC数据中心研究报告文档格式.docx》由会员分享,可在线阅读,更多相关《CDC数据中心研究报告文档格式.docx(22页珍藏版)》请在冰豆网上搜索。

CDC数据中心研究报告文档格式.docx

2010年,世纪互联集装箱数据中心正式投入商用。

世纪互联集装箱数据中心采用类似航空业的“湿租模式”,提供运维团队的整体外包服务,从而降低了数据中心外包服务的门槛。

得益于集装箱数据中心的便利性,数据中心服务提供商在服务模式上实现了创新。

三、特点及传统IDC对比

1多采用高密度设计,计算容量5倍于同面积传统机房

2快可按需、分步、快速部署,及时应对动态业务需求

3省一是指省能耗,集装箱的PUE值可降至1.5,能耗节约可达30%,二是指省空间,节省75%空间,降低TCO。

三是省精力,集装箱即插即用的功能模块组成,让IDC从工程变为即用产品;

注:

使用集装箱数据中心必须具备以下基础条件:

安装场地,电力供应,空调供水,网络。

 

传统数据中心

集装箱IDC

(以云立方为参照)

对比分析

样本

32个标准机柜,服务器可用机位在300U左右;

配置发电机;

产品型号:

CCDC-100-A;

6个54u机架,服务器可用机位在300U左右;

配置UPS电源及空调系统;

占地面积

占地约300平米的传统数据中心

占地约30平米的云立方集装箱

纯机房面积,不含外市电,油机,及配套的管理用房

建设成本

机房选址:

占地300平米左右

机房设计:

需要考虑基础建设,设计复杂

机房装饰装修系统:

防火、防水、防漏电、防雷击

机房供配电系统:

使用与集装箱一致的产品

弱电监控系统:

内部结构复杂,距离长,成本高

消防系统:

施工量大,成本高

UPS及蓄电池:

与集装箱大体相当

精密空调:

成本低

发电机:

成本低,必备

机柜:

简单,造价便宜

机房选址:

占地30平米左右的平地

机房设计:

标准化设计

机房装饰装修系统:

机房供配电系统:

使用与传统机房相一致的产品

弱电监控系统:

内部机构简单,布线简单、距离短

消防系统:

比传统机房技术高端,但管控面积小,总体费用低

UPS及蓄电池:

与传统机房成本相当

精密空调:

发电机:

根据需求选配

机柜:

非常简单,造价便宜

集装箱式数据中心和传统数据中心的内部架构基本相同。

都是以电力的稳定性和空调的制冷能力为基础,在保证网络的稳定性的基础上,合理的布局各设备的位置,但是传统机房需要基础建设,占地面积过大,导致机房内部部署复杂,使得成本过高。

据我们的工程师测算,传统机房的造价比集装箱式数据中心平均高20%-30%

建设周期

从设计到选址,从选址到设计,从设计到建成,平均时间在2年左右

标准化设计,30平米占地面积,从设计到部署时间可控制在2-4个月

集装箱式数据中心大大节省建设时间,可以实现快速部署,建造时间仅为3个月左右

灵活性

建造规范,结构结实稳定性好。

一次性选择,终身使用。

用途不可变

安装简便,可根据需求整体移动。

集装箱式数据中心的安装简单,灵活性高,可以在1天内安装完成

功率密度

IT设备安装密度低,单个机架平均装10~15U的IT设备

机架的功率密度可达到2.5KW/机柜

占地总面积300平米

IT设备安装密度高,每个机架可安装50U的IT设备

机架的功率密度可达到15KW/机柜

占地总面积30平米

集装箱式数据中心使用了大容量机架,且机架的功率密度可达到15KW/机柜,远远超出传统数据中心。

资源的节能减排

PUE在2.0左右

PUE在1.5左右

PUE值越大,代表能源损耗越大,集装箱式数据中心低于传统机房。

功能扩展

一次性部署并布线,在扩容时需要重新设计各种线路,并重新施工,造价比较高

模块化设计,扩容时按需扩容即可

由于传统数据中心灵活性差,在设计过程中包含所有设备的容灾冗余,所以在设计会存在的成本的浪费。

集装箱式数据中心采用的模块化设计是一种平衡的系统设计方法,具有恰如所需的供电、冷却和计算能力和良好的扩展能力。

最终用户设备兼容性

可支持任何设备

目前只能提供标准机柜,支持800mm深度的服务器

安全性

大楼具备安保、防火、防盗、防水等措施

采用户外部署存在安全隐患。

楼内部署无。

可维护性

24小时专人值守

值守人员须定期巡视

专职工程师作为技术保障

设备需按类别找特定商家定期维护

无人值守

专业详细的监控平台,随时可见各种问题

24小时客服电话,专业的技术人员值守

专业运维团队

作为产品,世纪互联的云快线集装箱的售后保障更具优势

四、应用分析及建议

由于集装箱数据中心的特性,决定了其适用对象是设备较统一,自用为主的企业。

从目前只有google和微软大规模使用,其他大多是尝试性应用也得到了证明。

电信运营商如何应用这一新兴产品,以下是一些建议:

1利用电信退网端局,发展托管客户

光进铜退实施后电信很多端局富余的电力和机房能够满足集装箱数据中心的安装条件,利用这种模式可以弥补客户对IDC资源的紧急需求,且与现在的星级机房形成价格梯度,覆盖更多的客户群,但是IDC业务目前是以用户托管为主,是否采用集装箱的主动权主要在用户,客户的需求需要引导,集装箱的大规模应用还需要技术和市场进一步成熟。

2内部应用

目前电信运营商正在进行云计算技术探索,并且已经确定了发展IAAS和CDN业务,集装箱数据中心快速部署和节能的特性可以帮助运营商快速在全省各地市机房部署IAAS和CDN节点,同时降低运营成本。

附件:

主要厂商的集装箱数据中心资料

1.SunBlackBox——集装箱式数据中心的开山作

 

世界上第一款向公众面市德集装箱式数据中心当属Sun的BlackBox,当这个大家伙在2007年底登陆中国的时候,着实让无数的用户和记者兴奋了一下。

照片上这个让卡车拖着的家伙就是Sun面世的集装箱式数据中心。

卡车的上除了安放了这个数据中心以外,还放置了一个专门用于循环水冷的水箱。

在SunBLackBox中,部署了多达250台服务器,提供了超过7TB的动态内存,超过2PB的磁盘存储,强大计算性能足以满足任何应用的需求。

更为重要的是,相对于建设一个同样的传统数据中心,Blackbox只需1/10的时间,以及1/100的建设成本,Blackbox所有的系统需求是一根电力线和一个Internet接入,另外加上一根供水管和一个外部冷却器,使客户可以快速部署Blackbox。

它的供货周期应在数周内,而不是数年内。

此外,它还必须便于移动,极其灵活,可通过一般的装运方式轻松进行运送,让客户可在任何地方部署——如灾区或水力发电厂附近,这与传统数据中心地点的豪华与奢侈形成鲜明对比。

每台BlackBox的售价大约35~50万美元。

2.google数据中心

视频介绍:

2005年开始投入使用,每个集装箱部署了1160台设备,采用定制化设备和多项节能措施,具有极高的PUE水平。

3.微软——最大的数据中心

微软所有。

它在芝加哥开设的数据中心总面积为70万平方英尺(约为6.502万平方米)。

如果只开启数据中心一半的服务器,其能耗也将达到30M瓦,是普通数据中心的数倍之多。

在这个数据中心的第一层放置了多达56个集装箱,每个集装箱内放置了1800到2500台服务器。

其中所有的服务器都被封装进了集装箱中。

到目的地点后,集装箱也留在了该地,成为服务器的“容器”。

虽然集装箱是沉重的(装满了服务器后的集装箱尤为沉重),但是在数据中心上方的滑轨让这些集装箱式的数据中心移动起来非常便捷,只需要4名工人即可完成。

如下图所示,8小时后,这些服务器就会启动并且正常运行。

4.SGI(RackableSystems)IceCubeAir集装箱式数据中心

RackableSystems收购了SGI并保留其名字,于是现在的SGI也开始涉足这个业务。

在拉斯维加斯Gartner数据中心大会上,SGI公司展示了新的ICECubeAir模块化数据中心,出现了一些新的变化。

例如:

门的位置放在了侧面而不是原来的背面,通常这可以使机架间的行距更宽。

SGIIceCubeAir集装箱式数据中心

这是老款“冰立方”数据中心,新的产品名称添加了Air字样

新的ICECubeAir集装箱可移动性稍差于SGI在五月份推出的20英尺和40英尺的集装箱式数据中心。

与其不同的是,SGI给ICECubeAir单元的定价为99000美元的。

5.IBMPortableModularDataCentre

IBM公司称其集装箱式数据中心为PortableModularDataCentre(便携式模块化设计数据中心),从下图可以看出其外观的模样,至少这个集装箱从外部来看更像是艺术设计。

在IBMPortableModularDataCentre集装箱数据中心内部则装备了能源、冷却、紧急电力供应设备以及来自IBM的合作者Anixter,CommScope,Eaton,EmersonNetworkPower,Panduit,SchneiderElectric,Siemon和Vette等公司的设备。

IBM称其可以在8到12星期内使用多个集装箱部署一个面积约500到2500平方英尺的数据中心,这要比一般而言的建设数据中心速度要快的多。

IBM称目前的集装箱式设计数据中心有两种型号,分别是20英尺和40英尺两种,你只要把它放在一个有电力系统、冷却系统和网络接入的地方即可,即使你把它放在沙漠也行。

此设备内部最大可放置19个机架,也就是可约放置798个1U服务器,如果使用IBM的刀锋服务器则可放置约1596个。

功耗则是每个机架30千瓦左右,总功耗约为410千瓦。

产品剖面图如下:

IBM称20英尺大小型号的集装箱式数据中心如果使用最便宜的X64服务器,售价约45万美元。

6.HP集装箱数据中心——小型集装箱更节约空间

HP最新的集装箱式数据中心属于一个小型集装数据中心版本,这一次的产品利用了标准的、长度20英尺的船载集装箱,外型尺寸只有首款产品的一半大小。

HP希望这种小型系统较低的起步价会吸引更多的客户。

而且尺寸缩小后也更容易交货,因为在全球的某些地区,其道路状况无法通行HP原先重达10万磅(约45吨),长度达40英尺(约12米)的集装箱,HP的一位产品经理JeanBrandau说。

HP称此类产品为性能优化数据中心,或POD。

首次发布是在2008年中,但落后于Sun。

销售此类数据中心的厂商还有IBM和Rackable系统,而戴尔有时也会根据客户的需要进行定制。

集装箱式数据中心为企业提供了一种快速增加更多存储和计算能力,而无须投资兴建新的数据中或者扩展现有场所的方式。

HP的20英尺POD产品可以容纳10个机柜,而40英尺POD则可以容纳22个机柜。

集装箱内也可容纳高密度计算设备,HP称,20英尺的集装箱可为每个机柜提供平均29千瓦的电力,最高电量可达34千瓦。

而普通数据中心每个机柜的供电量一般只有12千瓦左右。

集装箱的冷却系统效率也很高。

在集装箱的盖顶上装有4个可变速风扇,每个机柜还配有测温感应器,风扇速度可根据每个机柜的实际温度进行调节。

“之所以这样设计,主要的一个原因就是考虑到刀片系统,因为刀片系统非常耗电,而且需要较高的冷却密度,”Brandau说。

HP在设计40英尺集装箱时,显然想到的是一切大的互联网公司,例如Google和微软,但是其他很多客户却并不需要这么大的容量。

为了让集装箱更容易交运,HP还在20英尺型号的外面又罩了一层可进行部分操控的金属外壳,而40英尺型号则没有。

其他的厂商,包括微软在内,也在使用这种数据中心作为数据中心的标准构建模块,因为他们需要快速地扩充新的容量,而且封闭式的设计也可获得较高的能源效率。

“这种集装箱式数据中心虽然不是一种高容量产品,但是在某些情况下却很好用,”IDC分析师JeanBozman说。

其他的好处还有,使用集装箱可以在企业主数据中心之外建立独立的灾备站点,或者用于军队、油气公司等的野外作业。

20英尺集装箱的目录价格是6万美元,仅及40英尺型号价格的一半。

不过如果内部装满机柜,其价格也会很轻松地飙升到数百万美元。

7.世纪互联-云立方

中国首个集装箱数据中心由中国规模最大的互联网基础设施服务提供商世纪互联创造诞生并投入使用。

云立方数据中心缩短送风距离,空调安装于服务器机架之间,缩短送风距离,减少了送风过程中的冷量损失;

提高冷通道温度:

将冷通道温度提高到24℃,减少精密空调耗电量,达到环保节能的效果;

冷/热通道完全隔离,可以防止冷热空气混合,减少冷量损失;

新风系统,仅在人员进入箱体时开启新风机,既保证了操作人员的舒适,又缩短了新风机的运行时间;

云立方内外安装隔热保温材料,冬季不结露,夏季冷量不外泄;

云立方外表面喷涂反射隔热涂料,夏天防止太阳直射使箱体内温度升高。

其它节能措施:

无人时关闭箱内照明。

世纪互联集装箱数据中心实现了高密度IT设备布置,每个集装箱式数据中心可容纳912台1U服务器,这相当于127个传统机房机柜(1.5KVA/rack)的容量,可以适用于深度不超过800mm的所有服务器。

采用UPS集装箱单路N+1供电,电池后备时间10分钟,PUE值低至1.07,专业的一站式数据中心服务使客户受益最大化。

8.浪潮云海集装箱数据中心

今年4月7日,国内厂商浪潮在北京正式发布首款云数据中心产品——“云海”集装箱数据中心。

该产品是浪潮针对云计算应用趋势,立足数据中心建设与运营的全生命周期创新,推出的移动式、集装箱标准化的数据中心解决方案。

这也是继浪潮去年8月发布云海战略以来,推出的首个战略性产品。

浪潮“云海”集装箱数据中心

云海集装箱数据中心Smartcloud将供电、制冷、散热、IT等所有模块集成到一个标准集装箱内,它分为IT设备集装箱和辅助设备集装箱,有20英尺分体式和40英尺整体式两种标准形态,可耐受-40℃和60℃度极端环境温度,抗7级以上地震。

该产品体现了浪潮对于云计算时代数据中心的全新理解,将数据中心以标准化、模块化的设计实现数据中心产品化,可以随买随用,即插即用。

以集装箱为单位,工厂预装,批量制造。

云海采用一体化设计生产,所有的装配、调试工作全部在生产车间装配完成。

设备到达用户现场后,仅需要接上水、电、网络等基本线路,即可正常工作并向外提供服务,是当前中国第一款数据中心产品。

9.富士康集装箱数据中心

在今年召开的IDF2011技术峰会上,富士康首次亮相了PatentCloud集装箱数据中心,这也是英特尔和富士康联手打造的一款集装箱数据中心。

富士康集装箱数据中心首次亮相IDF2011

英特尔架构事业部副总裁、数据中心事业部总经理施浩德在英特尔IDF主题演讲中透露说,“该数据中心可以在6周内交货,里面包含了4500多颗内核。

它支持单点登录,可以轻松监测公共云和私有云。

而且提供强劲的备用电源支持。

集装箱数据中心的远程管控

企业IT管理员还可以远程监控集装箱数据中心,并且利用具体应用的使用率来调控运行服务器的数量,从而进一步有效降低能耗。

集装箱数据中心数据监控

集装箱数据中心远程监控

集装箱数据中心视频监控

数据中心监控

目前富士康的集装箱数据中心已经在企业内部开始使用,,而且此次露面也意味着富士康将吹响集装箱数据中心市场推广的号角。

10.思科集装箱数据中心

经过数月的潜心设计,网络巨头思科在今年5月推出其第一款集装箱数据中心。

该数据中心的发布预示着思科正式进入了小型数据中心市场,成为惠普、IBM强有力的竞争对手。

停放在北卡罗莱纳州三角技术园的思科集装箱式数据中心

此次推出的思科集装箱数据中心采用了40英尺柜,内部最多支持16个机架。

在客户提交订单后,思科能够据此在120天内完成集装箱数据中心的安装与调试工作,并交付到用户手中。

特别需要指出的是,该集装箱数据中心采用了安放在机柜底部的冷却回路系统设计,将散热通过机柜底部的冷却管进行降温,再通过每个机柜背面3个大型的风扇使气流不断地循环,保证整个机柜温度不会过热。

11.惠普集装箱双子星

在本月的惠普2011DISCOVER大会上,惠普展示了最新的集装箱EcoPOD,旨在弥补先前产品在维护性方面的不足。

它通过信号将两个40英尺高的IT容器相连,把它们组成一个双宽度的数据中心集装箱,从而产生了一个额外宽度的热通道。

技术人员在该通道上可以自由出入,并有利于维护设备。

集装箱EcoPOD

集装箱EcoPOD中的热通道

这种集装箱“双子星”式的设计,可以有效避免传统集装箱数据中心不利于管理员进出进行设备维护的问题,因为集装箱数据中心所采用的集装箱本身是用于货物运输而设计的。

12.天地云箱科技-云箱

云箱是北京天地云箱科技有限公司(以下简称“天地云箱”)设计生产的集装箱式机房系列产品的统称,其利用集装箱为载体,在集装箱中放置机房运行环境所需的各种设备,比如动力设备、制冷设备、消防设备、监控设备等。

一体式云箱

将动力设备(UPS、ATS、配电单元等)和服务器等电子信息系统设备放置在一个集装箱。

放置动力设备的区域称为动力区,放置服务器等电子信息系统设备的区域称为IT区。

一体式云箱示意图

分离式云箱

分离式云箱的特点是将动力设备(UPS、ATS、配电单元等)和服务器等电子信息系统设备,分别放置在不同的集装箱内。

放置动力设备的集装箱称为动力箱,放置服务器等电子信息系统设备的集装箱称为IT箱。

分离式云箱布局图

13.华为赛门铁克OceanspaceDCS

  华为赛门铁克OceanspaceDataCenterSystem(DCS)是一款集成了电源配电、环境监控、冷却系统、机架、布线、消防、安防等基础设施的箱式IDC产品。

该产品采用模块化设计,具备快速部署能力,部署手段灵活、机动;

其空间紧凑,提升了单位面积的设备部署密度;

同时具备优越的节能特性,极大地降低了运营成本。

尺寸:

40英尺容量:

10个42U机架PUE:

1.2~1.45

华为赛门铁克OceanspaceDCS通过模块化的设计,采取工程预安装的方式,在工厂中直接安装电源配电、环境监控、冷却系统、机架、布线、消防、安防子系统等,并且能够支持陆运、海运、空运等多种运输模式。

其部署时间只是传统数据中心部署时间的1/4。

华为赛门铁克OceanspaceDCS具有更高的设备单位密度,在其13.5平方米的内部空间中可以放置600个CPU、2880GB内存的服务器以及1824TB的存储系统。

它采用冷热风道隔离的设计,其独特的风道设计能够提高制冷效率,PUE值为1.2~1.45。

与传统数据中心相比,华为赛门铁克OceanspaceDCS能够节约40%以上的制冷消耗。

华为赛门铁克OceanspaceDCS最高能够进行3层堆叠,从而降低数据中心的单位场地建设成本。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 高中教育 > 高中教育

copyright@ 2008-2022 冰豆网网站版权所有

经营许可证编号:鄂ICP备2022015515号-1