揭开IBM数据中心PUE 1.25秘密
2012-06-26 原创 编辑:宋家雨
5月31日,IBM举办智慧数据中心开放日,对于这个位于中关村软件园的数据中心,我最感兴趣的是其1.25 PUE的表现。
很多网友也对此表示了兴趣,对于1.25的PUE表现,要求关注其供电模式,如是否采用了ECO模式;对于风侧节能,要求关注其机房设定温度和冷冻水供回水温度,看冷冻水储存,风机设置;要求关注总体布局、空间架构、每个机柜容纳多少刀片、冷/热风通道、走线、桥架布局是否有新意、操控台摆设、运维的理;看POWER7的威力,看地板下掩盖的真相,看强弱电井的保护,看IBM的表情……,总之不一而足。
从1.77开始
要参观的数据中心是IBM全球五大客户中心之一,所承担主要任务是为亚太合作伙伴及最终用户提供应用测试环境。该数据中心规模不大,面积只有800平米,IT设备用电量500kVA,此前供电已接近饱和,受变压器容量限制,扩容难以实现,数据中心的每天电费支出为12000元人民币。
面积不大,但该数据中心IT结构比较复杂,既包括IBM System Z196这样的大型机,也包括IBM Power 595、780这样小型机,以及DS8000、XIV等高端存储设备,也包括相当数量的x86服务器,有刀片,也有机架式服务器,需要提供稳定的数据中心基础架构的支持。
面对用电量不断增长的难题,只有通过系列改造,从内部进行挖潜。改造之后,该数据中心 PUE从1.77降低到1.25,每年可以节约运行成本100万元人民币左右。
谈到PUE, IBM全球数据中心项目总监Allan Hoeft表示,PUE的影响因素很多,可靠性级别不同,地理位置上的差异都会造成PUE的差距,对于地理位置, IBM将全球划分为了8个地区,将可靠性级别分为了6个等级(1、2、2+、3、3+和4)。
“不同地区,不同等级的数据中心之间,其PUE没有可比性。” Allan Hoeft说。
优化PUE
对于数据中心PUE表现存在着一定的争论。有些地方偷换概念,计算不科学,用局部数据替代。对此,IBM中国系统中心高级架构师叶华表示, IT设备用电包括所有和IT设施有关的耗电,如计算机、存储、网络、显示和控制设备;基础设施用电包括支持IT设备运行的所有设施的用电,以此为依据来计算数据中心的PUE。
从1.77到1.25~1.5,IBM采用技术很多,其中包括高效灵活的服务器节能技术、创新的数据管理技术(如Ease Tier存储技术、数据压缩技术、重复数据删除和自动精简配置技术等)、投入实际应用的云计算技术、利用虚拟化技术提高IT资源的使用率、冷水热交换机柜背板技术、数据中心热点和能源分析、动态能源管理技术、防止冷空气流失的地板套件、机柜气流循环挡板、行间级制冷设备、高效能UPS、实施能源效率监控和支持自然冷却的冷冻水机组等。
应该说,这都是一些耳熟能详的技术,并没秘密武器。有些技术,属于IT设备应用的范畴,如虚拟化技术、云计算等,其特点是可以提高IT设备利用率,达到节能的目的。其中,叶华自然侧重Power、System Z大机的节能技术进行讲解。需要注意的是,IT设备节能,对于PUE未必有很大帮助,降低PUE还是需要在基础设施上想办法。
1.25之道
在IBM的实践中,1.25不是某个技术作用的结果,而是很多细节技术积累,聚沙成塔的成果。以制冷为例,针对大型机、小型机、x86服务器不同的特点,采取有针对性的方案。
在大型机散热方面,由于大型机具有完整的散热方案设计,只需要按照要求配套好冷冻水即可。对于小型机,IBM采用了冷水热交换背板技术,通过冷水把热量带走。所以,同样是采用冷冻水技术,不同设备其设定的进水和回水温度也不同,其中进水温度从13℃~15℃,回水温度在18℃~20℃。此外,为了隔离冷热通道,部分地方采用了循环挡板。
在x86服务器区域,有些采用冷通道封闭技术,有些则采用了热通道封闭技术,二者同时存在。根据我的观察,冷通道封闭显然是后改造的,方法也比较简单,就是拉个帘进行隔离,帘子随机柜高低错落。根据介绍,在消防状况下,这些帘子自动脱落。
热通道封闭与行级制冷空调配合,所采用的是APC英飞解决方案。在UPS方面,数据中心采用了APC Symmetra PX500,其转换效率可以到达96%。目前只配有一台UPS给IT设备供电,不是严格意义上的2N供电系统,没有采用ECO模式。该UPS采用模块化技术,在扩展性、灵活性以及效率上具有优势。
在冷冻水机组方面,没有板式热交器,所采用的节能技术方面,冷冻水和冷却水系统是通在一起的,可以直接利用室外冷源。
在参观中,唯一可称得上秘密武器的是IBM MMT(移动测量技术,Mobile Measurement Technology设备)。IBM MMT采用手推结构设计,分为不同高度的8个数据采集点,采集温度、湿度、出风量等数据,这些数据输送给软件,就可以绘制整个数据中心热成像图,热力学分布一目了然。热成像图将成为数据中心改造和评估的主要依据。
总体来看,在IBM 1.25 PUE数据中心实践中,没有什么灵丹妙药,所使用的都是常规方法。关键在于落实,所谓细节决定成败,也许就是这个道理。