云数据中心PUE:向1冲刺不是梦?绿色数据中心
在本期《IT号外》上一篇介绍英特尔IT部门如何进行云计算实践的文章中,有关该部门如何利用自家虚拟化技术可能会给大家留下深刻的印象,但相比之下,更为惊艳的就是该部门的上海数据中心在PUE值(即数据中心总功耗与其中用于IT设备的功耗的比值、这个数字越接近1就越理想)上达到1.3的佳绩!相信很多想上马云计算,又担心数据中心功耗控制问题的用户,都是非常希望获取这个数字背后的秘密的。
其实,PUE值达到1.3,对于很多数据中心来说已经很难,但它还远非目前的最高水平,举例来说,雅虎名为“计算小屋”(Yahoo! Computing Coop)的数据中心的PUE值就仅有1.08,这更接近那个理想的数字——1,但它又是如何做到的呢?
其实,在雅虎这个数据中心提升能效、节能降耗过程中起到最显著作用的,就是一项名为HTA(高环境温度)数据中心的技术,它的精要之处,就是要将数据中心内的环境温度提升,甚至要做到不常或不再需要空调制冷的地步,少了空调这个非IT的耗电大户,PUE的提升自然会非常明显。
可是,提升数据中心内环境温度甚至是停用空调,数据中心里的IT设备们不会因此过热而宕机么,对此,大家不用过于担心,因为:其一,用水冷或自然风冷的方式,也是可以将数据中心的环境温度控制在一个安全范围内的,其二,就是可以通过先进的芯片级、系统级、机架级以及数据中心级的节能或提升能效的技术来配合,以实现在较高环境温度下IT设备的高效稳定运行。
这样一些深入细节又能兼顾全局的技术有谁能够提供呢?英特尔公司就可以,而且还是其中的佼佼者。它的相关技术,可从数据中心部署的IT设备中处理器内部的每一颗晶体管,到处理器和芯片,到芯片封装和散热器,到主板和系统冷却,然后到IT设备的电源,再到机架,最后到整个数据中心设施,乃至电网和配电,每一层级的功耗都可做到能省就省!
这个分层次的、逐渐递进的节能策略,实现难度之高可想而知。毕竟,在人们此前的认知中,很少有一家企业能够对这些环节进行全面的覆盖。不过在今天,在云计算大潮席卷全球的时刻,为了帮助企业用户构建一个能效最优化的云计算基础设施,英特尔还是从自己擅长的技术领域出发,打造了一系列节能技术来实现上述目标。
英特尔这些节能“绝技”主要包括:作用于晶体管节能的第二代高K栅介质+金属栅极晶体管技术和32纳米芯片制程工艺,它们就是英特尔处理器平台高能效表现的基石;处理器和其他芯片上使用智能节能技术,可以根据工作负载的变化自动节能;使用在芯片散热上的铜散热片等方式,可以更高效地将芯片产生的热量散发出去;用于设备内部散热的定制化风扇技术,可以根据温度变化来调整速度,以节省电能;锁定IT设备供电环节的英特尔按需冗余电源技术,可以让用户免除安装大型UPS的需求,以减少UPS对电能的消耗;针对服务器主板级、行级、机架级和设施级的英特尔智能功耗节点管理器及数据中心管理器,能够对单个IT设备、行级和机架级分别进行功耗监控和调节,以求尽量将其每一份功耗都用于数据的计算和处理,而不是浪费在系统的空转中,还有旨在优化电网和配电的英特尔智能电网嵌入式技术及英特尔开放能源协议,则支持以最优方式将电力从发电站传输到数据中心。
英特尔如此一通节能组合拳,挥舞起来到底有什么效果呢?原于真实应用环境的数据就是最好的证明:以英特尔智能功耗节点管理器为例,雅虎的数据中心发现用它来进行功率和散热监控,可取代IP电源板和串行集中,为每机架节省约400美元;宝马集团的数据表明它可以在不增加机架供电的情况下提升其服务器部署密度,使每机架的性能最高提升40%;百度和中国电信的节点管理器白皮书则证实它能在不影响性能的情况下实现高达30%以上的功率优化。
由此来看,上述技术可谓顺利实现高温度环境数据中心必不可少的铺助,事实上,英特尔就是高环境温度数据中心的最有力的推动者之一,它今天就正在与绿色网格联盟、欧盟及美国采暖、制冷与空调工程师学会等行业机构沟通,以确立一个高环境温度数据中心规范,其目标就在于让那些享受空调冷风、处于18°C~21°C环境温度下的IT设备能够稳定地运行在较高的环境温度下,从而少用甚至不用空调。
除了制订规范的努力外,英特尔还与部分知名互联网公司,包括上面提及的雅虎开始了相关的尝试:英特尔位于新墨西哥州、配备了900台生产用服务器的概念验证(Proof of Concept)数据中心就实现了在33°C下进行100%空气交换来散热,结果节省了约67%的功耗,相当于一个 10兆瓦的数据中心可节省 287 万美元;Facebook也尝试将其加州圣克拉拉市的数据中心运行在27°C下,从而将年度能源开支减少了229,000美元。这些尝试,已证明在多种先进节能技术的支持下,云时代的数据中心PUE值向1冲刺并不是一个遥不可及的梦想。