让CPU告诉你:数据中心多少度行业资讯

2012-07-04    来源:IDCUN原创    编辑:宋家雨
数据中心升温是绿色节能的有效措施之一。空调送风或回风每提升1℃,空调系统可节电约2.5%,同时其制冷能力提高约5%。但在我国,少有用户尝试,因为升温不符合国标的规定。

  

  数据中心升温是绿色节能的有效措施之一。自2006年以来,美国采暖、制冷和空调工程师协会(ASHRAE)就推荐将数据中心提升到27℃。空调送风或回风每提升1℃,空调系统可节电约2.5%,同时其制冷能力提高约5%。也就是说,可带来两个方面节省。封闭冷通道即使不改变空调设置,但由于减少了冷热空气混合,其回风温度提升,因而也具有节能的效果,倘若配合数据中心升温,则节能效果更好。但在我国,少有用户尝试,因为升温不符合国标的规定。

  根据国标GB 50174-2008 《电子信息系统机房设计规范》的规定,A类和B类机房主机房温度要求保持在23±1℃,也就是22到24℃。这就像是一个紧箍咒,拖了升温后腿。应该看到,数据中心用户首要关注稳定性、可靠性和可用性,其次才是节能。数据中心绿色节能要以不影响稳定性为前提。

  如果提升数据中心送风温度到27℃,会不会影响IT设备的可靠性,这恐怕是用户最关注的话题。GB 50174-2008之所以规定23±1℃作为数据中心送风温度,主要参考的就是IT设备对温度的要求,23±1℃是IT设备最佳的工作温度。据了解, GB 50174-2008的修订版中,也就是业界所说的新国标,也把数据中心升温作为研究内容,正在与IT设备厂商接洽。

  27℃是否可行?对此,不妨看看CPU、内存等服务器主要功能部件对温度的耐受情况。

  如图所示,这是数据中心目前最常用双路服务器主板设计,其中CPU、内存是主要发热部件。如果数据中心的送风温度是23±1℃,那么CPU、内存等耐热温度远非如此。我们可以看到,两个CPU、内存的布局,在风道中呈现前后设计,CPU、内存的出风是下一个 CPU、内存的进风,其温度至少超过30℃以上。

  换句话说,CPU、内存绝对可以承受30℃以上的高温。基于此,Intel正在积极倡导高温度环境服务器设计,也是HTA服务器(如图所示)。

HTA服务器

  HTA服务器采用分布式设计,不会产生热投影,因此可以耐受更高的温度。根据Intel所提供的数据,HTA可以耐受35℃~45℃的高温,它意味着数据中心不需要空调。如果不从服务器局部考虑问题,HTA服务器显然更加符合数据中心需要。


  HTA服务器为什么没有成为主流?究其原因,从热投影到分布式设计,技术上是有难度的。在分类上,双路属于对称多处理服务器,通过增加处理器来提升处理能力,其中,2个处理器共享全部内存。我们知道,Intel从Nehalem架构开始,在处理器中内建了内存控制器,多核心独立访问内存。为了保证2个处理器的多个核心平等访问内存和I/O,这不是一件容易的事情。

  在走线上,热投影设计有其合理之处。如果采用分布式设计,走线有一定的难度,PCB(印刷线路板)就需要更多层设计,从而导致成本增加,这也许是分布式方案没有普及的原因。

  如果抛开局部利益,HTA服务器更加合理。不仅如此,如果从数据中心的角度,还有更多的选择。以散热风扇为例,可以从机架、机柜、数据中心的角度考虑,而不是一对一的配备,如此,具有更高的效率。(参加图片)

  采用数据中心级设计,结合FreeCooling技术,数据中心PUE可以达到1.07,Facebook就采用了这种定制服务器的方案。对此,也许有些用户会有疑问,即使服务器没有问题,数据中心内的其他IT设备,如网络、存储等可以满足高温的需求吗?实际上,与服务器相比,网络、存储都属于低功率密度设备,发热量并不大,对散热没有更高的要求。

  与互联网企业相比,行业用户一来存在历史包袱,一夜之间不可能过渡到定制服务器,二来在服务器用量上,往往没有互联网企业的规模。对此,就没有办法达到更好的PUE表现吗?

1
3