数据中心高效冷却的隐形杀手:气流问题绿色数据中心

2011-05-24    来源:机房360    编辑:Rajesh Nair
今天的数据中心对冷却基础设施的要求比过去要多得多。服务器虚拟化使计算更有效,但是刀片服务器带来的高负载、存储和网络需求的增长相结合,形成的高热密度环境迫使用户必须

  今天的数据中心对冷却基础设施的要求比过去要多得多。服务器虚拟化使计算更有效,但是刀片服务器带来的高负载、存储和网络需求的增长相结合,形成的高热密度环境迫使用户必须要审视其冷却拓扑。

  这所带来的挑战却是非常明确的,服务器的空气进入口温度要保持在66°F——77°F之间。每千瓦机架式服务器每分钟需要冷却空气大约为160立方英尺,而每千瓦刀片式服务器每分钟需要120立方英尺的冷却空气。要做到这一点,精密空调必须有足够的冷空气提供给服务器机架。

  这看似比较简单,但在现实中地板下是否有足够的压力和气流以应对数据中心机架热密度的不断变化却是很难计算的。在异构环境中,高性能服务器每个机架的热密度范围是2kW——35kW。

  热点和冷库式冷却

  这种热密度的差异可能会导致数据中心出现热点,而其他的设施被过度冷却。整体冷却这种冷柜式的冷却方式所需要的冷却量通常是实际所需制冷量的2到3倍,所以这是一个低效且昂贵的冷却方式。

  气流阻抗:隐形的冷却效率杀手

  在制冷与空间方面,许多数据中心总会收到电力和容量的限制,然而这些限制通常是因为数据中心缺乏气流管理而造成的。气流分配在日益增加的能耗成本问题中起着重要作用。气流在数据中心的分布主要取决于地板气流阻抗,机房空调的摆放位置以及冷却装置的分布。

  Airflowimpedancecanbecausedbyanumberofthings:excesscables,misplacedpipes,oddlayouts,andotherunderfloorobstructionsthatlimitcoolairdistribution.

  气流阻抗也可能由其他因素造成:多余的电缆、错位的管道、奇怪的布局、地板下障碍物等都会限制冷空气的分布。

  距离也是因素之一

  气流阻抗通过狭窄的空间例如服务器机柜或者数据中心地板下,可以被认为是在同一背景下的电阻抗。

  欧姆定律:R=V/I

  R:电阻

  V:电压

  I:电流

  应用于气流阻抗为:Z=P/Q2

  Z:气流阻抗

  P:由制冷散热造成的空气压力

  Q:气流产生的压力

  所以,压力可以表示为:P=Z*Q2

  所以,风扇的功率可以定义为:

  W=P*Q=Z*Q3

  这些公式表明,如果需要两倍的气流,必须有4倍于风扇的压力和8倍于风扇所消耗的电能。但是如何做到呢?当风扇运行成本超过储能,风机的收益将递减。

  地板下送风是气流阻力最小的路径,到达服务器的气流被地板下的障碍和机房空调的性能所决定。往往服务器接受气流的量取决于他们对散热的需求,所以必须有足够的冷空气被推送到服务器前端,冷空气通过服务器产生废热进行再循环。冷通道的出现一定程度上协调了这些问题。

服务器机架和冷通道

  带有变频风扇驱动器(VFD)风扇的机房空调可以帮助解决这个问题。然而,他们并不能达到100%的冷却效率,因为他们不能同时独立在多个地点改变气流。一种解决办法是通过利用按需冷却系统(DBC)策略来管理地板下气流阻力。在多个区域同时需要的时候DBC可以动态的提供数据中心冷却。它还增加了实时管理,并将制冷量传递到变化的数据中心环境中。

1
3