数据中心过度冷却问题令人关注绿色数据中心
2015-08-12 来源:机房360 编辑:Harris
应对天气酷热的最好方法是尽可能少地去做;这个道理连蜥蜴都知道,所以想让数据中心变得更冷的管理人员,采取过度的制冷措施只能是浪费能源。
应对天气酷热的最好方法是尽可能少地去做;这个道理连蜥蜴都知道,所以想让数据中心变得更冷的管理人员,采取过度的制冷措施只能是浪费能源。
然而还是有很多数据中心都在这么做,一直保持过多工作量和过度的制冷。在这个过程中,他们在浪费大量的电能,具有讽刺意味的是,这会导致全球变暖和融化地球的极地冰盖。
磁带时代的冷却
数据中心的制冷历史可以追溯到20世纪50年代,当时磁带驱动器无法忍受高温和高湿环境,在通过穿孔卡时会粘在一起,致使系统崩溃。而我们虽然不再处于那个时代,但目前许多数据中心仍然有过度的冷却措施与不必要的冷却制度,一直将数据中心的环境温度严格控制在21°C(70°F)。
当ASHRAE(美国供暖学会,制冷与空调工程师协会)定义特定推荐的服务器入口温度后,现在设定为27°C(80°F)。如今事情开始改变,并增加了更广泛接受的可靠性套件。
如今,一些大规模数据中心注意到了这一点,并通过了运行在更高的温度的过程试验。但是,大多数的企业数据中心在此方面严重滞后。
2015年初,调查机构IDC在美国调查了404位数据中心经理,这些经理每人至少管理100台物理服务器,并拥有平均120万美元的IT预算。根据调查,75%的数据中心工作温度低于24℃,只有5%的数据中心工作在27℃或27℃以上。
这些数据中心设施的PUE(能源使用效率)为2.4至2.8之间,这意味着IT设备电源的电源消耗没有达到全部设备的60%至65%。
这两个结果令人震惊。IDC发现这些IT管理人员在冷却方面的支出预算为总预算的10%,在电力和冷却方面的预算为24%。因此,各公司每年在冷却方面的支出预算大部分可能是多余的。
其他要考虑的事实是,虽然高效的网络规模云服务提供商获得了媒体的关注,但他们只是全球数据中心的一小部分。至少,目前全球有一半以上的数据中心制冷过度。这些会影响全球的碳排放,而这些都是需要改变的数据中心。
偏执狂,还是只是小心?
那么,为什么数据中心的温度还是那么低?关键设施咨询的伊恩•比特林是毫无疑问知道是恐惧驱使它:“这是偏执狂的想法,人们过度规避风险。”
而下面这种说法可能更加合理,至少有一项研究发现,提高空气入口温度实际上增加了冷却电能消耗。
施耐德电气高级研究分析师维克多•阿弗拉尔对一项研究进行了描述,他比较了芝加哥、迈阿密以及西雅图的数据中心在不同的温度下的冷却电能消耗量。“我们发现,高于27℃的数据中心冷却耗费了更多的能源和资本开支。”
施耐德电气的研究即将公布,这个结果是与一个具有标准的冷水机组数据中心进行比较的,之所得出令人惊讶的结果,也可能与系统的复杂性有关。在较高的温度下,服务器风扇可以发挥作用,让周围的空气流动消耗了更多的电能。
技术选择
如果你看到这一点,你就需要知道你的技术选择。我们都是从使用传统空调压缩机的冷却设备,通常被称为“直接膨胀(DX)单元”来开始认识冷却系统的。
保持入口温度在24°C以下是偏执狂
在大多数地区,没有其他的方式来保持数据中心的低温,许多人仍然认为保持低温是必要的,在许多地方仍有DX与其他制冷方式混合,以保持数据中心极端条件。
如果用户拥有这样的数据中心,在考虑改变冷却技术之前,先要消减能源法案。ASHRAE指出用户可以提高服务器的入口空气温度,从而减少了冷却电能。但如果这样做,用户应该知道服务器的风扇将要做什么。
如果让入口温度上升到27°C,服务器后面的热通道温度将约为35°C。因此要确保所有连接器都在系统的前面,因为没有人考虑在热通道设计上花费更多的时间。
其次,任何冷却系统更有效地工作时,它是工作在高温差(时间差)。这有些稍微违反直觉,但其基本热力学的原则是热差越大,驱动力更大。
这就是为什么可以很好地遏制服务器背面出来的热风的原因,热通道遏制装置意味着冷却系统的工作就是冷却需要冷却的空气。
比特林表示,一旦用户完成这一切,其DX冷却系统会做更少的工作,就可以得到大约1.16的局部PUE(pPUE)。另外,冷冻水系统(其中制冷机组的冷却水分配使用)的pPUE可以下降到1.12。
不建议采用DX冷却技术
但你真的需要DX吗?根据ASHRAE发布的地图显示,全球各地的气候足够凉爽.因此,外部空气可用于常年来冷却数据中心。美国大部分地区在此区域中,而在英国,其干球温度记录为34℃,最高湿球温度(蒸发)为23℃。
这就是“外部空气”冷却,“自然”的冷却或是“绝热”冷却。这些冷却意味着不使用空调。有时将外界空气过滤,直接通过数据中心(“直接”自由冷却),有时设置一个二级电路(“间接”自然冷却)。当外界温度较高时,加入水蒸发的冷却盘也是是必要的。
比特林表示,采取这些冷却措施可能让数据中心达到1.05的pPUE,但也有一些并发症。一个问题是,PUE取决于数据中心的利用率。如果有闲置的服务器,这样可以提高效率,但绝热冷却有一个相反的趋势:“在部分负荷下,绝热变得更好,”他说。这意味着,如何负载超过一定阈值,追求更低的PUE可能适得其反。
PUE并不是一切
施耐德电气的阿弗拉认为:“PUE是数据中心行业评判能源效率的标准,但重要的是不要盲目追求PUE。”在他给的例子中,当服务器风扇关闭时,即使数据中心整体用于冷却电能消耗不断上升,其效率越来越差,数据中心PUE仍会下降。
阿弗拉尔警告说,绝热冷却套件可能会引发可用性的担忧。在实际的情况下,绝热单元通常又大又重,在改造老旧数据中心时会非常棘手。而新建的数据中心会尽量将其部署在屋顶上。
当服务器变得更加温暖时,其冷却问题看起来很复杂吗?这一切都归结为保持冷静的头脑和精确的计算。
然而还是有很多数据中心都在这么做,一直保持过多工作量和过度的制冷。在这个过程中,他们在浪费大量的电能,具有讽刺意味的是,这会导致全球变暖和融化地球的极地冰盖。
磁带时代的冷却
数据中心的制冷历史可以追溯到20世纪50年代,当时磁带驱动器无法忍受高温和高湿环境,在通过穿孔卡时会粘在一起,致使系统崩溃。而我们虽然不再处于那个时代,但目前许多数据中心仍然有过度的冷却措施与不必要的冷却制度,一直将数据中心的环境温度严格控制在21°C(70°F)。
当ASHRAE(美国供暖学会,制冷与空调工程师协会)定义特定推荐的服务器入口温度后,现在设定为27°C(80°F)。如今事情开始改变,并增加了更广泛接受的可靠性套件。
如今,一些大规模数据中心注意到了这一点,并通过了运行在更高的温度的过程试验。但是,大多数的企业数据中心在此方面严重滞后。
2015年初,调查机构IDC在美国调查了404位数据中心经理,这些经理每人至少管理100台物理服务器,并拥有平均120万美元的IT预算。根据调查,75%的数据中心工作温度低于24℃,只有5%的数据中心工作在27℃或27℃以上。
这些数据中心设施的PUE(能源使用效率)为2.4至2.8之间,这意味着IT设备电源的电源消耗没有达到全部设备的60%至65%。
这两个结果令人震惊。IDC发现这些IT管理人员在冷却方面的支出预算为总预算的10%,在电力和冷却方面的预算为24%。因此,各公司每年在冷却方面的支出预算大部分可能是多余的。
其他要考虑的事实是,虽然高效的网络规模云服务提供商获得了媒体的关注,但他们只是全球数据中心的一小部分。至少,目前全球有一半以上的数据中心制冷过度。这些会影响全球的碳排放,而这些都是需要改变的数据中心。
偏执狂,还是只是小心?
那么,为什么数据中心的温度还是那么低?关键设施咨询的伊恩•比特林是毫无疑问知道是恐惧驱使它:“这是偏执狂的想法,人们过度规避风险。”
而下面这种说法可能更加合理,至少有一项研究发现,提高空气入口温度实际上增加了冷却电能消耗。
施耐德电气高级研究分析师维克多•阿弗拉尔对一项研究进行了描述,他比较了芝加哥、迈阿密以及西雅图的数据中心在不同的温度下的冷却电能消耗量。“我们发现,高于27℃的数据中心冷却耗费了更多的能源和资本开支。”
施耐德电气的研究即将公布,这个结果是与一个具有标准的冷水机组数据中心进行比较的,之所得出令人惊讶的结果,也可能与系统的复杂性有关。在较高的温度下,服务器风扇可以发挥作用,让周围的空气流动消耗了更多的电能。
技术选择
如果你看到这一点,你就需要知道你的技术选择。我们都是从使用传统空调压缩机的冷却设备,通常被称为“直接膨胀(DX)单元”来开始认识冷却系统的。
保持入口温度在24°C以下是偏执狂
在大多数地区,没有其他的方式来保持数据中心的低温,许多人仍然认为保持低温是必要的,在许多地方仍有DX与其他制冷方式混合,以保持数据中心极端条件。
如果用户拥有这样的数据中心,在考虑改变冷却技术之前,先要消减能源法案。ASHRAE指出用户可以提高服务器的入口空气温度,从而减少了冷却电能。但如果这样做,用户应该知道服务器的风扇将要做什么。
如果让入口温度上升到27°C,服务器后面的热通道温度将约为35°C。因此要确保所有连接器都在系统的前面,因为没有人考虑在热通道设计上花费更多的时间。
其次,任何冷却系统更有效地工作时,它是工作在高温差(时间差)。这有些稍微违反直觉,但其基本热力学的原则是热差越大,驱动力更大。
这就是为什么可以很好地遏制服务器背面出来的热风的原因,热通道遏制装置意味着冷却系统的工作就是冷却需要冷却的空气。
比特林表示,一旦用户完成这一切,其DX冷却系统会做更少的工作,就可以得到大约1.16的局部PUE(pPUE)。另外,冷冻水系统(其中制冷机组的冷却水分配使用)的pPUE可以下降到1.12。
不建议采用DX冷却技术
但你真的需要DX吗?根据ASHRAE发布的地图显示,全球各地的气候足够凉爽.因此,外部空气可用于常年来冷却数据中心。美国大部分地区在此区域中,而在英国,其干球温度记录为34℃,最高湿球温度(蒸发)为23℃。
这就是“外部空气”冷却,“自然”的冷却或是“绝热”冷却。这些冷却意味着不使用空调。有时将外界空气过滤,直接通过数据中心(“直接”自由冷却),有时设置一个二级电路(“间接”自然冷却)。当外界温度较高时,加入水蒸发的冷却盘也是是必要的。
比特林表示,采取这些冷却措施可能让数据中心达到1.05的pPUE,但也有一些并发症。一个问题是,PUE取决于数据中心的利用率。如果有闲置的服务器,这样可以提高效率,但绝热冷却有一个相反的趋势:“在部分负荷下,绝热变得更好,”他说。这意味着,如何负载超过一定阈值,追求更低的PUE可能适得其反。
PUE并不是一切
施耐德电气的阿弗拉认为:“PUE是数据中心行业评判能源效率的标准,但重要的是不要盲目追求PUE。”在他给的例子中,当服务器风扇关闭时,即使数据中心整体用于冷却电能消耗不断上升,其效率越来越差,数据中心PUE仍会下降。
阿弗拉尔警告说,绝热冷却套件可能会引发可用性的担忧。在实际的情况下,绝热单元通常又大又重,在改造老旧数据中心时会非常棘手。而新建的数据中心会尽量将其部署在屋顶上。
当服务器变得更加温暖时,其冷却问题看起来很复杂吗?这一切都归结为保持冷静的头脑和精确的计算。