使用计算流体动力学降低数据中心冷却成本技术经验
随着服务器密度不断地增长,需要更好的散热效果,这也是数据中必须运用计算流体动力学的由来。
首先数据中心中的大型主机能源效率低下,还会排放出巨大的热量,所以必须制定冷却方案,让机器在正常的温度下运行。大多数情况下,数据中心会使用水进行冷却,但这不是一个好办法,如果电脑有漏电现象与水混合,那么后果将不堪设想。
在分布式计算机架构出现时,这个问题得到了缓解。在每台服务器机箱中内置冷却风扇,针对内部的CPU和存储等关键部门进行冷却,最终达到把热空气排放到外面的目的。但是,一旦把这些服务器都放在数据中心内,会需要提供大量的空气冷却器,通过计算机机房空调(CRAC)和高架地板将热空气抽走。另外,根据不同形式因素的存在,如需要将冷却刀片和“比萨饼”服务器内的热空气抽走时,那么大型轴流风机将不起作用,则需要体积更小的可径流式风扇。
同时,能源价格的上升被数据中心视为一个必要的隐蔽焦点。电力使用效率(PUE),是将数据中心总设备能耗与IT设备能耗做一个比值。如果数据中心机房PUE值大于1瓦特,原因是过量使用外围冷却系统设备。
设备密度和经济驱动力
IT设备能源效率迅速提高,设备密度的大规模增长是难以保证系统经济运行的。
当然,数据中心有多种冷却方案,例如:使用冷热水通道、设施运行在更高的整体温度中和使用自由空气冷却,但这些方法都会出现问题。高密度设备会导致内部热点很难有效冷却。
潜伏在黑暗中一直是工程师多年来经常使用的一种方法。计算流体动力学(CFD)是一个对环境热度进行可视化,然后根据场景来优化方案的系统。在汽轮机和锅炉设计等领域,CFD已经成为一种成熟的方法,但在数据中心还没经常用到这种方法。
为什么CFD不能运用到数据中心中来?这个问题我们必须先看看CFD和数据中心哪些技术可以结合。在数据中心设施出现故障前发现问题,IT团队对此有着浓厚兴趣。因此,在设备突发问题之前,通过采用红外温度传感器发现问题,成为IT团队主要考虑问题。CFD系统可以获得数据中心整体热点来源记录以此来减少误报。
直到现在,IT团队也没有看到这个数据。IT团队认为分享这些数据信息对于已使用传感系统设施的数据中心用处并不大,例如:信息建造模拟 / 管理 (BIM) 系统。然而,数据中心基础设施管理(DCIM)系统来自于Eaton、 Nlyte Software、 Romonet、 Inte、 Schneider Electric和其他一些厂商,这些厂商看到了计算流体动力学可视化和预测如何有效解决IT问题。
但是,在那个时候,IT团队设施仍然是主要的购买DCIM。现在,他们认为DCIM能够找到供应商的解决方案,这是最有意义的。
IT团队如何使用CFD
首先,IT团队发现基线在现有数据中心显示冷却是必需的。能够识别热点意味着他们可以有针对性的冷却,而不是使用一个分散方法,确保数据中心平均温度在一定范围内。许多机构都很惊讶,通过能够节省多少钱作为目标,他们把那些运行的组件进行集中冷却,并且很好地把热量从内部排除。
其次,在优化环境中发现诀窍。例如,它可能会超越现有系统的能力,有效地冷却某机架旋转磁盘。不过,通过横跨两个机架将磁盘分割和安置低能源网络设备的方法处理空间,可以使现有的冷却过程处理热负荷,同样可以避免额外开支。
之后,IT团队将考虑引进新设备。问题是现有的冷却是否能处理额外的100台新服务器,还是可在虚拟环境中开发一个新的存储系统,他们可能在设备到位之前选择最实惠最有效的解决方案。
最后,处理新的体系结构。怎么才能很好地在移动设备上建立自己的机架模块化计算平台,如:Dell vStart、IBM PureFlex 或Cisco Unified Computing System?如果网络扁平化,冷却需要如何改变,尽量利用组织方法?而且,由现有的CRAC与自由空气冷却或其他低成本系统取代会怎样?无论何时需要保证数据中心冷却还是提供高可用性?
CFD一些隐藏技术对于IT团队设施来说发挥了很多作用。虽然技术有些老土,但是CFD应该是现在比较热门的话题。