散热模型解决数据中心过热
2010-09-07 千家网
据统计,约有2/3的服务器故障会发生机架最顶部的1/3处,产生这种问题的原因在于机架顶部的服务器出现热点。刀片服务器的高计算密集度导致了单位体积内散热需求量的增加,也是业内备受诟病的话题。但是根据艾默生所提供的数据,与同等数量的1U机架服务器相比,刀片服务器所需要的制冷量非但不增加,反而降低了25%。
为什么艾默生的结论与很多数据中心的结果恰好相反呢?其中,非常重要的一点在于数据中心散热模型的设计,它也是实现新一代数据中心所倡导的绿色节能目标的关键。
据艾默生网络能源中国区副总裁丁麒钢介绍,根据美国环保署向美国国会提交的报告显示,数据中心制冷和电源等辅助支撑设备的能耗,占数据中心总能耗的50%,已经与网络、服务器等设备的运行成本相当。根据著名的机房设计厂商EYP公司(现在已被惠普公司所并购)的数据显示,制冷设备能耗达到了38%,此外,UPS是另外一个耗能的大户,占到了9%。丁麒钢表示,这些都可以通过一定的方法进行减少,以达到节能降耗的目的。
采用高效比空调是数据中心节能的关键,这些空调设备要能够根据机房内热负荷的变化,自动控制机组中空调机的运行数量,在热负荷不高的情况下,应该减少空凋运行的数量,以达到节能的目的。此外,一定要避免同一机房内多台空调机处于相反的运行状态,如制冷/加热、加湿/除湿)。
有关机房的布局对于数据中心节能也至关重要,常见的冷热风通道交替,通过下送风的方式为机架中的IT设备提供制冷。这种自下而上的制冷方式,机架顶部1/3的部分往往制冷不足,容易因为过热而宕机。对此,通过增设置顶的空调设备,就可以提供针对高热机房或机房中的高热区域的散热解决方案。对于传统机房而言,通过下送风方式的改造,与上送风方式相比,工程造价成本降低23%,同时可以节省约29%的电能消耗。
液冷门系统也是目前构建新一代数据中心比较热门的话题。对此,媒体多用水冷系统来表述。丁麒钢指出,水冷的描述不太准确,因为在传统的空调致冷方式中,本来就有风冷、水冷以及乙二醇为致冷液的空调制冷方式之区分。因此,用液冷门系统来描述比较准确,它是在机架上附加一个液冷门,通过制冷液把系统热量带走。与传统方式相比,液冷门没有热气流控制的问题,散热效率更高,同比可以多提供10千瓦设备的散热需求。但是,为机架附加一个液冷门,受承载限制,有些机架难以为继。此外,在新技术的推广阶段,其成本和价格不菲,据悉要增加大约20%的预算。此外,一些行业机房明文规定:水不能够进机房,从而对液冷门推广,带来政策上的障碍。
对于用户而言,究竟采用哪一种解决方案?特别是新建的数据中心是否应该考虑一步到位的液冷门方式,据说这种方式在国外比较盛行。对此,丁麒钢表示还是应该根据实际需要进行选择。“假如你是用户,你会怎么选择?”对此,丁麒钢的回答是:“问题在于,我不是用户。”他表示,不论用户如何选择,作为供应商,都可以满足用户的需要。这就是目前艾默生的策略。
对于数据中心节能,除了空调部分之外,电源效率也是构建新一代数据中心格外需要重视的问题,他指出电源效率不高、谐波污染等都会使电能白白的损失,不利于数据中心的节能。总之,数据中心节能所涉及的技术方方面面,其中也有一些伪节能的方案,对此,应该引起用户足够的重视。