当前位置:首页 > 行业资讯 > 正文

江苏汉云张珂:无传统空调设备数据中心节能技术

2012-09-26 IDCUN 编辑:IDCUN

  宋家雨:谢谢唐老师的精彩演讲,温度的变化会影响湿度的,要达到一个统一的平衡,捏拿到一个最佳的合适点是很不容易,配合不好会非常的耗能。很多的空调的设计过程中把温度和湿度分开设计,这是一个题外话,接下来的的演讲嘉宾是江苏汉云科技技术有限公司总经理张珂先生,给我们讲无传统空调设备数据中心节能技术。

  张珂:刚才主持人说了不用精密空调,用家用空调吗?实际上我们这边什么空调都不用,那么就有一个问题了,你这个机房怎么样的降温呢?怎么样让服务器在里面安全的工作呢?我们现在使用的方法是全自然风冷的技术。我是江苏汉云科技的总经理,我姓张,叫做张珂。这个汉云科技是去年三月份才成立建设自己的数据中心的,是一个很年轻的公司,我也不是什么技术专家了。所以我在这不是做一个讲课,我只是想把我这一年多自己去研究这个机房节能技术,自己去建这个机房,以及现在的初步运营,我这里中间有一些精力或者是积累了小经验跟大家分享一下,另外现在我还有很多的困惑在我的运营中,也想和大家一起聊一聊,得到一些帮助。


江苏汉云信息科技有限公司总经理张珂


  今天上午包括刚才唐老师和姜老师讲了很多技术方面的东西,我这里当做是一个案例分析,我开始也准备了一些技术的东西,但是也不浪费大家的时间,我统统不讲,我只讲我听了上午几位老师谈的技术之后,我觉得我和他们有一些区别的地方,我来说一说。第一个是我们都说使用新风,新风包括我们刚刚谈的美国的标准,他最重要的标准是新风的温度,或者是说新风进入你这个服务器的入口的温度。

  我觉得这个温度当然是很关键的一个指标了。但是对于我的机房我考虑最多的不是温度,是风速。我们可以设想,你进口的温度比如说20度,但是气流很缓慢的,甚至是说禁止不动,不去穿过服务器,这个CPU的温度带不走,降不了温的。所以我们第一个直接监控CPU的温度,再一个监控服务器的温度,这两点温度我们觉得是OK的,没有问题,CPU在70度,80度以内都可以正常工作。所以我的CPU只要在50度以下我觉得就是OK的。因为我是机房纯风冷,不用任何的空调,所以我的进气的温度可能是35度,37度,今年最高的一天,八月七好的那天是37度。我把这个温度能够控制在我出口的温度,他穿过服务器之后出来的温度是42度,这个时候也是OK的,这个实验是从去年的七月份开始,我们的机房正式建成,现在已经有一年的时间了。整体的运营下来,我们可以把这个温度,我们使用自然冷源的时候,把这个服务器的所在区域的热区的温度控制在室外温度的七度以内。在你室外达到最高的时候,38度的时候,我出口的出气的热风温度是在45度以内,这是经过一年的测试达到的。

  第二个我觉得今天上午咱们专家也谈到了这个空气的洁净度,我们目前的,空气是越洁净越好了,我们目前使用的也是一个中效过滤。但是我现在觉得空气的洁净度,对于我们机房来说,不是一个最重要的指标了,为什么?因为有灰,有硫。我们基本上都是PC机的服务器,一台五千块钱左右,如果这个寿命在24度恒温恒湿环境下可能会用十年,在我这用三四年就报废了,但是我节省下来的电费已经足够我再买一台新的了。或者是说我这个服务器在三四年会有一个更新换代,即便是还是很好的能工作,但是我的客户已经不喜欢了,他说我不租你的服务器了,我要用新的服务器,这个服务器一样是下架的。所以我觉得这个在有效的,我觉得在算成本算下来觉得合理的情况下,可以容忍一定的肮脏的空气。或者是有害的空气,这是我对空气洁净度的认识。第三个是我对服务器的认识。服务器,以前的服务器是很娇嫩的东西。但是随着云计算到来之后,我觉得服务器已经从神坛上被拉下来的,已经不在是当宝贝供奉的东西了。他的价格也不贵,然后坏了就换,这样就可以的。我觉得这是一个在云计算环境下的一个新型服务器的状态。

  因为以前的,这里有技术背景,以前大计算的时候,必须有一台很好的服务器才能够进行运行,现在你有大计算的时候,不用买一台很好的服务器,你买一百台很差的服务器,让他们并行运算,就可以。那么在这种情况下服务器节就没有必要再让他有非常非常好的性能,当然好的性能又带来昂贵的价值,我觉得这是一个服务器的新变化。

  我们看我们机房怎么样来不使用空调的。我们建这个机房的目的是做一个云计算的基础设施平台。最重要的一个特点是必须要便宜。不便宜的话,云应用跑起来以后,要最终卖给你的客户,我们云计算的最终设施平台是为了云应用来做的,云应用是为客户做的,如果租用我的基础设施,使得他必须提价的时候,你的客户不买账,如果客户不买账,你这个前面所讲的一切就没有意义了。

  那么云基础设施平台,想要成本低,最大的是两点要解决,第一个能耗要下来。第二个空间利用率要上去。我们就是想,我怎么样能够让这个能耗更低,空间利用率更高。那么从能耗来讲我们也是通过三个手段。第一个是规范气流分布,使这个空气在里边使用的冷空气置换热量使用的效率更高。第二个,我们这个去利用自然冷源使用的是风冷,第三个使用的是专用的服务器,就是这个比较耐高温的服务器,同质化的服务器,这样的话利于管理,成本也节约,使空调的质量也大幅度的提升。另外一个最大的特点就是易通风。你只要风速足够大的时候,就可以很快的把CPU硬盘或者是主板上元件附近的热量带出去。

  当然,我们也做了一些研究,也申请了一些专利,第一个是说我们气体环流温控,我们怎么样控制这个机槽里面的气体呢。第一个是下送风,冷空调,热通道,以及今天下午讲的从底下送风,我们没有采用,我们采用的是自己设计的小集装箱式的气流规范的方式,为什么用这种呢,我只有用这种方式,才可以产生足够大的风压,然后形成足够快的风速,把我们服务器里面的热量带走。因为做的所有的目的,是为了达到你的商业目的。

  第二个就是说我们使用这个自然风,从外界冷源,利用外界冷风,这个右下角是我们机房设计的平面图,大家可能注意到了,这个机房从外边采用自然风,进入里边的一个主区域,到了主区域里面,里边又形成了一个一个小集装箱,这个风,这个自然风再从集装箱二次循环进入我这个集装箱里边,为我的服务器去制冷。为什么有这么一个设计呢?和刚刚讲的空气尽量的要干净,空气干净必须要通过过滤网,过滤膜,中效过滤之后你风速就降低了,风速降低了以后就没办法对服务器制冷了,我们解决的方案就是说过滤是在最外面,把过滤干净的空气放在里面,然后再用快速的风扇提升风压,这个时候这个地方就不能再过滤了,因为你一旦再过滤的话,速度就会下降。

  第三个是我们自己设计的服务器,这个服务器功效比较低,四核的i3,i5的服务器,一台只有20到30度,密度比较高,一台机架可以装到八十台的密度,同时比较耐高温,50度以下我们做过一年的测试可以完全运行的。综合以上提到的三个技术,可以实现我们自然风冷却。也就是说你把自然风引进来,你要让他有效的把这个服务器里边的产生的热量带走,这个就是我们刚刚所说的第一个技术。你怎么样组织你机房里面的气流,那么第二个,你使用多少的自然风,你要计算它的寒值,计算它的风量,这是我们第二个自然冷源利用的技术,这两个技术都达到的话,你不使用空调的话,你空调里面的温度总汇比室外温度冷的,第二个办法就是把我们的服务器耐高温,但是也无法耐到七十度,八十度,我们就控制到四五十度,这个时候由于大量的空气流动,报纸这个服务器的最热的工作环境,不超过四十度五。

  这是一个设计图,这是我们机房的实景的照片,我们的机房已经运行了,也有客户在使用我们的服务器提供的服务,您看到的这个机房有很多人参观了,看到的第一个印象很奇怪,找不到空调,第二个,找不到服务器,因为一进去以后看到的的是小房子,服务器在哪,打开房子一看服务器在这里。

  这是一台一台的服务器,右上角和左下角这是一个我们机架上装机的诗经图,一排一排,可以装八十台服务器。

  这里有一个小案例,我们帮某一个运营商改造了机房。因为无空调的机房,毕竟现在还是有很多的限制,并不是所有的机房都适合用的。最好的方式是节能技术,加上自然冷源,再加上传统空调三个在一起,尽量少的使用空调,用这种方式节能。这是给电信运营商做的一个项目。这个机房有两层楼,每一层楼有一千两百平米,有大概一千两百台服务器的样子,我们去之前帮他做的测试,他最大的一个问题是整个机房里面的热点分布特别不均衡。空调有17台,空调温度在18度,空调底下的温度就是18度,空调对面有26米左右的宽度。空调对面的服务器的温度已经是到32度了,柱子边上的服务器是32度,机房转角的温度也是32度,我们对两层楼做了温度和湿度的测试,大家可以看到这个机房的温度很不均衡。

  针对这个情况我们做了一些改造,这个工程比较难。因为电信一直在运行者,它在里边,不可以去切割,不可以钻孔,等等有一切的要求,不能断电,不能影响他的正常业务,在这种情况下我们通过了以下的手段来做,我们来看之前的能耗情况,之前的能耗是17台孔,其中有11个压缩机在转。另外六个是只转风扇的,当时的PUE是一个2.54的情况。我们后来进行了第一步改造,上午讲的加冷热隔板,就是冷热气不混流,通过这一个手段可以帮他节省了10%的能耗。也就是说我们改装完了以后就变成了七台压缩机在工作了。现在是改装图。通过冷风道,热通道的建设,集架上所有没有服务器的地方都加上隔离板,把冷热气不产生任何的混流情况,这是修改完了以后的效果图,通过这种方式帮他节省了10%的空调用电。最后形成了一个冷热单独循环的效果。

  改造之前的空调使用的示意图,双圆圈代表空调全部使用,单圆圈是空调部分使用。我们可以看到一月份到五月份,以及十一月份,十二月份空调已经离开了全负荷的状态了,已经是部分的运行。第二个是我们帮他使用了这个自然风冷,帮它添加了新风机,通过这种方式又帮他节省了百分之二十的空调用电。那么,最终它的PUE下降到了1.8。

  那么,最后给他算了一下帐,他自己算的,一年下来两个楼面能够节约接近96万的电费,他很开心,基本上他付的钱,在一年半里面就全部收回来了。前面是我这一年多来做的事情得到的经验和感受跟大家讲一下。下面我再谈一些这种技术的束缚,或者是说我目前遇到的困惑,首先第一个,这个技术是不是所有的地方都可以用,它首先你要不要用这个技术,刚才我在隔壁听讲座呢,都在讲,到底这个第三方运营数据中心有没有前途。有一个主流意见只要你的数据中心足够好,你这个数据中心就可以卖得好,就可以赚大钱,但是我在这个大半年的数据中心的第三方民营的数据中心运营中,我的感受没有那么客观,你有没有这个资质,你要有IDC证的,没有这个证不用谈,做得再好不能做。你和运营商的关系怎么样,你再节能,再低,最后来买的是你的数据中心加带宽,这个时候和运营商的关系搞不好的话。比如说我和运营商关系搞好之前,他给我的价钱和我和运营商关系之后给我的价钱,相差每G带宽的价格相差15倍,你可以想想有多恐怖。

  第二个是观念上,观念上刚刚也提到了这个机房标准,很多人你去跟他讲,你说我这个机房,我能够帮你节能,你和私营企业讲很好讲,我们在常州改造了一个机房民营企业,你只要是前一阵子写下承诺书,每个月节多少电,节不了这么多电,你钱不用给我,他马上就让你做了。但是你和国企和政府机关去谈就不这么谈了,他会说这个不符合标准,首先这个地板没有提升55厘米高,我们要走下空地板,我说那样不经济,他说这是标准,另外说这个温度会有变化,我说这个温度上下变化四五度不会影响服务器,他说这个不标准。让大家把这个节能的观念,真正的使用我觉得还是需要时间的。

  第三个是自然环境,我们建机房,现在的机房是建在江苏,扬州,并且是扬州很偏的地方,扬州的最边上,为什么?也是考虑了那个地方没有工业污染,空气质量非常好,而且扬州的空气一年四季都是我们比较喜欢的。而且你用这个自然冷源的降温技术,这个自然冷源也是必须要考虑的。

  第四个是商业模式,举一个例子,你做自己的机房,你自己的服务器基本上是要同质化的,如果有太多的不同型号的服务器,对于你十台,一百台好管理,对于一千台,两千台是没有办法来管理的。这个时候的运行方式就不能再用现在的传统的托管方式,而是应该用这种云计算的服务器的资源的出租方式,而不是说物业的出租,因为托管方式说白了,我给你一个房子,你自己在里边,自己放过来自己管理机器,但是我们现在改成一种从物业出租变成从资源出租,为了一个方面给物业提供更多的便利,另外个方面只有这样的方法,我们对于一个大型的云计算数据中心才能管得起来。

  第五个是管理水平,如果你的管理水平达不到这种方式的数据中心,我觉得也做不好,我举一个小例子,拿我们给电信运营商做的机房,做完了之后,发现不行,PUE下不来,还是很耗电,为什么?冷风分区有门,那个门的人出出进进,因为是托管方式,客户的技术人员老要进去拆机器,装机器,进去以后门要打开,然后就不关门,这个时候冷热通道就没有意义了,我说你这个不行,你得要求他来关门啊。电信的人说,谁管啊,我们管不住啊。关不了,我们没有习惯关门。怎么办?这种情况下PUE是降不下来的,这个时候我们不得不在门上加弹簧,你打开了以后,就马上合上,这个设计之初根本没有想到。里面的故事还有很多,今天的时间有限,我们就不讲了。

  所以我觉得从政策、观念、自然环境、商业模式、以及管理水平这五点都是很重要的,你想使用一个好技术,绝对不是一个单纯的技术问题,而是一整套的问题。谢谢大家

大家都爱看
查看更多热点新闻