当前位置:首页 > 人物专访 > 正文

姚赟:构建绿色数据中心

2009-10-23 比特网 编辑:石娜

 由国务院国有资产监督管理委员会研究中心与工业和信息化部电子科技情报研究所联合主办,国资委研究中心企业所管理咨询部和国资网联合承办的“2009国资企业CIO年会”于2009年10月22日在北京隆重举办。本次年会的主题是“后金融危机和国企变革挑战下的IT战略”。主管部门领导、近500位国有大中型企业信息化主管领导、知名IT企业代表、广大媒体单位代表莅临本次年会,共同探讨新形势下的信息化战略、思路和举措,分享后金融危机下的国资企业IT投资趋势。以下是捷联集团大中华区执行董事姚赟演讲内容:

  

  捷联集团大中华区执行董事 姚赟 (比特网配图)

  姚赟:各位先生、女士大家好,今天很高兴借这个机会跟大家探讨一下绿色数据中心的发展。

  我一直在机房这个领域也是快20年了,我们是一个机房的供应商,可以做机房供应整体的。我们去年08年数据中心的业务是16亿人民币,我们在有自己的空调厂、发电机厂的同时也有自己的设计和职工。

  根据我这么多年的从业经验,目前做的调查在国资委系统和几个省市中,我们大概做了五个省,32家国资委系统,我们目前的现状以及我们提供的解决方案,以及将来可能的绿色数据中心的趋势。我想从这三个重点来讲一下。

  第一个我想讲一下IDC能耗,这几年IDC的能耗变化相当大的。在讲IDC的时候,就是数据中心的时候,我们走访了几家,主要讲一下能耗的问题。第一个理念Swap理念,目前来说空间比较大、功耗比较大、机房也比较大,我们提出这个最新的概念是Swap概念。如何实现将来的趋势呢?我们把IDC分割成几个单元,这个IDC里面功耗占了几个组成部分,有消防系统、空调系统等等。在这里功耗源,最大的功耗我们把它分成几个功耗,有空调功耗。第二个占整个机房大概是38%左右,还有一个是供电设备,照明占7%,这占整个机房的比例相当大。要完成一个绿色机房,如果没有这几大块的下降,要达到绿色机房的标准是很难的。

  刚才提出了POE的理论,我们现在给国企调查了一下,我们10月份拿了一个数据,普通的要达到1:3,最低在1:2.2,平均值在2点左右。目前我们所倡导的理念多少呢?1:1.8到1:2,也就是说这块的差距,目前我们国企我们做了一些分析,将来目标有这些差异,有30-40%有这样的空间可以做。

  当对服务器的能耗也好,虚拟化、并行、刀片机也好,都是在IT服务商做的工作。作为我们机房行业,尤其是机房设备,尤其是UPS、照明,监控这些厂家能做一些什么东西。目前的话,我们可以做的是全部的服务器,可以做到动态式调整。我们的智能已经不再是单一的风速的,我们完全可以做成随着负荷的变化做成动态,可以满足机房实际的服务器的需求。

  在这个层面上,我觉得我们能做的几个层面。第一,我从供电上讲一下,如果讲供电,我们看到服务器原来的做法是大UPS。冗余系统在机房系统进行大供电,这种供电方式造成了很大的误区,当你的负荷发生变化的时候,当服务器工作的时间运算的CPU工作的量是不一样的。另外他如果到负荷要怎么或者是减少的时候也不能做到动态调整,这时候的供电是成了一个固定供电,成为了固定的调整,这有一个瓶颈。如果我的服务器,我的机房IT的寿命可能就2年,2年之后就要增加新的东西了。我的固化就是固定死了,将来要调整电缆、UPS,这会造成极大的浪费,因为做不了动态的调整。

  我们现在提出了在国内大规模使用,19寸机架的供电,所有的UPS供电系统全部采用机柜式的。这种供电的好处是把集中式供电变为分散式供电。我可以直接安放在服务器机柜,我可以省去大量的电缆。这种UPS本身自己带了自动化配电,它的供电系统直接从变压器直接到服务器,当中没有以前所谓的五大环节。从变压器开始到服务器机上的机电柜。另外全部采用的配置的话,第一可以达到灵活配置,所有的功率和服务器全部放在机架边上,服务器增加了,你要增加UPS。所以它完全可以得到灵活的增长,第二是可靠性比较高,可以做到N+2,我们做到可靠性的冗余。第三个方面是可靠性增加,第四是可用性增加,所有的模块都可以在德国,我刚参加过德国的展览,包括德国大的IT,他全部采用的要所有的电源带休眠作用。我能量可以富裕50、30、40,但他有一个监控的软件,以及他的监控上,他可以自动负荷,如果是50%,这时候他只让你UPS到4多余的供电系统或者是模块,他可以自动做休眠。一旦负荷上去了,会自动的恢复上去,做到不间断。还有一个可用性,可以用到50%,这时候增加了供电的可用性。

  我们通过在绿色的机房里面,供电系统现在的负荷总量,在计算将来量的话,我们可以做灵活配置,我可以多增加19寸机架。举个例子,我们在石油部做最大的机房,大概是三千个服务器机架,每个机架单元的密度达到了23千瓦的功耗。在这时候我们怎么做电源和空调?要是比较复杂,每十个机架要耗掉230千瓦的供电,我们在每十个机架要放这个智能的供电系统,包括安放高密度的空调,我们叫“冰柜式空调”,我们只对高服务器制冷,而不对机房制冷。

  这里面全部要实现动态制冷,重点的话,我们提出了一个叫在线模块UPS。我们可以按不同的需要整合这样的模块,不需要供电的时候,如果负荷量下降的时候,我们可以自动的把一些单元进行休眠。

  除了这个之外,我们再谈谈供电的要求,去年中国成立了数据中心的工作组会,提出了要求对供电的要求。如果数据中心有一个标准的话,对机房的绿色化和供电的污染提出了高的标准,甚至是接近美国的最新的数据中心的标准。我们中国提出的是ABC,国外提出的是一级到四级。我们提出全部要校正,所有的机房谐波和无功损耗都有一个要求,谐波要小于3%,这直接影响到供电损耗。一般机房如果供电的话,按照中兴通讯提出的是5级,变压器再到负荷,所有的无功损耗,可能要几十公里。现在如果是0.999比的话,可以差15到17,这对机房的绿色帮助很大。

  这是目前国际上最流行的单机双总线和并联双总线。另外讲讲空调,空调占了机房的35%,根据国内现在提出的三个机房的类型,一个低密度机房、一个中密度、一个高密度。低密度是8千瓦,中密度15,高密度是大于15。这样的话要维持的动态增长,不能用原来的机房来建设。以前的机房把电铺好了,一旦动态增长的时候,原有的配电站配电都已经浪费了,还有空调。我们要做智能化的19寸的方式,空调也采用了最新的概念叫“机架式的空调”,这是最新的,还有是冰箱直线服务器的,其实是相当于冰箱的状态,你的负荷是23千瓦的时候,我这冰箱里头就生产23到24千瓦的制冷。以前我的比配是1:2.5,如果一个机房一个千瓦的服务器耗电,我需要2.5个千瓦制冷空调的匹配。另外还要做损失在风压100米的组织上,这要做成1:1。

  不同的密度我们有不同的方案,在中密度的时候,我们可以看到在上面相当于一个冰帽式设计。也可以做到最新的放在服务器机架边上,这样的话,直接不需要任何的面板,也不需要任何的空气组织。

  这个大家可以看一下,所谓冰柜式的,我可以做小的,也可以放长到10米,可以放相当多的机架。你可以自己去查你的服务器,直接放到我这样的空调系统里。这种空调我们在国外卖了很多银行,我直接提出这些冰柜,他就放在办公楼、地下室里头,可以把供电系统的UPO插到这个冰柜里头,形成局部的小环境,不再需要机房了。这也就是将来我去完德国、意大利开完研讨之后,2011年左右可能一些厂矿企业不再需要专业的数据中心,中小企业全部采用的是集装箱式的,或者是冰柜式的。其实有的就是10、20个,不再投入相当大的数据中心上,用这样的模式代替将来的发展。这种耗电是最的,他只对冰柜里头的服务器进行供电、制冷,他不会对房间制冷,也不对人制冷。所以这也是在未来可能会产生一个新的变革,两种理论已经提出来了,一种是越高,相当高。上次Google的总工程师提出了一个理论,将来的总公司要么相当大,我这是一个集装箱式的,要么向大型化发展,要么向小型化发展,中型的这个空间将会越来越窄。

  去年我们跟Google合作,在香港搞了数据中心,相当高的密度机房都是这种模式搞的。在2万多平米选用了四种不同的空调制冷模式来应付他的需要。可以看到在这个冰柜里头可以做任何事情,相当于一个小集装箱的概念。

  将来的空调对厂家提出什么要求?第一要数码化,全部带电磁阀,一个机房里头现在是大家各工作各的,没有一个群体化的概念。如果你的负荷我应该增加十几个探头,在机房里有哪个机房需要制冷不那么多,我可以靠到这个机柜,不管100个机架要不要制冷,空调都是同一个转速、风速,这需求没那么大,冷足够的冷了,热还不够热。根据你的负荷量我可以自动调节风压的速度。

  另外我提一下在机房里头真正能省下来的钱,对机房的改造。我们在2006年我们和意大利的一个集团成立了能源管理部。我们给他们要求,国家部委向做了最大的国防科大做的,五年以后连设备和什么都归你了,由我们来投资所有的软件硬件里来对机房的改造。我们的收益是2000万,五年之内我们连设备都改造了。这项目我们在国内做的非常好,改善你的空调治理模式,我们发现最大的隐患是地板。所有机房的地板获得根本不计算面积。机房的开口面积不能太大,目前造成冷热不均匀,要不停的加大风量,加大风机转速,一定要精确计算开口地板,可以做一些计算的。

  按照我们的工程算法,差不多一个机架需要1/3的开口地板。现在欧洲提出了24种,尤其是像德国和意大利要求比较严,也就是说中国现在还是22,有些地方执行的是21。如果温度升高一度,我从22-25度,这比你买什么设备都强。我在清华大学做,我们用的压缩机也没有节省15%来,把室内的温度降一度的话,可以节省15%,这也是对各位领导参考一下。不需要片面的说都是22度,因为新的数据中心要求,国家规范的话,25、22度都是可以的,取决于你们服务器的情况。

  我们在国内最有代表力主推的东西是把室外降低,引到室内去。我举个例子在千岛湖,我们给他做示范工程的时候,我们把他在湖底放一个板块,有一个带动泵,每年湖的水温是18度。所以这种情况下,有一个好处是如何把室外的资源引入到室内来。现在提出新的领域,把室外的温度转到室内之后,现在这种已经很多人在做了,也有美国人,我去过一个机房,他们利用室外的冷对室内进行冷却,有的是通过水卡造成逆循环,直接把热的水带到机房里来。所有的模式都叫自然冷却,把室外的温将下来。

  可以降多少,1000平米的机房,空调全开的话,空调需要耗掉6千个千瓦,这种情况下,只需要泵,如果6组泵的话,只要通过这个循环,它的功耗只有22个千瓦。600多个千瓦的空调用20-30个千瓦的泵,通过冷水之后,用这种技术转嫁过之后,你只需要30-40千瓦,完全可以用室外来循环。

  这是我们在国内跟美的、TCL合作,我们有股份,我们跟他们合作搞了这么一个产品。完全是把室外的冷风引到室内来,我可以直接对200平米机房,可以把室外的冷空气放到室内来。可以加一层过滤系统保证室外的脏的空气不会进来,且也不会影响室内的正压和负压。

  今天抛砖引玉说一些绿色的概念,开关必须用区域分配。通过这个手段,都能使得我们现在机房往绿色机房更靠前一步,再次感谢大家,谢谢。

  (本文根据会议现场实录整理而成未经本人确认)

大家都爱看
查看更多热点新闻