数据中心设计要点简析
2012-08-30 IDCUN 编辑:IDCUN
针对目前国内数据中心普遍存在的问题,探讨数据中心PUE、DCiE、能耗分布、建设和运营成本等关键问题,并从数据中心规划设计角度,提出新一代数据中心规划设计解决方案。
我国已步入信息时代,企业的业绩和发展战略规划越来越依赖“信息”,企业之间的竞争变成了“信息竞争”。很多企业的数据中心不单是进行日常的数据存储和计算,而是需要支撑整个企业业务系统,一旦数据中心瘫痪,整个企业的研发、生产、销售将面临崩溃。数据中心因企业发展带来的压力也越来越大。
目前国内数据中心普遍存在的问题
a.现有数据中心“超负荷使用”,无论是在场地面积、供电能力和制冷能力等各个方面,均不能满足新系统的上线及原有系统的扩充需要。
b.现有数据中心大多是几年前新建或者改建的,运行中的安全等级不够高,存在诸多风险和隐患,无法满足当前IT技术和数据中心业务发展的需要
c.数据中心运行成本高,规模扩张后随之而来的是能耗支出的大幅增长。2009年中国联通公司全国的数据中心能耗光电费支出就达5.2亿,电费支出中,制冷占的比例超过所有辅助设备能耗的70%,占整个数据中心所消耗电能的40%~50%国内大多数数据中心PUE介于2.5~3.0,能源利用效率低、耗电量大,电费支出超过基础设施建设成本,占据企业IT成本的第二位,与“绿色”、“低碳”理念相悖
d.没有建立备份数据中心和有效的备份体系,一旦出现意外事故,将可能导致业务的全面停顿。
e.扩展不灵活。现有的数据中心一般都是根据当时建筑的条件来划分各类功能分区的,在当时发展前景不明,无法预见企业业务发展变化的情况下,数据中心只能采用小步走,试探性的建设方式,后期逐步调整。因此使用过程中逐渐暴露出数据中心建设周期长、部署密度低、扩容不方便、无法适应新业务等诸多问题
数据中心的几个关键问题
如何认识当前数据中心存在的不足,并在设计上提供解决方案呢?笔者认为应首先了解数据中心的几个关键问题,并在规划设计阶段就解决上述问题。
什么是PUE、DCiE
PUE即能量使用效率,是PowerUsageEffectivenes的简写,是评价数据中心能源效率的一个指标,PUE:数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明数据中心能效水平越高。
DCiE即数据中心基础设施效率,是DataCenterinfrastructureEfficiencv的简写。其值是PUE的倒数。DCiE=IT设备能耗/数据中心总设备能耗×100%。
数据中心建设成本和运营成本
数据中心建设成本中电力设备和空调系统投资比重达到65%。IBM的资料显示,假设一个2000m2的数据中心,其IT设备以每年10%的速度增长,在数据中心寿命20年内运行成本是投资成本的3~5倍,而数据中心运营成本中75%将是能源成本。
数据中心能耗分布
一个PUE为2.0的数据中心电力消耗,当IT设备能耗占50%时,为保证IT设备正常工作环境所需要的空调制冷设备耗电占整个数据中心能耗的38%。由于大多数数据中心中UPS都是工作在10%~30%负载率,UPS的内部损耗率将占整个数据中心的7%。
数据中心机房的能耗第一大户是由服务器、存储设备和网络通信设备等构成的IT设备系统。它们所产生的功耗约占数据中心总功耗的50%左右。其中服务器型的设备功耗为40%左右,另外的1O%功耗基本上由存储设备和网络通信设备所均分。由此可见,IT设备本身的功耗大小决定了整个数据中心的功耗大小。因此,解决数据中心节能降耗问题的关键在于能否正确地选择IT设备,选用真正具有节能效果的IT产品。
数据中心规划设计制约模型
数据中心规划阶段最重要的是IT规划,IT规划是数据中心建设的前提和依据,因为IT系统定位将决定数据中心的等级、建筑空间、信息路由和场地布局等。这是企业决策者和IT规划部门应该首先达成的共识,IBM公司一直倡导“从IT的角度来帮助业主建造数据中心”。这种理念,其成功的案例遍布全球。
影响数据中心规划的还有一个容量因素,即用电容量、建筑空间容量和空调制冷容量。这三个容量从不同方面限制了数据中心的规划方案,把三者之间的关系比喻成三维坐标的不同维度,看似相互独立却互相影响和互相制约。在一个数据中心用电最大容量确定的情况下,就可以根据典型数据中心的特征,或者PUE等得出数据中心IT设备的最大用电量、负荷密度、制冷容量和建筑面积。反之亦然,制冷量影响数据中心气流组织形式、建筑层高、IT设备的选型、机柜的发热密度和IT设备的用电量。如何在确定的制冷量需求下尽可能减少制冷系统对电能的需求是每个设计人员必须考虑的。
数据中心热负荷特点
IT设备散热量大且密度集中,一个5kW的机柜散热面积只有600mmx1200mm,按照一般机房机柜占用房间面积5mz计算,则机房平均散热密度将大于1kW/m。
IT设备散湿量很少,数据机房的散湿主要来自进入机房的维护人员和渗入的室外空气,因此高热量、小散湿量的环境决定机房制冷空调处理空气的过程近似为等湿降温过程。
机房空调送风焓差小、风量大,为防止IT设备结露,需要提高机房空调系统的送风温度。但要保证如此大量的IT设备散热,必然增大通风量,机房空调换气次数(≥30次/h)明显大于舒适性空调的5~10次/h。
新一代数据中心规划要点
新一代数据中心定义为“基于标准构建模块,通过模块化软件实现24h×7无人值守计算与管理,并以供应链方式提供共享的基础设施、信息与应用等IT服务”。新一代数据中心需要利用最新的IT技术、解决方案与服务来实现,如模块化技术、服务器和存储虚拟化、刀片技术、数据中心自动化等
数据中心模块化
所谓模块化数据中心是指每个模块具有独立的功能、统一的输入输出接13,不同区域的模块可以互相备份,通过相关模块的排列组合形成一个完整的数据中心。模块化数据中心包含功能分区模块化和基础设施系统模块化两方面。
功能分区模块化是指每个模块中包含1个数据机房、2个空调区域子模块、1个电力室、1个电池室、1个钢瓶间等子模块,每个模块都能实现独立的功能。
基础设施系统模块化是指合理规划和安排各项信息化基础设施,形成良好的物理环境,使得各种业务、应用系统和数据都能不受约束地实现有效配合。例如从市电引入至机架电源输入端,具备独立的供电能力和输入输出接口,且模块间能实现互相备份的系统称之为一个完整的供电系统模块,这种供电系统称之为模块化供电系统。
数据中心的标准化、模块化技术提高了部署速度。便于合理配置系统结构,其灵活性为数据中心边成长边投资提供了条件,设备的标准化可以实现批量生产并进行预连接测试,提高了设备的交货、安装、系统调试的速度。
数据中心的标准化、模块化在机房扩展时可使IT设备的空间配置达到最佳状态,无需重新对整个系统进行工程设计,在调试时也无需关闭关键设备。模块化组件可热插拔,便于重新排列时重新连接。标准化、模块化技术可以提高数据中心系统的可靠性,减少平均故障恢复时间,也减少了人为的操作失误,提高可用性。图反映了模块化数据中心适应用户的水平增长和垂直增长模式。
业务模式走向虚拟化
在新一代数据中心,所有的服务器、存储设备、网络均可通过虚拟化技术形成虚拟共享资源池,从而更加灵活和充分有效地使用资源。通过服务器虚拟化、存储虚拟化、网络虚拟化、应用虚拟化和数据中心虚拟化等解决方案,不仅可以帮助企业减少服务器数量、优化资源利用率、简化管理,更主要是帮助企业实现动态IT基础设施环境,从而降低成本,快速响应业务需求的变化等。虚拟化是新一代数据中心与传统数据中心的最大差异。
节能服务器、节能存储设备和刀片服务器大量使用
数据中心IT设备是能耗大户,而服务器最大的能耗来自芯片,单颗Intel至强处理器的功耗为80~95W,有的达130W。芯片厂商一改之前提高运算速度的策略,转而增加内核数。即采用多核的X86芯片技术提升处理能力,从而降低芯片数量的增加。因此,在短短几年时间里,我们见证了处理器从2核、4核、6核、8核,直至12核的飞速发展。服务器整机生产厂商纷纷推出各种“绿色”产品与以往服务器相比,当前的服务器无论在性能、计算能力上都可“以一当十”,而能耗在不断降低。
不仅如此,在硬盘、风扇、电源等配件上,节能技术屡有突破:①电源方面,服务器厂商采用高效电源。如戴尔采用智能节能技术,可在性能增加的同时降低能耗。②风扇方面,IBM引入了高效率的双段式对转风扇,它比传统的风扇设计节能40%。③在硬盘方面,机架服务器更多采用的是HDD2.5英寸小硬盘,相比3.5寸大硬盘,有近一半电能的节省。不仅如此,固态硬盘开始在服务器中亮相,与普通HDD硬盘相比,在能耗上,固态硬盘的能耗比HDD硬盘低4/5。
表1展示了IBM一款刀片服务器与1U(U是一种表示服务器外部尺寸的单位,是unit的缩略语,1U=4.445cm)机架式服务器的比较,不但同样的处理能力下占用的机架空间少42%,而且节能44%。
制冷体系从房间制冷转向随需制冷
传统的数据中心一般按照整个数据机房IT设备总的发热量统一考虑制冷系统,称之为“房间级制冷”这种制冷体系只适用于安装机架式或非机架式低负载密度IT设备的数据中心,整个机房的制冷体系需要仔细考虑IT设备负载的分布情况,做好气流组织分析。当机房内增加一列或者单个高密度机柜时,气流组织形式就得重新设计,这种房间级制冷体系适应性稍差,经常会出现局部热点或过度制冷的情况。
新的数据中心制冷方案是随需而变的制冷体系,可以实现房间级、行列级甚至机柜级、服务器级制冷,随IT负载的变化可灵活布置制冷设备,提供不同制冷能力。
垂直送风模式不适应高密度数据中心需要
从垂直送风气流组织形式的数据中心所采用的送风地板参数可知,单块送风地板的极限制冷量是5kW,超过此功率密度的数据中心如果采用垂直模式送风,服务器将因为得不到足够的冷风而强制从顶部抽进回风出现“废气再循环”现象,从而出现机框顶部服务器过热情况。封闭冷通道/热通道实现冷热通道完全隔离的“冷池”/“热池”+下送风模式,可以在原来的制冷能力上再提高40%~100%大于10kW/机柜的负荷密度则需要采用“下送风+“冷池”+导流板+强制送风风机”的综合气流组织模式,或者采用“水平送风”、“液体冷却”等新的数据中心制冷方式。
结语
数据中心工程是涉及多学科的一项复杂工程,作为规划设计者应首先认识数据中心的IT设备及其特点,了解IT技术的发展趋势,才能规划出真正意义上适应未来企业发展需要的数据中心。从“IT的角度”出发规划设计数据中心是解决当前国内数据中心普遍存在问题的捷径。