高等级数据中心的规划建设头条相关

2016-06-15    来源:中金数据系统    编辑:罗耀兴
摘要:前言:随着电子信息技术的迅猛发展和产业的规范化,人们越来越重视数据中心的规划设计、节能、可靠性。从国家新发布实施的《电子信息系统机房设计规范》GB50174-2008可以看

摘要:前言:随着电子信息技术的迅猛发展和产业的规范化,人们越来越重视数据中心的规划设计、节能、可靠性。从国家新发布实施的《电子信息系统机房设计规范》GB50174-2008可以看出,规范为新建、改建和扩建建筑物中的电子信息系统机房提供了设计标准,新规范更着重体现节能理念,并首次实现机房分级(A级、B级、C级)。要做好高等级数据中心的规划建设,笔者认为得先对数据中心的基本背景有所了解。

1数据中心的可用性等级

很久以来,用不同等级表示数据中心的可用性一直是业界的标准做法。数据中心的可用性等级参照美国TiA-942《数据中心通讯网络基础设施标准》和《电子信息系统机房设计规范》GB50174-2008如下图所示。

2数据中心的规模与功率密度

数据中心的“规模”,是指其能容纳和支持其运行的IT设备的数量,基本条件如下:

① 基础建筑设施方面,需要相应的运行区域面积和承重;

② 配电系统方面,足够的容量和扩展性;

③ 制冷系统方面,要充足和相应的冗余量;

那么,功率密度=运行区的单位面积的供电和制冷能力的最小值。

IT设备用电量的与日俱增,造成了基础设施的巨大压力。以现在刀片服务器机柜满配时,用电量可高达30Kw,相当于12Kw/m2以上。而在平均用电不断推高的同时,局部高负载“热点”的冷却又成为了新的焦点。

因此,在论及数据中心的规模时,面积已不再是主要的指标,单位面积的供电和制冷能力成为一个标尺。运行面积×功率密度,也就是供电和制冷总量,才是未来衡量数据中心规模的指标。

当前国内数据中心普遍存在的困难和压力:

① 安全等级不足:现有数据中心是多年以前建设或者改建的,未能参照先进的规范标准进行设计和建造,运行中的安全等级不够高,存在诸多风险和隐患。

② 场地面积不足、供电和制冷能力不足:现有数据中心场地已经超负荷使用。无论是在场地面积、供电能力和制冷能力等各个方面,均已不能支持新系统的上线以及原有系统的扩充。

③ 没有建立备份数据中心和有效的备份体系:一旦生产中心出现以外事故,将有可能导致业务的全面停顿。

随着信息技术应用的深化和集中化,数据中心已经成为业务持续保障和信息安全的核心,也成为IT投资费用甚至环境保护的焦点。  

3高等级外包服务数据中心的设计要点

数据中心的设计要点可分为以下四个方面:总体设计目标、供配电系统设计、空调系统设计、桥架布线系统的设计。

3.1总体设计目标

·可用性指标

达到行业最高的A级和T4级,以满足用户的要求。

·功率密度

平均至少达到1Kw/m2以上,未来应达到2Kw/m2级别;

支持15Kw-30Kw级别的高负载设备的紧密部署。

·运用部署灵活性

IT运行区:

集中和大开间,以提供弹性部署;

与基础设施分离,以提供多级别的安保措施。

配电和网络布线:

上走线方式,以便于长期使用中的灵活调整性;

可重新部署的末端配电,以支持不同设备的用电要求。

高可用性设计:冗余设计是基本前提

·可用性和冗余设计

a.【任何的】基础设施都需要调查和维护,并且都不能排除故障风险。因此冗余设计是保障高可用性的必要前提。

b.双路、多路并行是冗余设计的基础,但不是全部。冗余设计的深度和方式,才是高可用性的核心。

c.整体可用性=各部件可用性的乘积:

并机数据的增加,将导致并机单元的可用性下降。

【对策】:大功率组件,配合适当的负载分区(缩小负载要求)。

串联数量的增加,将导致串联环节的可用性下降。

【对策】:在每个环节之间安排两路之间的跨接(终止串联)。

·整体可靠性

可靠性=基础设计可用性ד管理成熟度”

“管理成熟度”的参考依据“ISO20000、ISO27001…

功率密度:低密度还是高密度?

·低密度布局只能是不得已的应付策略:

a.以面积换供电和制冷能力:供电/空调以外部分的投资/费用被加大;

b.运行效率下降、成本上升。

·高密度策略是合理的出路,但存在难点:

a.分布式/机柜级系统:在机房多出散布大量的机组

难点:设备运行空间被分割:灵活性下降,对运行管理带来复杂性。

b.采用水冷的分布式/机柜级系统:

难点:水管路系统进入运行区:难以地板下布线;需要有事故排水系统。

c.集中式冷源系统(含风冷和水冷):

难点:庞大的送回风空间需要建筑解构的配合;不便于解决“热点”问题。

·用于外包服务的数据中心的发展方向:

将以集中式水冷冷源为主,并以辅助的分布式/机柜机冷源应对“热点”。

3.2供配电系统设计:

·相对简单的:依据A级/T4级数据中心规范,采取N+N双路冗余设计。

·损耗及线路安全问题:由于用电量极大,设备布局问题需要引起足够重视。

全容错的供配电系统:

3.3空调系统设计

对于高等级数据中心,空调系统的设计最具挑战性:包括极高的制冷要求;集中布局,与IT设备分离,长距离送风等。

应对措施:

·室内部分:

a.使用独立的下送风和上回风方式或者上送风管系统;

b.加大送风层和回风层的高度,以满足高负载、低风速的静压箱条件:

送风层/回风层净高度(mm)≈0.6~0.7×设计平均功率密度(w/m2)

(条件:运行区深30~36m,双向对置)

·室外部分:

室外机的冷却气流的组织同样重要,进行双向对置摆设,以达到合理的冷却要求。

电能使用效率:PUE=(IT设备用电量+辅助设备耗电量)/IT设备用电量。

·通常PUE为2.0~3.0,越接近1越好;

·辅助设备耗电的费用,在相当程度上影响数据中心的运行费用。

辅助设备耗电量中,空调系统通常占据50%以上

·使用风冷系统的数据中心,PUE不可能小于1.8,通常在2.0以上

·风冷系统+自由散热,是成为绿色数据中心的基本条件。

水冷系统带来的设计难点:

·水系统的冗余设计:双管路或环形管路

·事故应急泄水:从屋外到管井、管廊

·供水保障:多水源供应以及蓄水池

4防灾措施

①防震:   

·抗震设防参照国家重点设施,比标准设防等级高出1度。

②防火:   

·一级耐火等级   

·极早期火灾探测、控制中心式自动报警(配GIS)   

·分层部署气体灭火(IG541)  

③防洪涝灾害:   

·百年一遇防洪   

·中央机房首层地坪高900-1500mm   

④防风害及沙尘害   

·两级新风过滤系统

⑤后勤栋与其他各部份完全物理隔离  

⑥防人为灾害   

·园区四周设置安全缓冲区   

·中央机房远离外部设施

·一层外墙为防爆墙设计

以上主要是高等数据中心的规划、设计和管理。随着科技的进步数据中心会更安全可靠、节能、环保。

1
3