高等级数据中心的规划建设头条相关
摘要:前言:随着电子信息技术的迅猛发展和产业的规范化,人们越来越重视数据中心的规划设计、节能、可靠性。从国家新发布实施的《电子信息系统机房设计规范》GB50174-2008可以看出,规范为新建、改建和扩建建筑物中的电子信息系统机房提供了设计标准,新规范更着重体现节能理念,并首次实现机房分级(A级、B级、C级)。要做好高等级数据中心的规划建设,笔者认为得先对数据中心的基本背景有所了解。
1数据中心的可用性等级
很久以来,用不同等级表示数据中心的可用性一直是业界的标准做法。数据中心的可用性等级参照美国TiA-942《数据中心通讯网络基础设施标准》和《电子信息系统机房设计规范》GB50174-2008如下图所示。
2数据中心的规模与功率密度
数据中心的“规模”,是指其能容纳和支持其运行的IT设备的数量,基本条件如下:
① 基础建筑设施方面,需要相应的运行区域面积和承重;
② 配电系统方面,足够的容量和扩展性;
③ 制冷系统方面,要充足和相应的冗余量;
那么,功率密度=运行区的单位面积的供电和制冷能力的最小值。
IT设备用电量的与日俱增,造成了基础设施的巨大压力。以现在刀片服务器机柜满配时,用电量可高达30Kw,相当于12Kw/m2以上。而在平均用电不断推高的同时,局部高负载“热点”的冷却又成为了新的焦点。
因此,在论及数据中心的规模时,面积已不再是主要的指标,单位面积的供电和制冷能力成为一个标尺。运行面积×功率密度,也就是供电和制冷总量,才是未来衡量数据中心规模的指标。
当前国内数据中心普遍存在的困难和压力:
① 安全等级不足:现有数据中心是多年以前建设或者改建的,未能参照先进的规范标准进行设计和建造,运行中的安全等级不够高,存在诸多风险和隐患。
② 场地面积不足、供电和制冷能力不足:现有数据中心场地已经超负荷使用。无论是在场地面积、供电能力和制冷能力等各个方面,均已不能支持新系统的上线以及原有系统的扩充。
③ 没有建立备份数据中心和有效的备份体系:一旦生产中心出现以外事故,将有可能导致业务的全面停顿。
随着信息技术应用的深化和集中化,数据中心已经成为业务持续保障和信息安全的核心,也成为IT投资费用甚至环境保护的焦点。
3高等级外包服务数据中心的设计要点
数据中心的设计要点可分为以下四个方面:总体设计目标、供配电系统设计、空调系统设计、桥架布线系统的设计。
3.1总体设计目标
·可用性指标
达到行业最高的A级和T4级,以满足用户的要求。
·功率密度
平均至少达到1Kw/m2以上,未来应达到2Kw/m2级别;
支持15Kw-30Kw级别的高负载设备的紧密部署。
·运用部署灵活性
IT运行区:
集中和大开间,以提供弹性部署;
与基础设施分离,以提供多级别的安保措施。
配电和网络布线:
上走线方式,以便于长期使用中的灵活调整性;
可重新部署的末端配电,以支持不同设备的用电要求。
高可用性设计:冗余设计是基本前提
·可用性和冗余设计
a.【任何的】基础设施都需要调查和维护,并且都不能排除故障风险。因此冗余设计是保障高可用性的必要前提。
b.双路、多路并行是冗余设计的基础,但不是全部。冗余设计的深度和方式,才是高可用性的核心。
c.整体可用性=各部件可用性的乘积:
并机数据的增加,将导致并机单元的可用性下降。
【对策】:大功率组件,配合适当的负载分区(缩小负载要求)。
串联数量的增加,将导致串联环节的可用性下降。
【对策】:在每个环节之间安排两路之间的跨接(终止串联)。
·整体可靠性
可靠性=基础设计可用性ד管理成熟度”
“管理成熟度”的参考依据“ISO20000、ISO27001…
功率密度:低密度还是高密度?
·低密度布局只能是不得已的应付策略:
a.以面积换供电和制冷能力:供电/空调以外部分的投资/费用被加大;
b.运行效率下降、成本上升。
·高密度策略是合理的出路,但存在难点:
a.分布式/机柜级系统:在机房多出散布大量的机组
难点:设备运行空间被分割:灵活性下降,对运行管理带来复杂性。
b.采用水冷的分布式/机柜级系统:
难点:水管路系统进入运行区:难以地板下布线;需要有事故排水系统。
c.集中式冷源系统(含风冷和水冷):
难点:庞大的送回风空间需要建筑解构的配合;不便于解决“热点”问题。
·用于外包服务的数据中心的发展方向:
将以集中式水冷冷源为主,并以辅助的分布式/机柜机冷源应对“热点”。
3.2供配电系统设计:
·相对简单的:依据A级/T4级数据中心规范,采取N+N双路冗余设计。
·损耗及线路安全问题:由于用电量极大,设备布局问题需要引起足够重视。
全容错的供配电系统:
3.3空调系统设计
对于高等级数据中心,空调系统的设计最具挑战性:包括极高的制冷要求;集中布局,与IT设备分离,长距离送风等。
应对措施:
·室内部分:
a.使用独立的下送风和上回风方式或者上送风管系统;
b.加大送风层和回风层的高度,以满足高负载、低风速的静压箱条件:
送风层/回风层净高度(mm)≈0.6~0.7×设计平均功率密度(w/m2)
(条件:运行区深30~36m,双向对置)
·室外部分:
室外机的冷却气流的组织同样重要,进行双向对置摆设,以达到合理的冷却要求。
电能使用效率:PUE=(IT设备用电量+辅助设备耗电量)/IT设备用电量。
·通常PUE为2.0~3.0,越接近1越好;
·辅助设备耗电的费用,在相当程度上影响数据中心的运行费用。
辅助设备耗电量中,空调系统通常占据50%以上
·使用风冷系统的数据中心,PUE不可能小于1.8,通常在2.0以上
·风冷系统+自由散热,是成为绿色数据中心的基本条件。
水冷系统带来的设计难点:
·水系统的冗余设计:双管路或环形管路
·事故应急泄水:从屋外到管井、管廊
·供水保障:多水源供应以及蓄水池
4防灾措施
①防震:
·抗震设防参照国家重点设施,比标准设防等级高出1度。
②防火:
·一级耐火等级
·极早期火灾探测、控制中心式自动报警(配GIS)
·分层部署气体灭火(IG541)
③防洪涝灾害:
·百年一遇防洪
·中央机房首层地坪高900-1500mm
④防风害及沙尘害
·两级新风过滤系统
⑤后勤栋与其他各部份完全物理隔离
⑥防人为灾害
·园区四周设置安全缓冲区
·中央机房远离外部设施
·一层外墙为防爆墙设计
以上主要是高等数据中心的规划、设计和管理。随着科技的进步数据中心会更安全可靠、节能、环保。