北京电信规划设计院沈立鹏:全面服务共建新一代数据中心
2010-12-23 中国IDC产业联盟
中国IDC产业联盟讯 实现全生命周期管理优化,有效降低数据中心TCO!
由中国数据中心产业联盟主办,中国IDC产业联盟网承办的的“2010中国IDC建设与运维论坛”研讨会于2010年12月22日在北京西单皮库胡同45号山水宾馆召开,出席此次会议的各界代表共计100余人。其中,中国信息协会领导1人、运营商代表15人,行业信息中心代表14人,民营IDC运营商、设备企业与相关机构代表60余人。
以下为北京电信规划设计院主任工程师沈立鹏演讲,题目是“全面服务,共建新一代数据中心”:
沈立鹏:尊敬的各位领导、专家、各位来宾,很荣幸有这个机会代表北京电信规划设计院与大家交流一下我们院在这些年在数据中心建设方面的一些思路、理念,以及一些重要的设计案例。我今天的题目叫“全面服务共建新一代数据中心”。
我想讲三个方面的内容,包括数据中心规划与定位、数据中心设计理念,以及数据中心的设计实例。
对于数据中心的规划设计来说,从我们这么多年立足北京地区,在电信运行商,包括移动、网通,建设数据中心的经验来说,我们认为数据中心建设需要形成一个闭环的管理。也就是说从提出数据中心的标准开始,到规划设计的阶段,需要把这种先进技术和国内这种实际进行有效的结合。同时,通过以往的工程经验和教训的总结,也是非常重要的。采用合理的工艺实现使用的建筑以及网络设计。
通过拓建和网络建设阶段可以交付运行,后期还需要有严格的管理和执行措施,和专业的运营团队,在运行维护中发现问题,同时为今后数据中心的需求、定位以及规划设计提供新的思路。我们认为这种闭环的管理是非常重要的
对于现在的数据中心而言,大家可以看到这种功率密度的增加,是非常超出人们的想象。所以在任何的数据中心前期建设阶段都需要注意,首先整个数据中心面对的哪样的目标客户,是高端的定制的,还是需要制订数据机房,有弹性的。在确定数据中心标准的时候,可能有GB50174、TIA942,可能需要我们寻找到或者说建设单位和运行单位以及设计单位,大家共同探讨适合自己、适合市长的标准。同时,把数据机房建设的面积以及供电以及制冷等三方面最重要的限制因素进行有效的平衡,才能确定非常有效的建筑规模。
我这里也列了现在数据中心的主要规范,有比较早的,也有一些比较新的国外标准。对于50174,在国内来说可能是最有权威性的标准。它的A级标准相当于TIA942的四级标准,B级相当于二级标准,实际上取消了中间的三级标准机房。在与运营商探讨建设数据机房的时候,我们也会看到在整个机房建设当中,从配电到制冷到空调系统的配电,到房屋的机构,以及机房的布置,都有非常多需要仔细探讨的地方。如果简单的按照50174做,可能从建设的成本来说,就会大大超出业主可以承受的范围。
数据中心从设计理念来,无论是从最早APC提出的概念,还是HP提出的概念,实际上都是要把整个机房的电源冷却以及安全等等有机的组合在一起。我们通过这么多年在数据中心设计方面,我们的考虑,主要是在数据机房建设前期,通过工艺设计,强调把业主对于数据机房的设计期望转化为工艺设计的理念。同时,通过一些建筑设计以及贯穿设计始终的节能设计的应用,采用高可用新的设计。
同时,我们也看到随着工艺密度的增加,这种智能系统肯定是数据中心今后发展的重要方面。
在工艺设计理念方面,我们主要想通过模块化的设计,形成一种标准化、简易化的方式,也非常注重工艺设计上的高可用性,还要解决可靠性的问题。同时,在整个机房设计里面,通过采用比较精细设计的模块化的结构,达到节能以及节省空间的效果。
数据中心基础设施的设计关键,第一是与用户确定一个适合市场需求的可能性。同时找到在当前条件下,同时又可以面向未来的适当的工艺密度。在整个设计理念,贯穿始终的是节能的概念,可以优化今后的运营成本。
所以我们认为在数据中心希望达到的设计目标,通过采用优化的工艺设计和模块化的布局,能够实现快速部署的需求。同时,具有高可靠性、适用性,满足不断变化的数据业务需要,同时将最新的设计理念与国内的实际条件相结合,构建安全、成本适当的高可用性数据中心。
我们再介绍几个实例。第一个就是润泽数据中心A-1,它的总建筑面积是32000平米,刚才周总也描述了这个园区非常宏伟的目标。
这是它的一个效果图,是一个非常简洁的外观。我们还是希望以功能性为主,来体现数据中心的价值。在32000机房设计里面,我们优选了四个模组方案,每一个模组大概7500平米,我们确定这个面积,主要是考虑10千伏供电系统的供电能力。因为10千伏供电只能够达到1万千伏安,如果不提高电压等级的话,每一个建筑只能达到这样。如果建设一个大的数据中心,面对未来,供应的基础设施一定要足够。
所以我们每个7500平米,从整个机房的面宽设计上也保证了空调室内机的安装,同时也采用了冷水机组的形式。这7500平米,每个建筑里面它的机房可装机面积大概也在2500平米左右,也是非常方便业主进行出租或者进行销售。
这是我们一个建筑模组化的示意。包括了10千伏的发电机房,也包括了冷水机组的冷冻机房,还包括了变配电机房,我们在设计的时候都考虑到了高可靠性的要求,在物理上完全隔离开。我们1、3模组和2、4模组,可以通过地下管道,实现模组间的转换。在有限的基础条件下,可以达到备用。我通过这种模组间的独立供电,有机的沟通,就可以实现这种T4标准上的形式。
在二层,我们设置了IDC机房,以及配套的机房,同时在二层我们是按照电力机房荷载来设立的,也就保证了动态成长性。哪怕每一个单机柜大大超出现在的功率密度的需求,也可以能够支撑,能够灵活的改变机房的分割条件。
在标准层,我们也设计了IDC机房,在电力机房和IDC机房的配比上,我们也考虑到现在的功率密度的需求。对于电源机房的设计来说,我们对他的面积进行一些倾斜。
从建筑的节能,以及今后对于IT主设备的节能,因为主设备的节能是非常重要的,如果主设备能降低20%的能耗,那你的总能耗也能降低30%,所以这是源头上的节能。同时,还包括电源系统的节能,在关注刚才讲的高压直流的技术。对于空调与制冷来说,我们也是采用了冷却塔自然制冷的技术,可以产生比较好的经济效益。
这种高压直流供电,应该也是未来的发展方向,行业标准这两天也在讨论,可能马上也要发布。电信是走在非常前面的,我们也在关注这一块。
对于数据中心的高安全性设计,我们也在看。一个是整个机房的安全管理,通过各种安防管理措施,实现物理上的屏蔽。
同时,我们也实现的通信管道的环形冗余。可以看到东西两个方向进入通信管道,保证了每个模组都是不同方向的通信路由,在路由也实现了通信路由的隔离。
每一个模组内的制冷机组都是1+1完全备份的,即使一个模组出现了故障,另外两个模组也可以满足这个模组的供应,同时也实现了环形的路由组织。我们考虑每一个7500模组机房采用独立10千伏的供电,第一实现了高可靠性,第二是实现了面向未来的高度弹性的供电保障。同时,每个模组还实现了分层分区的供电,在每个模组间还实现了有机的备份。
可以看到从南北两个方向,10千伏电源进入到这个大楼之后,从两个方向分到不同的模组,每一个模组采用N+1的模式。对于高压来说,并机问题也就解决了。同时,还实现了模组间的互备,如果一个柴油发电机模组失败的话,另外一个模组可以通过路由给另外一个模组供电。
下面介绍另外一个案例。如果业主对于数据机房整体安全性要求不是那么高,我们可以借鉴供电局所谓的在中压电网N-1的原则。三路同时使用,三用两备,可以完全满足重量负荷的供应需要。同时我们也在关注,虽然供电部门是一个比较封闭、比较垄断,转换比较慢的单位,但是我们也在关注,数据中心在一些新的园区有没有可能采用20千伏的标准电压,这样就可以大大拓展我们现有机房的供电能力。
这里也表示了一个三路电源和高压油机的应用,我们采用了6台10千伏的高压油机,同时实现了三路电源供电,我引入了3万的电源容量,就能使用2万的电源容量,这样我的投资就可以有一定的节省。
刚才周总也介绍了他们有先天的优势,同时对于整个热电网的运行体制也是非常熟悉的。我们也在同专业的设计院合作,考虑在一些特殊的项目里面去应用这种孤岛式的三联供项目。我可以把我发出来的电给空调用,同时我发出来的电有一部分预热,可以进入吸收式的空调。这种吸收式的空调可以为机房提供冷源。同时,还可以通过天然气进行补燃。这样的话,我只是把市电作为空调的备用。通过孤岛的模式,我们认为IDC机房,在整个运行维护里面没有太大的问题,可以有效的运行起来,我觉得这个技术是有发展潜力的。
其他的各位已经介绍了很多,就是IDC在空调节能的一些措施。包括气流组织的优化,以及电源系统的选用UPS选用节能型的变压器等等。同时,包括一些传统UPS的方案,我们给它做一些更优化的调整。或者在一些供电等级没有那么高的机房里做一些方案,既降低了投资,也提高了UPS的负荷率,从而提高整个UPS的运行效率。
总而言之,希望通过我们院在IDC机房的长期积累,以及与业主、运营商不断的探索,能够与各位共建先一代的数据中心。谢谢大家!