历史与实现 不断演变的数据中心
2009-08-05 IT168
我国的信息化起步于上世纪60年代,到八九十年代进入了大规模的尝试性应用阶段,在2000-2006年,则是信息化建议蓬勃发展的时期,自2006年以来,进入了一个新的阶段:信息化融合,包括“信息孤岛”的整合,数据大集中,服务器整合,多网合一,IT与业务的融合,信息化与工业化的融合等等,而数据中心正是发挥工业化和信息化融合的基石。
数据中心又叫服务器农场(server farm),它用于容纳计算机系统和相关的组件,如通信和存储系统,通常包括冗余的或备用的电力设备,冗余的数据通信连接以及环境控制(如空调,消防设备)和安全设备,是企业信息化的重要基础设施。
数据中心历史漫谈
数据中心的根源来自早期计算机领域巨大的计算机房。早期计算机系统体积非常大,本身就需要占用很大的空间,同时运行和维护也都很复杂,需要在一个特殊的环境中运行,因此需要许多电缆连接所有的组件,如标准机架安装设备,高架地板和电缆盘(或安装在屋顶或架空在地板下)。此外,过去的计算机也需要大量的电力,会产生大量的热量,通过专用的计算机房和冷却系统可以对散热效果进行较好的控制。安全也很重要——那时计算机是很贵的,主要用于军事目的或重要的经济科研领域,因此对计算机的访问受到了严格的控制,比如在我国石油勘探行业就流传着“玻璃房子”的故事,美国为防止早期从美国进口的计算机被用于用事用途,往往派美国人来管控计算机房,中国人上机还需要得到批准才行。因此,专用的计算机房是必须的,这就是数据中心早期机房的雏形。
到了上世纪80年代,微机市场一片繁荣,大量计算机被部署到世界各个角落,但很多时候很少有人关心过对这些计算机的运维要求。然而,随着IT运维变得越来越复杂,数据丢失现象越来越普遍,所有公司开始意识到需要控制IT资源。特别是随着90年代客户端/服务器计算模式的普及,微机(现在叫做“服务器”)开始在过去的机房中寻找它们的位置,使用廉价的网络设备,加上标准的网络布线,人们开始采用分层设计,将服务器单独放在公司的一间特殊的房间中,于是就使用“数据中心”一词表示特殊设计过的机房,大约就是这个时候“数据中心”这个词开始流行开来。
在互联网泡沫期间,数据中心得到了蓬勃发展,公司需要在互联网上建立可以不间断访问的网站,而这要求具有快速和可靠的互联网连接。于是出现了许多互联网数据中心(IDC)公司,这种IDC的建设是非常昂贵的——物理房屋、设备、训练有素的管理人员使得这些大型的数据中心成本非常高。IDC采用了大量的新技术和手段为运维提供了可伸缩的能力,这些做法最后成功迁移到企业的私有数据中心里。
截至2007年,数据中心的设计、建造和运维已经形成了非常规范的规程,如电信行业协会(TIA)等专业机构推出了被行业认可的设计标准。同时,数据中心的一些运行指标也被开发出来,用于评估中断对业务的影响。目前,仍然有大量的操作规程正在开发,而且绿色、节能、环保的数据中心也开始受到大家的广泛关注。
现代的数据中心
IT运维是大多数组织的关键业务,主要关注的问题之一是业务的连续性。公司依靠它们的信息系统运行业务,如果系统无法使用,公司的业务可能遭受影响甚至完全停止,因此有必要为IT业务提供一个可靠的基础设施,尽量减少业务中断的次数。信息安全是另一个值得关注的问题,为此,数据中心需提供一个安全的环境,最大限度地减少安全漏洞。数据中心必须采用高标准建设,确保其托管的计算机环境的完整性和功能性,至少要有冗余光纤和电源,包括紧急备用发电机。
数据中心等级
《TIA-942:数据中心标准概述》描述了数据中心基础设施的要求,最简单的是一级数据中心,基本上就是一个根据基本准则安装计算机系统的机房。最严格的是四级数据中心,其设计目的是托管关键计算机系统,具有完全冗余的子系统和独立的安全区域,通过生物特征识别技术进行访问控制。另一个思路是将数据中心放在地下,这主要是出于数据安全和环境方面的考虑,如冷却要求。
物理布局
数据中心可以占用一个房间、一个和多个楼层或整栋建筑,大部分都是服务器,一般安装在19英寸机柜中,通常布置成一排,每排机柜之间是人行通道,这样人们想要操作机柜前方和后方都很方便,服务器的尺寸大小不同,从1U到大型独立机柜的都有,有些设备如大型机和存储设备本身就是一个柜状物体。一些非常大的数据中心还可能会用到“集装箱”,仅每个集装箱就可以装下1000台甚至更多服务器,当需要维修和升级时,整个集装箱将被替换,而不是修复独立的服务器。
数据中心的物理环境是有严格控制的:
1. 空调用来控制数据中心的温度和湿度,制冷与空调工程协会的“数据处理环境热准则”建议温度范围为20-25℃(68-75℉),湿度范围为40-55%,适宜数据中心环境的最大露点温度是17℃。在数据中心电源会加热空气,除非热量被排除出去,否则环境温度就会上升,导致电子设备失灵。通过控制空气温度,服务器组件能够保持制造商规定的温度/湿度范围内。空调系统通过冷却室内空气下降到露点帮助控制湿度,湿度太大,水可能在内部部件上开始凝结。如果在干燥的环境中,辅助加湿系统可以添加水蒸气,因为如果湿度太低,可能导致静电放电问题,可能会损坏元器件。相比传统设计,地下数据中心的计算机设备在保持冷却的同时消耗的电能可能更少。
2. 现代数据中心尝试使用更经济的冷却系统,比如它们使用外部空气保持数据中心冷却。美国华盛顿州现在有几个数据中心一年中有11个月都是使用外部空气冷却所有的服务器。它们不使用制冷空调,这样可以节约数百万美元的电费。
3. 由一个或多个不间断电源(UPS)和/或柴油发电机组成备用电源。
4. 为了避免出现单点故障,所有电力系统,包括备用电源都是全冗余的。对于关键服务器来说,要同时连接到两个电源,以实现N+1冗余系统的可靠性。静态开关有时用来确保在发生电力故障时瞬间从一个电源切换到另一个电源。
5. 数据中心的地板相对瓷砖地板要提升60厘米(2英尺),这个高度现在变得更高了,是80-100厘米,以提供更好的气流均匀分布。这样空调系统可以把冷空气也灌到地板下,同时也为地下电力线布线提供更充足的空间,现代数据中心的数据电缆通常是经由高架电缆盘铺设的,但仍然有些人建议出于安全考虑还是应将数据线铺设到地板下,并考虑增加冷却系统。小型数据中心里没有提升的地板可以不用防静电地板。计算机机柜往往被组织到一个热通道中,以便使空气流通效率最好。
6. 数据中心的防火系统包括无源和有源设计,以及防火行动执行计划。通常会安装烟雾探测器,在燃烧产生明火之前能够提前发现火警,在火势增大之前可以截断电源,使用灭火器手动灭火。在数据中心是不能使用自动喷水灭火装置的,因为电子元器件遇水后通常会发生故障,特别是电源未截断的情况下使用水灭火情况会变得更糟。即使安装了自动喷水灭火系统,清洁气体灭火系统也应早于自动喷水灭火系统启动。在数据中心还应该安装防火墙,这样可以将火源控制在局部范围内,即便是发生火灾也可以将损失减到最低。
7. 物理安全也是数据中心的重要保护措施,通常仅限于指定人员可以物理访问机柜中的设施,如果是大型数据中心或包含敏感信息的系统,还要使用摄像头进行永久性监控。
网络基础设施
数据中心的通信目前通常是运行在基于IP协议的网络上,数据中心包含一套路由器和交换机在服务器和外界之间传输数据,为保证网络的稳定可靠,往往会提供两个或更多冗余的互联网连接。
数据中心有些服务器用于运行基础的互联网服务和组织内部用户需要的内部网服务,如电子邮件服务器,代理服务器和DNS服务器。
数据通常还需要部署网络安全设备,包括:防火墙、VPN网关、入侵检测系统等,也包括监控网络和某些应用的监控系统,典型的场所监视系统也很普遍,在数据中心内部发生通讯故障时可以快速判断故障位置。
应用
数据中心的主要目的就是运行应用程序处理核心业务和组织的业务数据,这些应用程序可能是直接购买的,也可能是由组织内部自行开发的,常见的应用程序如ERP和CRM系统。这些应用程序可能由多台主机组成,每台主机只运行一个组件,通用组件包括数据库、文件服务器、应用服务器、中间件等。
数据中心也用于异地备份,公司可以订购数据中心提供备份服务,通常使用磁带备份,可以在服务器本地备份到磁带上,但磁带应放在一个安全的位置,同时也要防御火灾和水灾。较大的公司都会进行离线备份以增强备份数据的安全性,当然也可以备份到数据中心,加密备份可以通过互联网传输到另一个可以安全存放的数据中心。
对于灾难恢复,几大硬件厂商都开发了移动解决方案,可在很短的时间内完成进入运行状态,如思科、IBM和惠普公司都开发出了用于灾难恢复的系统。
小结
经过数十年的发展,今天,无论是互联网数据中心,还是企业私有的数据中心,抑或是超级计算中心,都已经日臻成熟,数据中心的设计与构建也日渐规范。不过,数据中心也同样许多前所未有的挑战,比如大量IT资源的高效率管理问题,机房的动态扩展问题,由于电费和环保带来的绿色节能问题,云计算和虚拟化等技术发展带来的全新一代数据中心构想,以及动态IT架构的问题等等。不过,我们相信,未来的数据中心一定会变得越来越智能化,也会越来越环保。