详细解读数据中心的前世今生头条相关
在计算机和网络技术诞生后,数据中心就产生了。早期的数据中心和现在的数据中心当然不可同日而语,已经发生了翻天覆地的变化。当然,美国有句谚语“要跨过一个20英尺的大坑,靠连续两个10英尺的跳跃是万万不能的”,古罗马不是一天建成的,数据中心的发展也不是一天两天就完成的,它有一个漫长的发展历程。随着各种技术的完善,数据中心已经从建设规模、应用场合、普及程度等方面都发生了根本性的变化,那么下面笔者就带大家细细解读数据中心前世今生。
1960年前:ENIAC成数据中心发展雏形
如果我们将数据中心定义为一个包含计算、存储、网络以及有着良好备份支持的小型而又完整功能的基础设施中心,那么无疑ENIAC将可被视作数据中心发展的鼻祖。
ENIAC是Electronic Numerical Integrator And Computer(电子数字积分计算机)的简称,于1946年专为美国弹道研究实验室存储火力表而研制。在当时,没有其他计算机能胜任此重任。该计算机拥有 17468个真空管和7,200水晶二极管, 1,500 中转, 70,000 电阻器, 10,000 电容器,1500继电器,6000多个开关,每秒执 行5000次加法或400次乘法,是继电器计算机的1000倍、手工计算的20万倍。
1960s:数据中心虚拟化技术商业化
不同于真空电子管系统,首个晶体管计算机(TRADIC)在1954年研制成功,但更为高级的商业化系统出现时间则在1960s( 上世纪六十年代),它引领了大型机(比如IBM System系列大型机)实现了突破性发展。大型机主要为政府和军事用途而研制,对环境场地和安全系统有独特要求。随着对系统性能的更高要求,人们逐渐希望能在相同的系统上能提供额外性能支持和资源共享,这样一来,虚拟化技术也就逐渐涌入了人们的视野。
虚拟化的观念得到迅速普及,并且在大型机中的多任务处理机制得到进一步完善。首个得到商业化应用的虚拟化技术在1972 年的IBM VM/370 OS上得到实现。作为数据中心最为重要的技术之一,虚拟化技术的发展同样也可融入到整个数据中心发展历程当中。
1964年:首个超级计算机
1964年,控制数据公司(Control Data Corporation)研制出了世界上首台超级计算机“CDC6600”。该超级计算机也是超级计算数据中心的现代鼻祖,由西摩·克雷(Seymour Cray)为伦斯辐射实验室而设计。
“CDC6600”采用管线标量架构,使用西摩·克雷的小组开发的RISC指令集。在这种架构中,一个CPU交替处理指令的读取、解码和执行,每个时钟周期处理一条指令。它在诞生起至1969年,在西摩·克雷设计出第二台超级计算机之前,一直是世界 上最快的计算机。西摩·克雷也因此被称为超级计算机之父以及世界上最伟大的程序师之一。
1970s:灾难备份横空出世
1973年早期,灾难备份计划开始在大型机环境中涌现,但确保业务持续性实现真正部署却是Sungard。它于1979年构建起世界上第一个灾备中心,为此,公司员工新增至17000名,而且灾备在当时并不是该公司的主要业务领域。
1973年:Xerox Alto微电脑亮相
伴随着英特尔在1971年推出4004处理器,使得微电脑的出现成为了可能。1973年施乐公司Xerox推出了Alto,它是首个将计算机所有元素都结合在一起的图形界面操作系统。为后来信息技术革命和数据中心的发展做出了巨大贡献。
1977年:世界首个商业LAN——ARCnet
ARCNET是1977年由Datapoint公司开发的一种安装广泛的局域网(LAN)技术,它采用令牌总线(token-bus)方案来管理LAN上工作站和其他设备之间的共享线路。ARCNET为4项主要的LAN技术之一,其他三项为Ethernet,token ring和FDDI。 同时,ARCNET也是现在的工业控制中的通讯方法之一。
1980s:PC时代兴起虚拟化应用减少
大型机对于普通用户来说过于昂贵,而且需要占用巨大的场地。随着IBM在1982年推出首个真正意义上的PC 5150,世界各地的公司都开始陆续生产和推广台式计算机。由于众多PC在1980s的时候,都能提供多任务处理,因此在当时的虚拟化应用并不受欢迎。这一状况直到1990s的时候才得到改善。
1990s:互联网和Non-Stop Computing
上世纪90年代中期,互联网出现并对市场产生了巨大影响,也为接下来的十几年数据中心的部署提供了更多选择。随着公司对互联网业务应用的支撑需求,网络连接和协作服务成为了企业部署IT服务的必备选择。网络提供商和主机托管商在成百上千数据中心创建中得到广泛发展,数据中心作为一种服务模式已经为大多数公司所接受。
2000s早期:能耗问题出现
PC的繁荣和数据中心的出现,也带来了一系列问题,比如需要占用更多的场所,增加能耗。早在2002年,数据中心就已经消耗了美国1.5%的能源,并以每年10%的速度递增。每年有500万台新服务器被部署在数据中心,并增加成千上万个家庭所耗费的能源消耗。
为此,数据中心所有者也开始意识到这些问题的严重性,并开始部署更加经济高效、绿色环保的基础设施。2007年,大型数据中心运营商开始采用可循环的能源技术(风能、太阳能等)来支撑数据中心的日常运行。
2007年:模块化数据中心出现
数据中心近年兴起了模块化数据中心这种新形式,它将通常数据中心的设备都部署在集装箱里面,因此又名集装箱数据中心。最有名的包括Sun Blackbox——该集装箱数据中心中的280个服务器都被部署在20英寸柜的集装箱里面,并可被运往全世界各地。
这种数据中心虽然没有传统的数据中心那么招人喜欢的恢弘气势,但它却仅需要传统数据中心1%的建造成本,拥有灵活的机动性,而且能大幅降低部署周期。
2010年及未来:云数据中心
SaaS实现了基础架构带来的计算资源的需求向按需定购模式的转变。该商业模式借助了网络基础架构和数据中心运营商,共同向用户提供大规模增长的数据带宽资源。通过这些资源,可以为用户提供各种IT资源服务。