灾难恢复在软件定义的数据中心时代的重要性绿色数据中心
软件定义的数据中心的神话
托伊戈围绕着软件定义的数据中心进行了非常严肃的发言,他争辩说,软件定义的许多所谓的优势缺乏实质,而虚拟化通常带来的问题与之解决的问题一样多。
“他们梦想回到IBM大型机的时代,但大型机上的标签又想要VMware,而不是IBM。 ”他说。他还概述了供应商所传播的三大关键“谎言”:
虚拟化将解决所有的基础设施问题。
有了集群和高可用性,灾难恢复将不再需要。
尽管在软件定义的数据中心专有的方法有隐式袭击,但供应商是为了客户的最佳利益。
“软件始终是定义着我的基础设施。”托伊戈说。“其何时不是的呢?”
“现在我们有了计算池,网络和存储容量,但是这需要自动化和管理。而且我们发现,传统的数据中心NIST的服务层也具备现在的虚拟化软件定义数据中心软件管理层相同的功能。”托伊戈说。
软件定义的中断存储和网络
托伊戈说,虚拟化所带来的最主要的影响是扰乱了存储和网络。
“软件定义的数据中心并未改变底层的基础设施,”他说。“这只是掩盖了我们的管理能力。硬件仍然是基础,只是我们没有注意对其实施监测。虚拟化的系统是基于解决VMware创造的问题。”
托伊戈指出,例如电力节约和更大的服务器利用率优势,已然被意想不到的存储容量额外成本、增加I/O争用、网络和存储架构拥塞所抵消。
当涉及到软件定义的存储,托伊戈对VMware的VSAN倡议进行了一些抨击,在IT部门花了十年或更多的时间转移到存储共享,造成VSAN只与 VMware工作负载能够有效锁定后,其鼓励回到直接附加存储(DAS)。
软件定义的数据中心灾难恢复
尽管软件定义的数据中心带来了一系列所有的变化,但唯一没变的是自然灾害的存在,托伊戈说,这同时也是本次研讨会的主要焦点。
一场很平常的灾难所带来的后果也是非常糟糕的,他说。
“通常,IT部门都把焦点放在硬件故障或软件修补问题上。使一个日常事件中的不便演变成一场灾难的原因往往就是没有灾难准备,在不恰当的时间发生计划外的中断。”托伊戈说。
“那些制定了连续性计划的数据中心肯定要好于没有制定的。”他补充道。
托伊戈猛烈抨击了站点之间的完全冗余、它们之间具有高可用性和故障转移的假设,而该假设备受软件定义的数据中心和虚拟化的支持者的青睐,他们认为其可以做到灾难恢复冗余。
当然,托伊戈说,高可用性对于数据恢复,重新托管和网络重新连接以及一个自动化的基础设施都是非常好的一件事。
但是,他补充说,鉴于高可用性和现实承诺之间的差距,这也是最难实现的。
“故障转移不会像他们说的那样顺利地发生。一款应用程序所需要的大量数据不只是来自一个地方。这其中有结构化的数据,日志文件,数据库等;而当再次托管时,需要应用程序的工作。在网络重新连接方面也存在问题。”
换句话说,要使其能够工作,你必须花大量的资金来进行创建设置,并不断对其进行测试,确保数据中心之间的平稳过渡。他反问道,难道把这些钱花在用于保证所有的应用程序完全自动化的高可用性方面不更好吗?
“其假定所有的应用程序都是同等重要的,所有的数据都必须通过网络映射,都需要关键任务的一直支持。”托伊戈说。
并非所有的数据都同等重要
相反,考虑到大多数企业距离充分活跃的数据中心故障转移都是遥不可及,托伊戈推荐了一个方法:对数据进行分类,并存储在不同的层。这样,数据就能够根据企业业务的优先级实施恢复。
“应用程序都不尽相同。”托伊戈说。“他们对于企业业务的重要性也都都不尽相同,需要根据其对停机的耐受性进行恢复优先权的制定。”
他的建议包括:
数据的副本和媒介类型反映了数据支持的应用程序、闪存磁盘容量、磁盘性能和磁带的重要性。
数据保护的方式应该与应用程序相匹配。
数据恢复不应该提交用户到特定的硬件平台,再托管应利用最低可能的硬件配置。
重新连接网络应该提供带宽和吞吐量基准。
灾难恢复策略应尽可能容易测试。
灾难恢复能力应允许关键应用程序尽快在预算允许范围内恢复。