容灾低碳?重复数据删除在容灾中的应用
2010-06-30 中关村在线
随着当下各行业业务体系的不断快速发展和增多,对信息资产依赖性逐步加强,信息系统面临的威胁和信息系统的脆弱性也在不断的变化,因此,信息系统数据需要我们更加完善的容灾保护手段和专业技术领域方向的指引。灾难恢复策略、灾难备份系统和灾难恢复预案的适用性等灾难恢复的综合需求,也给IT职能部门高层如何构建一个成熟高效的容灾体系,提出了更高要求和挑战。
在整个灾难恢复 disaster recovery(为了将信息系统从灾难造成的故障或瘫痪状态恢复到可正常运行状态、并将其支持的业务功能从灾难造成的不正常状态恢复到可接受状态,而设计的活动和流程) 体系中。尤为重要的两个核心指标是:
●恢复时间目标 recovery time objective(RTO)
暨灾难发生后,信息系统或业务功能从停顿到必须恢复的时间要求。
规范恢复时间目标特指信息系统从停顿到必须恢复的时间要求。
●恢复时间点目标 recovery point objective(RPO)
暨灾难发生后,系统和数据必须恢复到的时间点要求。
如何选取容灾技术,从而达到更高的恢复时间目标(RTO)和恢复时间点目标(RPO),降低灾难给信息系统所造成的直接经济损失和业务影响;如何更加快速、准确、有效的将生产业务数据传输保存至容灾中心,是构建容灾恢复系统的关键,也是我们今天要在此着重讨论和展开的话题。
在以往的技术中,我们通常运用优化网络数据传输和压缩精减数据等方法来达到数据快速传输到容灾中心的目标,而忽略了在当前现实生产系统中存在着大量重复和冗余的数据,如果能将这些大量的重复数据进行删除和削减,再进行项目远程容灾站点的复制传输,将会极大的提高容灾传输线路的效率,而且极大的降低了传输的时间,达到更高的RPO指标。
重复数据删除功能可以由安装至主机的专业软件提供,也可以选用内嵌重复数据删除能力的容灾一体化设备来实现,例如:美国飞康公司的FDS(File Interface Deduplication System)文件精简存放设备和VTL-SIR(Virtual Tape Library-Single Instance Repository)虚拟磁带精简备份设备。使用高级优化hash算法和可选变长的第三代剖析器(Parser)删除重复的文件、数据块和字节,可以大幅减少业务生产数据节点中需要复制数据的90~95%。同时我们可以将“变少”的生产业务数据通过该设备自身的广域网加速能力实现对传输协议和站点间数据交换的优化,使得生产站点和容灾站点间的链路传输更加地高效,最终生产数据被复制到远程容灾站点,从而在面临灾难时,实现生产业务连续性的最大化。经上述具有内容感知能力的数据重复删除技术,我们实现了至少1:20重复数据删除率,不仅在很大程度上节约了容灾传输带宽,而且极大的降低了在容灾体系的建设中对存储空间的需求,使其完满的缩减了IT预算的开支和成本的有效控制。
因此,我们所构建的容灾体系,会使我们今天的IT 便利生活有了更加可靠的保障,也符合社会对绿色环保的低碳生产和低碳生活的关注和追求。