探讨重复数据删除优缺点及去重去容灾备份的影存储与灾备

2010-09-17    来源:论坛    
[导读]本文探讨重复数据删除优缺点,尤其是去重去容灾备份的影响。 如果你是个存储专业人士,你应该熟悉保护时间这个概念。这个时间是指一系列操作所需的时间间隔,也就是从完

  [导读]本文探讨重复数据删除优缺点,尤其是去重去容灾备份的影响。

  如果你是个存储专业人士,你应该熟悉“保护时间”这个概念。这个时间是指一系列操作所需的时间间隔,也就是从完成备份开始直到备份拷贝到达备份站点能够进行灾难恢复的一切操作。在磁带备份的灾难恢复场景下,这包括进行备份,准备备份站点的磁带拷贝并将它们运到备份站点的时间。

  对基于磁盘的灾难恢复来说,这会是进行备份的时间和通过复制将数据转移到备份站点的时间,基于要传输的数据量和可用的带宽,这一时间将会有所变化。对次级磁盘目标进行重复数据删除的最大好处是,它能降低数据量从而允许用较低的带宽进行复制。这使得自动的数据电子化保险库变得更加省时也更便宜。

  我们知道了重复数据删除有好处,那么有什么缺点呢?额外的识别并去除重复数据的过程可能会影响开始备份和开始复制之间的某个地方的性能。备份时的重复数据删除(在线,即在数据写入磁盘之前)将会影响备份的性能,而备份之后进行重复数据删除(后处理)将拖延复制。

  灾难恢复实现之路

  当考虑恢复的时候,数据路径上有两个点需要注意:本地保护点(local protection),生产数据在本地生成备份并可以进行运营恢复的时间;还有就是保护时间(time to protection),它代表拷贝到达远程站点并可以进行灾难恢复的时间。

  具有在线重复数据删除功能的系统——比如Data Domain、HP(StorageWorks D2D备份系统)、IBM(Diligent)和NEC的产品——都鼓吹数据一抵达磁盘就可以立即进行复制的高效,这能保证非常短的保护时间。而后处理方式则有不同的观点,这些厂商,包括ExaGrid系统、FalconStor软件、HP(虚拟带库Virtual Library System)和Sepaton公司,都会指出,如果用全速完成到磁盘的备份,然后在备份窗口之外启动重复数据删除,可以保证备份的服务等级指标(SLAs)。复制的开始时间会有些不同,有些厂商在几分钟之内就开始,而其它厂家会有较大的延迟。

  EMC和Quantum横跨在线和后处理两个阵营,因为他们的产品允许管理员来决定什么时候进行重复数据删除。通过提供这种选择,可以为特定的备份组定义不同的策略。由于每种方式都有其适用的地方,这种灵活性就是件很好的事情了。

  另一个需要考虑的因素是恢复时间。数据被复制到备份站点之后,从复制的灾备副本恢复数据需要多长时间呢?把数据读出来并重建到应用可以使用的状态有多快呢?有些厂家专为此目的而保留未进行重复数据删除的备份副本。这种方式有利于提供更快的恢复,但需要额外的存储容量来保存它。

  这个过程能够加快吗?

  对Symantec公司Veritas NetBackup 6.5的客户来说,Symentec OST(OpenStorage开放存储)功能会有所帮助。当和支持OST的重复数据删除存储系统(Data Domain、FalconStor和Quantum目前通过了认证)一起使用的时候,能够简化创建并管理复制的备份副本、传输备份副本到备份站点以及集中创建基于磁带的长期保留备份的过程。Veritas NetBackup保留写入OST接口磁盘存储设备上的备份相关信息,并对其进行控制。它的“优化重复数据删除”技术能改进在备份站点创建复本的性能。例如,Data Domain——首个具有经认证OST接口的厂家——证明在OST环境中复制性能提高75%甚至更多。

  通过重复数据删除来优化存储容量给业务带来的益处广受赞誉。然而,重复数据删除还能给灾难恢复带来极高的效率。做重复数据删除的投资决定时,除了基于本地重复数据删除和站内运营恢复来评估产品,调查一下产品离站灾难恢复相关的功能也是个不错的主意。

1
3