主存储将会是重复数据删除技术的下一个前进领域,但是这却也可能成为我们在如何更好的优化存储空间这个问题上遇到的最大的分歧点。不过,至少我们会有更多的方法来完全的解决问题,满足增长的存储需求。请记住那些美妙的重复数据删除率吧,因为我们看到的存储备份的现实是,大多数的用户每周都会运行一个完整的备份工作,但是每个周末的数据变化并不大,当然,这并不是主存储所关注的领域。
虽然有一些多余的数据在主存储中,但是其程度与备份系统中的情况并不具有可比性,此外,还有许多更好的技术,也许是比重复数据删除技术更好的解决办法。例如,写入快照可以用于复制数据库的开发工作而不是使用实际的副本,虽然某些存储系统在快照数量增加到一定程度时会有问题,但是快照的数量每年并不会有太大的变化。
同时,有些修改频率较高的数据类型并不适合重复数据删除技术,比如说,被修改的图像文件——一个简单的例子就是消除红眼的照片,但这些图像文件被另存之后,原来的文件往往是被保留的。虽然对于人眼来说,两个图像看起来十分类似,但是对于重复数据删除系统来说,他们看起来是不同的,因此,像Ocarina Networks等公司正在开始提供针对不同的系统数据环境类型而进行具体处理的这类文件的重复数据删除技术。如果在一家企业中有许多这样的数据,那么特定类型的重复数据删除工具能够很容易的以合理的费用减少对存储的需求。
在某些情况下,在主存储中执行重复数据删除技术是有意义的,对于NetApp公司来说尤其是这样,由于其一直是VMware公司的良好的合作伙伴,因此,在用户的主目录中有大量的冗余数据,因此,NetApp为其全线产品都提供了重复数据删除技术。而另一方面,Riverbed也在宣布扩充其在广域网优化上的服务,加入在线的面向主存储的重复数据删除技术,其重点和NetApp一样,都将放在用户目录上。与此同时,Hifn是硬件方面的领导者,已经有产品可以安装在Linux服务器上,从硬件插卡上提供在线的从主存储一直到服务器都有效的重复数据删除技术。
所有的能够进行重复数据删除的数据实际上都能够被描写为半主动数据,没有经常的更新或是过去的存档。积极减少主存储、数据库、电子邮件空间的方法仍然遥遥无期。那些在线压缩解决方案,如来自Storwize公司的产品是一种解决方案,之前有测试表明,其压缩基于NFS的系统上压缩Oracle数据库的时候,系统性并未受到影响,而所需的容量则减少了六成以上,有趣的是,压缩并不会影响重复数据删除的进行,因此重复数据删除解决方案仍然能够在压缩过后奏效。
在存储系统中,压缩活跃的数据然后在删除重复的数据,并最终进行存档可能是一个减少主存储大小最好的解决方式,在实际应用的情况下两种技术已经能够减少95%的存储容量消耗了。
本文作者George Crump是Storage Switzerland创始人。这一网站为存储用户、供应商和集成商提供战略咨询和分析。此前,他是某家公司的CTO,他一直比较关心主存储好重复数据删除技术,之前写有《备份速度不再重要关注长远传输》《如何精简企业主存储上的数据》《如何建立绿色的磁盘到磁盘备份》