数据存储产业服务平台

RAID存储的诸多变化(一)

2013年12月18日存储在线报道:在这篇文章中,我们将重点探讨RAID技术当前的状况和它的诸多变体,并且预测未来的发展方向。这包括传统的实施和新增的拓展保护功能如擦除代码等等。 与以前一样,这些方法和其他方法主要被用于传统硬盘和固态硬盘,以提高它们的可用性和性能。

回顾RAID 5和宽条或RAID群组

我们先来回顾一下这个系列的评论文章中的第一部分中所举的一个例子,一个15+1或十六个磁片组成的RAID 5群组。对于某些应用和RAID 5(或RAID 4或6)实施而言,一个15+1宽条或群组可能是足够的。

然而,如果没有镜像或电池保护写回高速缓存(WBC)的话,写数据可能会成为一个特殊的瓶颈。 另一个比较常见的现象是所有的RAID 5实施都会导致超额的写数据IO活动。 虽然硬件或软件领域的某些RAID实施案例会造成超额后端写数据(比如写放大),但这也不是绝对的,特别是在写数据集合能力很强的情况下。

有些使用WBC的硬件和软件实施案例可以将数据集体写在内存(高速缓存)中,从而实现完整宽条写入。与其他的系统相比,这种做法造成的后端写数据活动要相对更少一些。 因此,并非所有的RAID实施都是一样的。同样,正是由于RAID定义显示出一种特别的理论实施方法并不意味着所有的厂商都是以那种方式去实施的。

RAID:额外写入?

因此,RAID是否一定会造成额外写入或写放大呢?

这要看具体的RAID水平来定,在某些情况下,与实施的配置包括数据块或共享区的大小也有关系。例如,RAID 1(镜像和复制)可以同时进行两个或更多的写操作,这就跟把数据拷贝到两个磁盘驱动器的结果是一样的。 除了利用WBC之外,某些实施案例也许会在实时或延时模式下进行写操作。

RAID 1实施方案中的双通道写操作是否意味着写入的数据量可以提高一倍?(如果使用3个磁盘镜像,写入数据量是否会提高2倍?)

那也取决于是否对比没有拷贝保护的单一JBOD。另一方面,在RAID 4、5、6或其他方案中,额外写操作与厂商如何实施硬件或软件的方式也有关系。 因此,在RAID实施中,就存在很多类似于苹果和橘子的对比。这个因素会造成某些荒谬的结果、事实和FUD。

RAID、写操作和固态硬盘怎么样?

那将取决于RAID的水平和厂商的硬件或软件实施情况,以及厂商如何整合固态硬盘损耗均衡以实现耐用性和性能优化的结果。这与是否在服务器、工作站或桌面使用企业存储系统或设备和软件也有很大关系。

因此,某些RAID水平、它们的具体实施以及配置方式都会导致写操作增加,进而增加固态硬盘的损耗。另一方面,有些RAID水平和实施在写集合方面做得比其他方案更好一些,与其他方案相比,它可以与固态硬盘NAND闪存损耗均衡整合以改善工作周期。

平衡性能、可用性、容量和经济性(PACE)

值得一提的其他内容是,虽然15+1或16个硬盘结构的RAID群组的容量对等保护预留空间很小,但是还存在硬盘是否或何时出现故障的问题。根据RAID硬件或软件以及硬盘的类型和容量的不同,在一个较长的重建过程中,RAID集就会暴露出来,有可能出现辅助硬盘或两个硬盘同时出现故障的情况。

因此,在尝试利用大容量硬盘或宽RAID 5配置来削减成本与避免空间容量保护预留量之间有一个平衡的问题。然而,这也打开了潜在的暴露点。

在可选的方案中包括窄RAID 5群组,更可靠和快速的硬盘以便在重建过程中将暴露面降低到最小程度,利用不同的RAID水平比如RAID 6(双对等)或其他方案,具体使用哪种方案将取决于具体的需求和企业关注的问题。此外还有混合增强型RAID解决方案。 例如,有些混合解决方案可以将基础磁盘池当作RAID 6配置的一部分来使用,同时还可以将快速重建与擦除代码对等系统中发现的情况结合在一起。这方面的典型例子是NetApp的E系列Dynamic磁盘池功能,即该方案重建故障磁盘所花的时间只有传统RAID 6解决方案所花时间的一小部分。

由于很多其他的厂商都在RAID实施栈(独立于LUN)下采用了磁盘池或虚拟劵的某种变体,因此即便看到其他的类似功能也不足为奇。

RAID重建的难题

我在使用RAID的过程中和长时间重建过程中看到的问题与技术实施、配置和购买决策都有一定的关系。这些问题通常也会影响到在存储上削减成本的决策。

有趣的是,在支持更多存储容量同时削减成本和保持性能水平不下滑的道路上,我们也许绕着RAID走了一整圈。我发现,RAID最初的一项前提或目标是同时使用多块硬盘来弥补当时的廉价SCSI磁盘在灵活性和可靠性上的不足。 在现实生活中遇到了长时间RAID重建的人经常会谈到使用廉价、大容量硬盘。

虽然在长时间重建特别是基于对等的保护的情况下很容易想到RAID,但是需要考虑的因素也不少。例如,如果使用RAID 1(镜像),那么重建时间应该比使用对等解决方案所需的时间要短一些。 原因是对一块硬盘做全盘镜像或再同步所花的时间要少一些。在基于对等的重建过程中,需要读出现有硬盘上的内容和对等信息,以便为新的硬盘重新生成数据。 使用对等的数据再生所花的时间取决于IO和必然会发生的数学计算。某些实施案例在这方面表现得比另一项案例要好一些,但是在使用基于对等的数据保护方案时,虽然对磁盘容量预备量的要求降低了,但是重建时间会长一些。

导致重建时间太长的还有其他一些原因,包括硬盘的容量、读数据的接口和性能水平、RAID重建或拷贝辅助功能、控制器或软件实施等等。

未经允许不得转载:存储在线-存储专业媒体 » RAID存储的诸多变化(一)