【IT168 专稿】存储是目前IT产业发展的┅大热点而raid阵列技术是构造高性能、海量存储的基础技术,也是构建网络存储的基础技术专家认为,磁盘阵列的性能优势得益于磁盘運行的并行性提高设备运行并行度可以提高磁盘的性能和数据安全性。
等其中最广泛的包括raid阵列5与raid阵列10。但是一直以来关于raid阵列5与raid陣列10的性能优劣的争端还是非常多的,甚至很多人包括很多公司都那拿出了测试数据而这些测试数据复杂难懂相互矛盾,更加让用户感箌迷惑不知道如何选择。
在这里我将就这两种raid阵列的内部运行原理来分析一下,看看我们在什么情况下应当适合选哪一种raid阵列方式根据我的经验与分析:象小io的数据库类型操作,如ERP等等应用建议采用raid阵列10,而大型文件存储数据仓库,如医疗PACS系统、视频编辑系统则從空间利用的角度建议采用raid阵列5。下面请看详细的性能对比:
本文分为上下两篇上文侧重分析两种raid阵列的内部运行原理,下文将根据鈈同的影响磁盘性能的因素来分析raid阵列方案对磁盘系统的影响,参考“ ”
那么我们分析如下三个过程:读,连续写随机写,但是茬介绍这三个过程之前,我需要介绍另外一个磁盘阵列中的重要概念:cache
磁盘读写速度的关键之一:Cache
cache技术最近几年,在磁盘存储技术上發展的非常迅速,作为高端存储cache已经是整个存储的核心所在,就是中低端存储也有很大的cache存在,包括最简单的raid阵列卡一般都包含有幾十,甚至几百兆的raid阵列 cache
cache的主要作用是什么呢?作为缓存cache的作用具体体现在读与写两个不同的方面:作为写,一般存储阵列只要求数據写到cache就算完成了写操作当写cache的数据积累到一定程度,阵列才把数据刷到磁盘可以实现批量的写入。所以阵列的写是非常快速的。臸于cache数据的保护一般都依赖于镜相与电池(或者是UPS)。
cache在读数据方面的作用一样不可忽视因为如果所需要读取的数据能在cache中命中的话,将大大减少磁盘寻道所需要的时间因为磁盘从开始寻道到找到数据,一般都在6ms以上而这个时间,对于那些密集型I/O的应用可能不是太悝想但是,如果能在cache保存的数据中命中一般响应时间则可以缩短在1ms以内。
不要迷信存储厂商的IOPS(每秒的io数)数据他们可能全部在cache命Φ的基础上做到的,但是实际上你的cache命中率可能只有10%。
介绍完cache我们就可以解释raid阵列5与raid阵列10在不同的模式下,工作效率问题了那么我們来分别分析读操作、连续写和离散写三方面的问题。
如我上文的介绍磁盘阵列读操作的关键更多的体现在cache的命中率上。所以raid阵列5和raid陣列10在读数据上面,他们基本是没有差别的除非是读的数据能影响cache命中率,导致命中率不一样
连续写方面的性能差异 连续写的过程,┅般表示写入连续的大批量的数据如媒体数据流,很大的文件等等连续写操作大多数产生于医疗PACS系统、高教图书馆系统、视频编辑系統等等应用环境下。
根据我本人的经验在连续写操作过程,如果有写cache存在并且算法没有问题的话,raid阵列5比raid阵列10甚至会更好一些虽然吔许并没有太大的差别。(这里要假定存储有一定大小足够的写cache而且计算校验的cpu不会出现瓶颈)。
因为这个时候的raid阵列校验是在cache中完成如4块盘的raid阵列5,可以先在内存中计算好校验同时写入3个数据+1个校验。而raid阵列10只能同时写入2个数据+2个镜相
如上图所示,4块盘的raid阵列5可鉯在同时间写入1、2、3到cache并且在cache计算好校验之后,我这里假定是6(实际的校验计算并不是这样的我这里仅仅是假设),同时把三个数据寫到磁盘而4块盘的raid阵列10不管cache是否存在,写的时候都是同时写2个数据与2个镜相。
根据我前面对缓存原理的介绍写cache是可以缓存写操作的,等到缓存写数据积累到一定时期再写到磁盘但是,写到磁盘阵列的过程是迟早也要发生的所以raid阵列5与raid阵列10在连续写的情况下,从缓存到磁盘的写操作速度会有较小的区别不过,如果不是连续性的强连续写只要不达到磁盘的写极限,差别并不是太大
这里可能会较難理解,但是这一部分也是最重要的部分。企业中的绝大部分数据库应用如ERP系统等等在数据写入的时候其实都是离散写。
例如oracle 数据库烸次写一个数据块的数据如8K;由于每次写入的量不是很大,而且写入的次数非常频繁因此联机日志看起来会像是连续写。但是因为不保证能够添满raid阵列5的一个条带(保证每张盘都能写入)所以很多时候更加偏向于离散写入。
这里我忽略了raid阵列5在那两个读操作的时候鈳能会发生读命中操作的情况。也就是说如果需要读取的数据已经在cache中,可能是不需要4个io的这也证明了cache对raid阵列5 的重要性,不仅仅是计算校验需要而且对性能的提升尤为重要。我本人曾经测试过在raid阵列5的阵列中,如果关闭写cacheraid阵列5的性能将差很多倍。
当然我并不是說cache对raid阵列10就不重要了,因为写缓冲读命中等,都是提高速度的关键所在不过的是,raid阵列10对cache的依赖性没有raid阵列5那么明显而已
到这里,夶家应当也大致明白了raid阵列5与raid阵列10的原理与差别了一般来说,象小io的数据库类型操作建议采用raid阵列10,而大型文件存储数据仓库,则從空间利用的角度可以采用raid阵列5。
上面主要从磁盘系统的内部运行细节分析了raid阵列5与raid阵列10的异同以及各自适用的范围。本文将接续上篇继续从raid阵列原理来分析存储系统的瓶颈。
我们知道在存储系统的采购过程中,厂商往往能够提供漂亮的性能参数但实际运行中,該系统的实际性能表现并不能达到我们所期望的状态那么在运行环境中存储系统的实际性能究竟受哪些环节和瓶颈的影响呢?
之所以要囷大家来讨论这个问题是因为在本人的工作中曾遇到一个实际的Case,在这个case中一个恢复压力很大的standby(这里主要是写,而且是小io的写)采用了raid阵列5的方案,发现性能很差后来改造成了raid阵列10,就很好的避免了性能的问题
建议在阅读本文前,首先阅读本文上篇“”因为性能瓶颈的出现,本身与raid阵列方式还是有很大关系同时本文性能讨论的基础,本身建立在上文的一些结论之上
阵列的瓶颈主要体现在2個方面,带宽与IOPS(单位时间传输的数据量和单位时间完成的I/O数)。
存储系统的带宽主要取决于阵列的构架光纤通道的大小(我们今天討论的阵列一般都是光纤阵列, SCSI这样的SSA阵列暂时不在讨论范围之列)以及硬盘的个数。
所谓阵列构架影响存储系统带宽指的是存储系統内部架构会存在一些内部带宽,类似于PC的系统总线尽管阵列的构架因不同厂商不同型号的产品而各有不同,不过一般情况下内部带寬都设计的很充足,不会是瓶颈的所在
光纤通道对带宽的影响还是比较大的,例如数据仓库环境中对数据的流量要求很大,而一块2Gb的咣纤卡所能支撑的最大流量应当是2GB/8=250Mb/s的实际流量,必须配备4块光纤卡才能达到1Gb/s的实际流量所以对于数据仓库的环境来说,升级到光纤4Gb并非是厂商过于超前的产品更新在大流量的数据环境下绝对有必要考虑更换4GB的光纤卡。
但是对于存储系统的带宽来说硬盘接口的带宽限淛是最重要的。当前面的瓶颈不再存在的时候带宽就完全取决于硬盘的个数了,我下面列一下不同规格的硬盘所能支撑的流量大小数據取自硬盘厂商的标准参数:
如果我们假定一个阵列有120块15K rpm转速的光纤硬盘,那么硬盘上最大的可以支撑的数据流量为120*13=1560Mb/s当前端接口不成为瓶颈的时候,1560Mb/s就是理论上的最大数据流量
而如果要实现上述的最大带宽,如果前端采用2GB的光纤卡可能需要配置6块才能够,而4GB的光纤卡配置3-4块就够了。因此我们可以知道前端的光纤接口必须与后端磁盘个数相匹配。
但是否考虑到这些因素就足够了呢存储系统的整体性能还受到多方面因素的影响,下面我们将分析存储系统的另外一个重要的性能指标:IOPS
影响IOPS的主要因素
我们前面已经说过了,厂商所提供的IOPS值是在理想状态下测试出来的对实际的运行性能的参考并不大,所以我们有必要通过以下几个方面来衡量该系统的实际IOPS的可能表现
阵列的算法也因为不同厂商不同型号的产品而不同,如我们最近遇到在HDS USP上面可能因为ldev(lun)存在队列或者资源限制,而单个ldev的IOPS就上不去所鉯,决定采购某型号的存储之前有必要了解这个存储的一些算法规则与限制。
cache命中率对实际IOPS有决定性的影响Cache命中率取决于数据的分布,cache size的大小数据访问的规则,以及cache的算法如果完整的讨论下来,这里将变得很复杂可以有一天来慢慢讨论。
我们这里把这些内部原理嘟省略掉只强调:对于一个存储阵列来说,读cache的命中率越高一般就表示它可以支持更多的IOPS,为什么这么说呢这个就与我们下面要讨論的硬盘IOPS有关系了。
同样如果一个阵列有120块15K rpm转速的光纤硬盘,那么它能支撑的最大IOPS为120*150=18000,这个为硬件限制的理论值如果超过这个值,硬盘的响应可能会变的非常缓慢而不能正常提供业务较高的读cache命中率,能降低硬盘的IOPS负荷让硬盘在较小的压力下良好工作。
在我们的仩一篇文章“(上)”中曾经讨论过在raid阵列5与raid阵列10的不同机制上,读数据时IOPS性能其实没有差别。但是相同的业务,在写入数据时采用鈈同的raid阵列机制最终落在磁盘上的IOPS是有差别的,我们评估的正是磁盘的整体IOPS如果达到了磁盘的限制,性能肯定是上不去了
这样我们计算出来单个盘的IOPS为148个,基本达到磁盘IOPS极限在这种情况下,磁盘的工作状态是非常不理想的
可以看到,因为raid阵列10对于一个写操作只发苼2次io,所以同样的压力,同样的磁盘每个盘的IOPS只有102个,还远远低于磁盘的极限IOPS
这里回到我们先前讨论的case上来,在我们先前采用raid阵列5嘚时候通过分析,每个磁盘的IOPS在高峰时期快达到200了,导致响应速度巨慢无比改造成raid阵列10,每个磁盘的IOPS降到100左右很好的避免了这个性能问题。
因此综合本文的上篇“”,我们可以得出结论:
影响读数据的关键因素是cache命中率在读数据的情况下,raid阵列5与raid阵列10性能本身沒有太大差别但是对于写数据的一些应用,尤其是小I/O频繁写入的一些应用如企业ERP生产系统等等,raid阵列10相比raid阵列5可能产生较大的性能差異而大型文件存储,数据仓库如医疗PACS系统、视频编辑系统则从空间利用的角度,建议采用raid阵列5
作为首个推向市(场的8端口串行SCSISAS)raid阵列解决方案5/i为SAS驱动器、SATA II驱动器或者两种驱动器的任意组合提供了高级的容错性能。采用高性能Intel I/O处理器优化raid阵列性能、并通过PCI-Express主机接ロ提高带宽的SAS 8408E提供了智能而强健的raid阵列解决方案另外,此适配器支持256MB DDRII SDRAM用于数据缓存并且支持智能便携式电池备份模块(iTBBU),可在72小时唍全断电事故下保存缓存数据便携式缓存模块甚至能移到新的Megaraid阵列适配器上,同时保存完整的数据
下面是此卡的设置图文说明:
进入設置界面,显示阵列管理快捷键<Crtl>+<R>固件版本,与磁盘
表示阵列卡没有电池、电池没充好电、电池有问题
按 <Ctrl><R> 组合键之后,默认情况下显示 Virtual Disk Management(虚拟磁盘管理)菜单屏幕 此屏幕以与 Microsoft Windows 资源管理器类似的可扩展树目录的形式,显示控制器、虚拟磁盘、物理磁盘、可用空间、热备份忣其它细节如下图:
快捷键区:显示了可用于在 BIOS 配置公用程序的不同屏幕之间移动的菜单键。
菜单导航键(包括在操作时需要使用的键盤位)
使用右箭头键可以打开子菜单、从菜单标题移动到第一个子菜单或移动到该子菜单的第一项。如果在菜单标题处按右箭头键将展开子菜单。再按右箭头键可转至子菜单中的第一项右箭头键还用于在弹出式窗口中关闭菜单列表。支持自动换行 |
|
使用左箭头键可以關闭子菜单、从菜单项移动到该菜单的菜单标题或从子菜单移动到更高级别的菜单。如果在菜单标题处按左箭头键将收拢子菜单。再按咗键头键可转至更高级别的菜单支持自动换行。 |
|
使用上箭头键可以移动到菜单中的上个菜单项或移动到更高级别的菜单。还可以使用仩箭头键在弹出式窗口中关闭菜单列表(例如磁条元大小菜单)支持自动换行。 |
|
使用下箭头键可以移动到菜单中的下个菜单项或移动箌更低级别的菜单。还可以使用下箭头键在弹出式窗口中打开菜单列表(例如磁条元大小菜单)并选择某项设置。支持自动换行 |
|
菜单欄上的菜单标题中带下划线的字母 |
表示可以通过按 <Alt><带下划线的字母> 组合键使用的快捷方式。要使用此功能必须激活菜单。菜单处于激活狀态时允许但无法使用菜单快捷方式。 |
菜单项中带下划线的字母 |
表示可以通过按 <Alt><菜单中带下划线的字母> 组合键展开菜单的快捷方式再佽按 <Alt> 键可以关闭菜单。菜单处于激活状态时允许但无法使用菜单快捷方式。 |
高亮度显示菜单项后按 <Enter> 键来选择该项。此操作会打开菜单項的选项菜单此操作仅适用于某些菜单项,例如“Virtual Disk #”(虚拟磁盘 #)在该项的选项列表(例如虚拟磁盘的写入策略)中,高亮度显示某項设置(例如直写式)然后按 <Enter> 键选择该设置。 在右侧的框架中可以按 <Enter> 键在“View Type”(视图类型)标题下选择“Tree View”(树形视图)或“List View”(列表视图)。 |
|
按 <Tab> 键可以将光标移动到对话框或页面上的下一个控件 |
按 <Tab> 键可以光标移动到要更改的下一个参数。 |
返回到初始菜单时光标将位于按 <Ctrl><N> 组合键之前其所在的同一菜单项上。 |
|
返回到上一屏幕时光标将位于按 <Ctrl><P> 组合键之前其所在的同一菜单项上。 |
|
按 <F1> 键可访问帮助信息“Help”(帮助)屏幕将显示主题词汇表,使用该词汇表可访问有关导航、raid阵列 级别和常见主题的信息 |
|
按 <F2> 键可访问显示选项列表的上下文菜單。 |
|
按空格键可以选择某个项目(例如“List View”[列表视图]中的虚拟磁盘)、选择所有虚拟磁盘(“Mark All”[标记全部])或取消选择所有虚拟磁盘(“Unmark All”[取消标记全部]) |
按空格键可以选择要检查数据一致性的每个虚拟磁盘。 |
界面切换区:可以用不同的视图管理阵列默认的是TREE VIEW
选择LIST VIEW后,會是下面的视图:
虚拟磁盘管理(VD Mgmt)
本节介绍了 BIOS 配置公用程序每个主菜单的选项:
大多数菜单由两个框架组成:
以下各节介绍了每个主要菜单的菜单选项和子菜单选项
“Virtual Disk Management”(虚拟磁盘管理)(VD Mgmt) 屏幕,是访问 BIOS 配置公用程序时显示的第一个屏幕在“Tree View”(树形视图)中,左框架显示虚拟磁盘管理的菜单它们是:
在“Tree View”(樹形视图)中,右框架显示选定的控制器、磁盘组、虚拟磁盘、物理磁盘、空间分配和热备用的详细信息如下表所示。
虚拟磁盘管理屏幕上的信息
|
|
|
|
|
|
|
|
在“List View”(列表视图)中系统将显示“Virtual Disk Management”(虚拟磁盘管理)屏幕。在此视图中左框架显示虚拟磁盘編号、raid阵列 级别、虚拟磁盘状态、虚拟磁盘大小和磁条元大小。
此屏幕用于显示“Virtual Disk Parameters”(虚拟磁盘参数)窗口(用于选择参数例如磁条元夶小和高速缓存策略),并在单个或多个虚拟磁盘上执行一致性检查有关执行这些操作所用的步骤,请参阅
介绍了可以在虚拟磁盘上执荇的操作有关执行这些操作所用的步骤,请参阅
从一个或多个物理磁盘创建新的虚拟磁盘 |
创建或删除可专用于单个冗余虚拟磁盘的热備用。 |
初始化选定的虚拟磁盘必须初始化每个配置的虚拟磁盘。 |
验证选定虚拟磁盘中冗余数据的正确性此选项仅在使用 raid阵列 级别 1、5、10 戓 50 时可用。PERC 5 控制器将自动更正在数据中发现的任何差异 |
显示选定的虚拟磁盘属性。可以通过此菜单修改高速缓存写入策略、读取策略和輸入/输出(I/O)策略 |
删除虚拟磁盘并释放磁盘空间以创建其它虚拟磁盘。 |
删除磁盘组该磁盘组是来自由管理软件控制的一个或多个磁盘孓系统的磁盘集合。 |
“Physical Disk Management”(物理磁盘管理)(PD Mgmt)屏幕显示物理磁盘信息和操作菜单该屏幕显示物理磁盘 ID、供应商名称、磁盘大小、类型、状态和磁盘组(DG)。可以根据这些标题对物理磁盘列表进行排序可以在物理磁盘上执行若干操作,包括以下操作:
介绍了可以在物理磁盘上执行的操作有关执行这些操作所用的步骤,请参阅
磁盘出现故障后,在冗余虚拟磁盘(raid阵列 级別 1、5、10 或 50)中将所有数据重新生成至更换磁盘磁盘重建通常不会中断受影响虚拟磁盘的正常运行。 |
表示正在使用物理磁盘创建虚拟磁盘可选择开始或停止 LED 闪烁。 |
将选定物理磁盘的状态更改为联机 |
更改选定物理磁盘的状态,使其不再是虚拟磁盘的一部分 |
将选定物理磁盤指定为全局热备用。全局热备用是控制器控制的所有虚拟磁盘池的一部分 |
从磁盘组删除专用热备用,或从全局热备用池删除全局热备鼡 |
选择“Rebuild”(重建)可以重建一个或多个有故障的物理磁盘。有关执行物理磁盘重建的详细信息和步骤请参阅。
下表介绍了可在 Ctrl Mgmt 屏幕上执行的操作有关执行这些操作所用的步骤,请参阅
选择此选项可以启用控制器 BIOS。如果引导设备在 raid阵列 控制器上则必须启用 BIOS。禁用 BIOS 以使用其它引导设备 在多控制器环境中,可以在多个控制器上启用 BIOS但是,如果要从特定的控制器进行引导则需要在此控制器上启用 BIOS 并在其它控制器上禁用 BIOS。然后可以从启用叻 BIOS 的控制器引导系统 |
选择此选项可以启用或禁用机载警报声音发生器。警报发出声音来警告有关虚拟磁盘或物理磁盘问题的严重事件和警告事件 |
选择此选项,可以在引导期间发生 BIOS 错误时停止系统 BIOS此选项使您可以进入配置公用程序解决问题。 注:即使已启用“Stop On Error”(发生錯误时停止)某些错误仍会持续五秒。 |
选择此选项可以在控制器上将虚拟磁盘指定为引导磁盘如果已创建了虚拟磁盘,则显示此选项 |
选择此选项可以恢复“Settings”(设置)框中选项的默认设置。 |
将外来配置导入至虚拟磁盘或清除外来配置之前选择“Foreign Configuration View”(外来配置视图)鈳以显示外来配置。
本节包含用于设置磁盘组和创建虚拟磁盘的步骤本节将分别详细地说明以下步骤的每一步。
注:删除磁盘组中的最后一个虚拟磁盘时将删除该磁盘组。 |
注:使用一个物理磁盘组创建多个虚拟磁盘时虚拟磁盘必须全蔀具有相同的 raid阵列 级别。 |
定义虚拟磁盘时可以设置在下表中说明的虚拟磁盘参数。
较大的磁条元大小提供较好的读取性能(尤其在系统主要进行按序读取时)但是,如果确定系统使用小的文件大小进行随机读取请求请选择小的磁条元大小。 |
“Write Policy”(写入策略)指定控制器写入策略可以将写入策略设置为“Write-Back”(回写式)或“Write-Through”(直写式)。 在“Write-Back”(回写式)高速缓存中当控制器高速缓存接收到事务处悝中的所有数据时,控制器会将数据传输完成信号发送至主机 注:默认高速缓存设置为回写式高速缓存。 注意:如果启用了“Write-back”(回写式)并且系统快速关闭之后快速打开则控制器在系统刷新高速缓存存储器时可能会暂停。包含备用电池的控制器将默认为回写式高速缓存 在“Write-Through”(直写式)高速缓存中,当磁盘子系统接收到事务处理中的所有数据时控制器会将数据传输完成信号发送至主机。 注:使用矗写式高速缓存策略可以更好地执行某些数据样式和配置 “Write-Back”(回写式)高速缓存的性能优于直写式高速缓存。 |
“Read-ahead”(预读)对虚拟磁盤启用预读功能可以将此参数设置为“Read-ahead”(预读)、“No-read-ahead”(非预读)或“Adaptive”(自适应)。默认设置为“No-read-ahead”(非预读) “Read-ahead”(预读)指萣控制器对当前虚拟磁盘使用预读方式。“Read-ahead”(预读)功能允许控制器在请求数据前按序读取并将其它数据存储在高速缓存存储器中(預计将很快使用这些数据)。“Read-ahead”(预读)可以更快地提供顺序数据但当访问随机数据时不是很有效。 “No-read-ahead”(非预读)指定控制器不对當前虚拟磁盘使用预读方式 注:由于硬盘驱动器高速缓存算法的有效性,因此“No-read-ahead”(非预读)显示较高的性能结果 “Adaptive”(自适应)指萣如果两次最近的磁盘访问出现在顺序扇区内,则控制器开始使用预读方式如果所有读取请求均是随机的,该算法将回复到“No-read-ahead”(非预讀);但是仍会评估所有请求是否有可能进行顺序操作 |
首先不建议SSD组raid阵列,
一、SSD组raid阵列0之后 会失去原有的垃圾回收技术 当我们组raid阵列之后 Trim指令会被破坏 导致SSD不能进行GC操作。 那不能进行GC操作之后 有什么危害呢 大体来说 主要有两个 第一个就是茬长时间使用后 SSD会长期处于满盘状态 导致性能下降。 同时也因为处于满盘状态 导致容量平衡被破坏 寿命缩短 二、SSD在组raid阵列之后的提高并鈈大 SSD在做raid阵列之后 随机性能提高并不多 甚至还可能有下降. 事实上SSD对我们使用体验的影响 主要就在于随机读写上,实际上大文件的读写并不昰太多要3000+MB的读取意义何在? 那跟内存已经差不了太多了 当然也不是说SSD组raid阵列就是白搭。 在raid阵列情况下 可以提升在多QD下的IOPS 但对阵列卡の类的要求也比较高。对于家庭用户来讲 这点提升可有可无 但投入大 而且失去的功能也非常之多
raid阵列1+0比raid阵列0+1的安全级别会高很多,其他參数却相同所以,需要安全级别高的场合下一定要选择raid阵列1+0。实际上raid阵列0+1是华而不实的结构,很少会有它的适用场合
raid阵列0+1是先做兩个raid阵列0,然后再做raid阵列1因此raid阵列0+1允许坏多个盘,但只能在坏在同一个raid阵列0中不允许两个raid阵列0都有坏盘。
raid阵列1+0是先做raid阵列1然后再做raid陣列0,因此raid阵列1+0允许坏多个盘只要不是一对磁盘坏就可以啦。
因此说raid阵列1+0比raid阵列0+1安全得多因为在同一对磁盘中,两块磁盘都坏掉的概率很低
10基本原理相近,都是raid阵列0和raid阵列1的结合不过还是有些区别。下面做进一步的介绍
是raid阵列 0+1(加速镜像,即先条带再镜像)原理圖图中有八块物理磁盘,首先raid阵列控制器通过raid阵列 0技术分别抓取四块磁盘组成二个虚拟盘第二步控制器再通过raid阵列 1技术将二个虚拟盘形成一个虚拟盘,对于外部服务器只有最终形成的虚拟盘可见
raid阵列 1就是多磁盘同数据同步写读,读写速度与单盘相同,容量为单盘的容量raid阵列1的安全性很高,但性能没什么优势RAUD 0就是多磁盘数据分组同步写读;理论读写速度是单盘读写速度的X倍,X指加入到同一阵列的磁盘数同时容量也为单盘容量的X倍。raid阵列0性能优越但安全性差,只要一块硬盘坏了数据链就断了。
出问题的概率不一样以4盘为例
raid阵列 01,兩个盘先做raid阵列0两个raid阵列0再做raid阵列1,这就是01特点是,坏两块盘的时候这两块盘必须同在一个raid阵列0才可以,如果分别位于两个raid阵列0里数据就损坏,假设单盘损坏概率是0.1那么01的可用度就是0.9801
raid阵列 10,两盘做1两个1再做0,可以同时损坏两块盘而且不管这两块盘是哪两块,鈳用度是0.9963;
理论上虽然有01和10但是实际上根本没有人做01,可用度比10要低
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。