精华内容
下载资源
问答
  • RAID 5 模式的入门知识 RAID 5 安装过程
  • Linux中raid磁盘阵列,磁盘阵列raid5一.磁盘阵列(Redundant Arrays of Independent Disks,RAID) 有“独立磁盘构成的具有冗余能力的阵列”之意。磁盘阵列是由很多价格较便宜的磁盘,以硬件(RAID卡)或软件(MDADM)形式...

    Linux中raid磁盘阵列,磁盘阵列raid5

    一.磁盘阵列(Redundant Arrays of Independent Disks,RAID) 有“独立磁盘构成的具有冗余能力的阵列”之意。

    磁盘阵列是由很多价格较便宜的磁盘,以硬件(RAID卡)或软件(MDADM)形式组合成一个容量巨大的磁盘组,利用多个磁盘组合在一起,提升整个磁盘系统效能。利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。 磁盘阵列还能利用同位检查(Parity Check)的观念,在数组中任意一个硬盘故障时,仍可读出数据,在数据。

    注:RAID可以预防数据丢失,但是它并不能完全保证你的数据不会丢失,所以使用RAID的同时还是注意备份重要的数据.

    二.RAID创建方式

    RAID的创建有两种方式:软RAID(通过操作系统软件来实现)和硬RAID(使用硬件阵列卡);了解raid1、raid5和raid10。不过随着云的高速发展,供应商一般可以把硬件问题解决掉。

    三.RAID磁盘阵列特点

    对磁盘高速存取(提速): RAID将普通硬盘组成一个磁盘阵列,在主机写入数据,RAID控制器把主机要写入的数据分解为多个数据块,然后并行写入磁盘阵列;主机读取数据时,RAID控制器并行读取分散在磁盘阵列中各个硬盘上的数据,把它们重新组合后提供给主机。由于采用并行读写操作,从而提高了存储系统的存取速度。

    扩容。

    数据冗余

    四.RAID类型

    raid级别:raid 0 raid 1 raid5 raide 10 raid 01

    RAID 0

    0 :(stripe)条带模式,至少需要两块硬盘,每一份数据平均分成多份存储在多个磁盘 中,且都处于一个水平条带上

    优点:读写速度提高,用了多少块盘就是多少倍 缺点:无冗余能力(也称容错能力) 空间利用率:多个磁盘的总和,100%

    f0b981aef24ac6ee9e005f7a4a20a238.png

    RAID 1

    1:(mirror)镜像模式,磁盘数量需要2的倍数,两个磁盘中存储的数据完全一致,当一 个盘损坏时,数据依然可以进行读写

    优点:有冗余能力

    缺点:磁盘利用率 只有50%,写的速度下降

    58a8616bdc2a2cf5c5b4af290d0b64af.png

    RAID 5

    5:check code校验码模式,至少需要三块硬盘,每一次存储数据时,采用条带模式存 储到n-1数量的磁盘中,另外一个磁盘存放的是其他几个磁盘中的数据以某种加密方式之 后得出的加密数据,且每一次存储,存储加密数据的磁盘都是不断变化的,当其中任何 一个盘的数据损坏时,都可以通过加密方式和其余两块磁盘的数据来得知另外一个盘的 数据,具有较高的冗余能力

    优点:读写速度快,有冗余能力

    缺点:磁盘利用率为n-1/n,两个磁盘损坏时,数据将丢失

    ce35aa05f56db68299c783529c5fae44.png

    组合起来用RAID10

    10:mirror+stripe模式,至少需要4快硬盘,先将两块硬盘组成Raid1,然后将两组 Raid1组合成Raid0,存储一分数据时,每一Raid1的组合存储的数据都是均分的,然后 Raid1组合再用mirror模式存储

    优点:读写速度快,冗余能力强

    缺点:磁盘利用率为50%

    148686.html组合起来用RAID01

    RAID01 是先做条带化再作镜像,本质是对物理磁盘实现镜像

    优点:读写速度快,冗余能力强

    缺点:磁盘利用率为50%,安全性能比10差

    0484899209e4a794dcfbb018e3639d29.png

    比较:

    4c77478aba8c3bc4614223c27f4ac418.png

    RAID10和RAID01的比较

    两者最重要的区别在于:RAID10的底层是镜像RAID1,而镜像就保证了当有一块硬盘比如A1损坏时,并不影响他的写功能,读性能可能稍微有所降低(大概降低1/8)。但是RAID01的底层是条带RAID0,而条带就导致了只要有一块硬盘比如左边的Disk0中的A1损坏时,那么整个左边的RAID0就不能使用了,所以整个RAID01就变成了只有右边的RAID0可以使用了,也就是从RAID01变成了RAID0,读性能马上降低一般,写性能没有影响,可靠性变得最差。仅仅凭借这一点,我们就绝不应该使用RAID01,而应该选择RAID10

    五.RAID命令

    命令:mdadm (需要下载)

    #功能:创建/管理/删除 磁盘阵列

    #语法格式:

    mdadm [模式] [选项]

    #模式:

    assemble:将以前定义的某个阵列加入当前在用阵列。

    create:创建一个新的阵列,每个设备具有超级块

    manage: 管理阵列,比如增加或移除

    misc:允许单独对阵列中的某个设备做操作,比如抹去超级块或 终止在用的阵列。

    follow or Monitor:监控磁盘阵列的状态

    grow:改变磁盘阵列容量或阵列中的设备数目

    选项:

    -A:加入一个以前定义的阵列

    -C:创建一个新的阵列 (重要)

    -D:打印一个或多个设备的详细信息

    -E:打印设备上的超级块的内容

    -h:帮助信息,用在以上选项后,则显示该选项信息

    -v:显示细节

    -b:较少的细节。用于-D和-E选项

    -f, --force 强制执行

    -c:指定配置文件,缺省为 /etc/mdadm.conf

    -s:扫描配置文件或 /proc/mdstat以搜寻丢失的信息。

    create 或 build 使用的选项:

    -c:指定块大小,单位 kb. 缺省为 64.

    -l,:设定RAID模式.(非常重要)

    -n=:指定阵列中可用设备数目。

    -x :指定初始阵列的热备盘数目。

    -a, --auto{=no,yes,md,mdp,part,p}{NN} :创建RAID同时是否创建设备。

    例:使用sdb sdc 创建raid0

    mdadm -C /dev/md0 -l 0 -n 2 /dev/sd{b,c}1

    raid查看方法

    cat /proc/mdstat mdadm --detail /dev/mdXXX

    删除raid (删除raid前需要卸载对应的挂载点)

    mdadm --stop /dev/mdXXXX

    展开全文
  • 磁盘阵列RAID组建知识全解析.。
  • 磁盘阵列RAID讲解

    2021-01-10 10:35:09
    RAID(Redundant Array of Independent Disk 独立冗余磁盘阵列)技术是加州大学伯克利分校1987年提出,最初是为了组合小的廉价磁盘来代替大的昂贵磁盘,同时希望磁盘失效时不会使对数据的访问受损失而开发出一定水平的...
  • 磁盘阵列RAID

    2018-02-25 20:24:57
    目录磁盘阵列分类RAID优缺点RAID级别Linux运维面试题简述raid0 raid1 raid5 三种工作模式的工作原理及特点 软RAID管理命令mdadm详解创建模式创建raid0,raid1,raid5管理模式软RAID管理增长模式,用于增加磁盘,为阵列...

    目录
    磁盘阵列
    分类
    RAID优缺点
    RAID级别
    Linux运维面试题
    简述raid0 raid1 raid5 三种工作模式的工作原理及特点
    软RAID管理命令mdadm详解
    创建模式
    创建raid0,raid1,raid5
    管理模式
    软RAID管理
    增长模式,用于增加磁盘,为阵列扩容
    mdadm中文man(引用)
    示例:

    磁盘阵列

    磁盘阵列(Redundant Arrays of Independent Disks,RAID),有“独立磁盘构成的具有冗余能力的阵列”之意。
    磁盘阵列是由很多价格较便宜的磁盘,组合成一个容量巨大的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能。

    磁盘阵列分类

     

    磁盘管理RAID

    RAID优缺点

    优点
    提高传输速率。RAID通过在多个磁盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput)。在RAID中,可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个磁盘驱动器几倍、几十倍甚至上百倍的速率。这也是RAID最初想要解决的问题。因为当时CPU的速度增长很快,而磁盘驱动器的数据传输速率无法大幅提高,所以需要有一种方案解决二者之间的矛盾。RAID最后成功了。
    通过数据校验提供容错功能。普通磁盘驱动器无法提供容错功能,如果不包括写在磁盘上的CRC(循环冗余校验)码的话。RAID容错是建立在每个磁盘驱动器的硬件容错功能之上的,所以它提供更高的安全性。在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性。 缺点
    RAID0没有冗余功能,如果一个磁盘(物理)损坏,则所有的数据都无法使用。
    RAID1磁盘的利用率最高只能达到50%(使用两块盘的情况下),是所有RAID级别中最低的。
    RAID0+1以理解为是RAID 0和RAID 1的折中方案。RAID 0+1可以为系统提供数据安全保障,但保障程度要比 Mirror低而磁盘空间利用率要比Mirror高。

    RAID级别

    RAID 0: RAID 0连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率,但它没有数据冗余,因此并不能算是真正的RAID结构。RAID 0只是单纯地提高性能,并没有为数据的可靠性提供保证,而且其中的一个磁盘失效将影响到所有数据。因此,RAID 0不能应用于数据安全性要求高的场合。

     

    磁盘管理RAID

    RAID 1: 它是通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据。当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID 1可以提高读取性能。RAID 1是磁盘阵列中单位成本最高的,但提供了很高的数据安全性和可用性。当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据。

     

    磁盘管理RAID

    RAID 5: RAID 5不单独指定的奇偶盘,而是在所有磁盘上交叉地存取数据及奇偶校验信息。在RAID 5上,读/写指针可同时对阵列设备进行操作,提供了更高的数据流量。RAID 5更适合于小数据块和随机读写的数据。RAID 3与RAID 5相比,最主要的区别在于RAID 3每进行一次数据传输就需涉及到所有的阵列盘;而对于RAID 5来说,大部分数据传输只对一块磁盘操作,并可进行并行操作。在RAID 5中有“写损失”,即每一次写操作将产生四个实际的读/写操作,其中两次读旧的数据及奇偶信息,两次写新的数据及奇偶信息。

     

    磁盘管理RAID

    RAID 01/10: 根据组合分为RAID 10和RAID 01,实际是将RAID 0和RAID 1标准结合的产物,在连续地以位或字节为单位分割数据并且并行读/写多个磁盘的同时,为每一块磁盘作磁盘镜像进行冗余。它的优点是同时拥有RAID 0的超凡速度和RAID 1的数据高可靠性,但是CPU占用率同样也更高,而且磁盘的利用率比较低。RAID 1+0是先镜射再分区数据,再将所有硬盘分为两组,视为是RAID 0的最低组合,然后将这两组各自视为RAID 1运作。RAID 0+1则是跟RAID 1+0的程序相反,是先分区再将数据镜射到两组硬盘。它将所有的硬盘分为两组,变成RAID 1的最低组合,而将两组硬盘各自视为RAD 0运作。性能上,RAID 0+1比RAID 1+0有着更快的读写速度。可靠性上,当RAID 1+0有一个硬盘受损,其余三个硬盘会继续运作。RAID 0+1 只要有一个硬盘受损,同组RAID 0的另一只硬盘亦会停止运作,只剩下两个硬盘运作,可靠性较低。因此,RAID 10远较RAID 01常用,零售主板绝大部份支持RAID 0/1/5/10,但不支持RAID 01

     

    磁盘管理RAID

     

    磁盘管理RAID

    RAID 50: RAID50是RAID5与RAID0的结合。此配置在RAID5的子磁盘组的每个磁盘上进行包括奇偶信息在内的数据的剥离。每个RAID5子磁盘组要求三个硬盘。RAID50具备更高的容错能力,因为它允许某个组内有一个磁盘出现故障,而不会造成数据丢失。而且因为奇偶位分部于RAID5子磁盘组上,故重建速度有很大提高。优势:更高的容错能力,具备更快数据读取速率的潜力。需要注意的是:磁盘故障会影响吞吐量。故障后重建信息的时间比镜像配置情况下要长。(不常用的)

     

    磁盘管理RAID

    Linux运维面试题

    简述raid0 raid1 raid5 三种工作模式的工作原理及特点

    RAID,可以把硬盘整合成一个大磁盘,还可以在大磁盘上再分区,放数据
    还有一个大功能,多块盘放在一起可以有冗余(备份)
    RAID整合方式有很多,常用的:0 1 5 10
    RAID 0,可以是一块盘和N个盘组合 
    其优点读写快,是RAID中最好的
    缺点:没有冗余,一块坏了数据就全没有了
    RAID 1,只能2块盘,盘的大小可以不一样,以小的为准
    10G+10G只有10G,另一个做备份。它有100%的冗余,缺点:浪费资源,成本高
    RAID 5 ,3块盘,容量计算10\*(n-1),损失一块盘
    特点,读写性能一般,读还好一点,写不好
    冗余从好到坏:RAID1 RAID10 RAID 5 RAID0
    性能从好到坏:RAID0 RAID10 RAID5 RAID1
    成本从低到高:RAID0 RAID5 RAID1 RAID10
    单台服务器:很重要盘不多,系统盘,RAID1
    数据库服务器:主库:RAID10 从库 RAID5\RAID0(为了维护成本,RAID10)
    WEB服务器,如果没有太多的数据的话,RAID5,RAID0(单盘)
    有多台,监控、应用服务器,RAID0 RAID5
    我们会根据数据的存储和访问的需求,去匹配对应的RAID级别

    简述raid0 raid1 raid5 三种工作模式的工作原理及特点

    RAID 0:带区卷,连续以位或字节为单位分割数据,并行读/写于多个磁盘上,因此具有很高的数据传输率
    但它没有数据冗余,RAID 0 只是单纯地提高性能,并没有为数据的可靠性提供保证
    而且其中的一个磁盘失效将影响到所有数据。因此,RAID 0 不能应用于数据安全性要求高的场合
    RAID 1:镜像卷,它是通过磁盘数据镜像实现数据冗余,在成对的独立磁盘上产生互为备份的数据
    不能提升写数据效率。当原始数据繁忙时,可直接从镜像拷贝中读取数据,因此RAID1 可以提高读取性能
    RAID 1 是磁盘阵列中单位成本最高的,镜像卷可用容量为总容量的1/2,但提供了很高的数据安全性和可用性
    当一个磁盘失效时,系统可以自动切换到镜像磁盘上读写,而不需要重组失效的数据
    RAID5:至少由3块硬盘组成,分布式奇偶校验的独立磁盘结构,它的奇偶校验码存在于所有磁盘上
    任何一个硬盘损坏,都可以根据其它硬盘上的校验位来重建损坏的数据(最多允许1块硬盘损坏)
    所以raid5可以实现数据冗余,确保数据的安全性,同时raid5也可以提升数据的读写性能
    
    raid 0 条带化 chunk size n*min(size)  读写的提升 至少2块盘
    raid 1 镜像  min(size)  写性能略降低,读性能提升 至少2块盘
    raid 5 奇偶校验  (n-1)*min(size) 至少3块盘
    raid 6 奇偶校验  (n-2)*min(size) 至少4块盘
    raid 10 先做多个raid1,再组成raid0 安全性优于raid01
    raid 01 先做多个raid0,再组成raid1 
    raid 50 先做多个raid5,再组成raid0,安全性略低于raid10

    软RAID管理命令mdadm详解

    一、创建模式

    mdadm :创建
    选项:-C
    专用选项:
    -l \#: 级别
    -n #: 设备个数
    -a {yes|no} 自动为其创建设备文件
    -c CHUNK_SIZE: 指定数据块大小(chunk)
    -x #: 指定空闲盘(热备磁盘)个数,空闲盘(热备磁盘)能在工作盘损坏后自动顶替
    注意:创建阵列时,阵列所需磁盘数为-n参数和-x参数的个数相加之和

    示例:创建raid0,raid1,raid5

    1、创建raid0:

    mdadm -C /dev/md0 -a yes -l 0 -n 2 /dev/sdb{1,2}#创建raid0 
    mkfs.ext4 /dev/md0 #格式化即创建文件系统,默认生成UUID:

    2、创建raid1:

    mdadm -C /dev/md1 -a yes -n 2 -l 1 /dev/sdb{5,6}#创建raid
    mkfs.ext4  /dev/md1#格式化即创建文件系统,默认生成UUID

    3、创建raid5:

    mdadm -C /dev/md2 -a yes -l 5 -n 3 /dev/sdb{5,6,7}#创建raid5
    mkfs.ext4 /dev/md2#格式化即创建文件系统,默认生成UUID:
    mdadm /dev/md2 -a /dev/sdb8#增加热备磁盘:

    4、查看md状态:
    1 查看指定RAID设备的详细信息:
    选项: -D = --detail

    mdadm -D /dev/md0 #  只查看raid0信息

    2 查看全部的raid信息

    cat /proc/mdstat
    Personalities : [raid0] [raid1]
    md0 : active raid0 sdb2[1] sdb1[0]
             4206592 blocks super 1.2 512k chunks
    md1 : active raid1 sdb6[1] sdb5[0]
                2103447 blocks super 1.2 [2/2] [UU]
    unused devices: <none>
    
    注意:在创建raid前,应该先查看磁盘是否被识别,如果内核还识未别,创建Raid时会报错:
    cat /proc/partitions 或者 lsblk
    如果没有被识别,可以执行命令:
    kpartx /dev/sdb或者partprobe/dev/sdb
    centos6:echo '- - -' > /sys/class/scsi_host/host0/scan(只现虚拟机)
    centos7:echo '- - -' > /sys/class/scsi_host/host2/scan(只现虚拟机)

    二、管理模式

    选项:-a(--add),-d(--del),-r(--remove),-f(--fail)
    1、模拟损坏:
        mdadm /dev/md1 -f /dev/sdb5
    2、移除损坏的磁盘:
        mdadm /dev/md1 -r /dev/sdb5
    3、添加新的硬盘到已有阵列:
        mdadm /dev/md1 -a /dev/sdb7
    
    注意:
    3.1、新增加的硬盘需要与原硬盘大小一致
    3.2、如果原有阵列缺少工作磁盘(如raid1只有一块在工作,raid5只有2块在工作),这时新增加的磁盘直接变为工作磁盘,如果原有阵列工作正常,则新增加的磁盘为热备磁盘。
    ------------------以下四条命令,仅限raid1,raid5
    mdadm /dev/md1 -f /dev/sdf 将md1中的sdf设置为坏的设备
    mdadm /dev/md1 -r /dev/sdf 将md1中的sdf从raid成员中删除
    mdadm /dev/md1 -a /dev/sdf 向md1中增加新成员sdf 
    mdadm -G /dev/md1 -n 3 -a /dev/sdh 将raid1 md1的成员数量改为3,并加入新的成员(不是加为热备盘)

    三、软RAID管理

    生成配置文件:
        mdadm -D -s > /etc/mdadm.conf  #将raid信息保存至文件
        mdadm -A -s  #激活/etc/mdadm.conf 中的所有未激活的raid设备 ,已激活不读取.
    停止设备:-S = --stop 
        mdadm –S /dev/md0
    激活设备:将上述已经停止的阵列重新装配:
        mdadm -A /dev/md0 /dev/sdc /dev/sdd #激活md0 手动添加md0磁盘
        mdadm –A –s /dev/md0 激活md0 读取/etc/mdadm.conf中md0磁盘信息
    强制启动:
        mdadm –R /dev/md0 
    删除某块硬盘的raid信息:
        mdadm --zero-superblock /dev/sdb1
    监控模式
        选项:-F
        mdadm -F /dev/md1 实时监控raid状态
    实现自动装配:(软RAID是基于系统的,当原系统损坏了,需要重新装配RAID)
        mdadm运行时会自动检查/etc/mdadm.conf 文件并尝试自动装配,因此第一次配置raid后可以将信息导入到/etc/mdadm.conf中,命令如下:
        mdadm -D -s > /etc/mdadm.conf  #将raid信息保存至文件
        mdadm -A -s  #激活/etc/mdadm.conf 中的所有未激活的raid设备 ,已激活不读取.
    共享热备盘实现方式
        mdadm -D -s > /etc/mdadm.conf  //将raid值保存到文件中
        在需要共享的多组raid信息最后分别都写上spare-group=magedu
        然后再加一新行,顶头写MAILADDR root@localhost 或 MAILADDR .
        /etc/init.d/mdmonitor restart  //启动服务
        service mdmonitor restart   //启动服务

    四、增长模式,用于增加磁盘,为阵列扩容:

    选项:-G
    示例,将上述raid5的热备磁盘增加到阵列工作磁盘中
    
        [root@localhost ~]# mdadm -G /dev/md2  -n 4
    
    注意:-n 4 表示使用四块工作磁盘
    再次使用-D选项查看阵列详细信息如下:
    
    [root@localhost ~]# mdadm -D /dev/md2
    ……此处略掉部分信息……
       Number   Major   Minor   RaidDevice State
               0       8       21        0      active sync   /dev/sdb5
               1       8       22        1      active sync   /dev/sdb6
                 3       8       23        2      active sync   /dev/sdb7
               4       8       24        3      active sync   /dev/sdb8

    五、.mdadm中文man(引用)

    基本语法 : mdadm [mode] [options]
    [mode] 有7种:
    Assemble:将以前定义的某个阵列加入当前在用阵列。
    Build:Build a legacy array ,每个device 没有 superblocks
    Create:创建一个新的阵列,每个device 具有 superblocks
    Manage: 管理阵列,比如 add 或 remove
    Misc:允许单独对阵列中的某个 device 做操作,比如抹去superblocks 或 终止在用的阵列。
    Follow or Monitor:监控 raid 1,4,5,6 和 multipath 的状态
    Grow:改变raid 容量或 阵列中的 device 数目
    可用的 [options]:
    -A, --assemble:加入一个以前定义的阵列
    -B, --build:Build a legacy array without superblocks.
    -C, --create:创建一个新的阵列
    -Q, --query:查看一个device,判断它为一个 md device 或是 一个 md 阵列的一部分
    -D, --detail:打印一个或多个 md device 的详细信息
    -E, --examine:打印 device 上的 md superblock 的内容
    -F, --follow, --monitor:选择 Monitor 模式
    -G, --grow:改变在用阵列的大小或形态
    -h, --help:帮助信息,用在以上选项后,则显示该选项信息
    --help-options
    -V, --version
    -v, --verbose:显示细节
    -b, --brief:较少的细节。用于 --detail 和 --examine 选项
    -f, --force
    -c, --config= :指定配置文件,缺省为 /etc/mdadm/mdadm.conf
    -s, --scan:扫描配置文件或 /proc/mdstat以搜寻丢失的信息。配置文件/etc/mdadm/mdadm.conf
    create 或 build 使用的选项:
    -c, --chunk=:Specify chunk size of kibibytes. 缺省为 64.
    --rounding=: Specify rounding factor for linear array (==chunk size)
    -l, --level=:设定 raid level.
    --create可用:linear, raid0, 0, stripe, raid1,1, mirror, raid4, 4, raid5, 5, raid6, 6, multipath, mp.
    --build可用:linear, raid0, 0, stripe.
    -p, --parity=:设定 raid5 的奇偶校验规则:eft-asymmetric, left-symmetric, right-asymmetric, right-symmetric, la, ra, ls, rs.缺省为left-symmetric
    --layout=:类似于--parity
    -n, --raid-devices=:指定阵列中可用 device 数目,这个数目只能由 --grow 修改
    -x, --spare-devices=:指定初始阵列的富余device 数目
    -z, --size=:组建RAID1/4/5/6后从每个device获取的空间总数
    --assume-clean:目前仅用于 --build 选项
    -R, --run:阵列中的某一部分出现在其他阵列或文件系统中时,mdadm会确认该阵列。此选项将不作确认。
    -f, --force:通常mdadm不允许只用一个device 创建阵列,而且创建raid5时会使用一个device作为missing drive。此选项正相反。
    -a, --auto{=no,yes,md,mdp,part,p}{NN}:

    示例:

    1:创建一个可用空间为1G的RAID1设备,文件系统为ext4,有一个空闲盘,开机可自动挂载至/backup目录
    
     lsblk #查看磁盘是否被系统识别
             sdd      8:48   0     1G  0 disk 
             sde      8:64   0     1G  0 disk 
             sdf      8:80   0     1G  0 disk 
        如果没有被识别,可以执行命令:
        entos6:echo '- - -' > /sys/class/scsi_host/host0/scan(只现虚拟机)
        centos7:echo '- - -' > /sys/class/scsi_host/host2/scan(只现虚拟机)
    mdadm -C /dev/md1 -a yes -n 2 -l 1 -x 1 /dev/sd{e,d,f}  #创建md1
    lsblk #查看raid1是否创建成功
                sdd       8:48   0     1G  0 disk  
                └─md1   9:127  0  1023M  0 raid1 
                sde       8:64   0     1G  0 disk  
                └─md1  9:127  0  1023M  0 raid1 
                sdf       8:80   0     1G  0 disk  
                └─md1   9:127  0  1023M  0 raid1 
    mdadm -D /dev/md1  查看raid信息
    
        /dev/md127:
            Version : 1.2
      Creation Time : Thu Feb 22 11:43:34 2018
         Raid Level : raid1
         Array Size : 1047552 (1023.00 MiB 1072.69 MB)
      Used Dev Size : 1047552 (1023.00 MiB 1072.69 MB)
       Raid Devices : 2
      Total Devices : 3
        Persistence : Superblock is persistent
    
        Update Time : Fri Feb 23 14:26:59 2018
              State : clean 
     Active Devices : 2
    Working Devices : 3
     Failed Devices : 0
      Spare Devices : 1
    
               Name : centos6.magedu.com:1  (local to host centos6.magedu.com)
               UUID : a7ee7358:0f88ee49:f5359499:7a25cd1a
             Events : 22
    
        Number   Major   Minor   RaidDevice State
           0       8       64        0      active sync   /dev/sde
           1       8       48        1      active sync   /dev/sdd
    
           2       8       80        -      spare   /dev/sdf
    
        mkfs.ext4 /dev/md1   #格式化 即 创建文件系统 默认生成UUID
         blkid /dev/md1 #查看指定raid的文件系统 文件格式,UUID 等信息
                    /dev/md1: UUID="d6e45441-b68f-4e45-9a18-425887956d87" TYPE="ext4"
        vim /etc/fstab #开机自动挂载硬盘的系统文件
                    UUID=d6e45441-b68f-4e45-9a18-425887956d87 /backup                 ext4    defaults        0 0 
                #UUID=ea2ad152-45bb-41cf-904c-e5db0b372df7 //UUID  /backup //挂载目录    exit4//文件系统   defaults 系统的选项       0 0 //开机是否检测一般为零      //下次开机raid名可能会改变,不重要,UUID生效

    2:创建由三块硬盘组成的可用空间为2G的RAID5设备,要求其chunk大小为256k,文件系统为ext4,开机可自动挂载至/mydata目录

    lsblk
            sdg       8:96   0     1G  0 disk  
            sdh       8:112  0     1G  0 disk   
            sdp       8:240  0     1G  0 disk  
    mdadm -C /dev/md5 -a yes -n 3 -l 5 -c 256K /dev/sd{g,h,p}
            #-C //创建  /dev/md5//raid文件名 -a yes //  -n 3 //三块  -l 5 //raid5  -c 256 //chunk大小为256K
    lsblk 查看系统识别硬盘
    mdadm -D /dev/md5 查看raid信息
    mkfs.ext4 /dev/md5  //格式化/创建文件系统ext4
    blkid  //查看uuid /文件系统格式
    vim /etc/fstab //开机自动挂载硬盘的系统文件
            UUID="b4c94f87-8648-4835-8e86-24e7daf58c4d /mydata                ext4    defaults        0 0 
    mount -a //从新去读/etc/fstab文件内容,挂载未挂载磁盘,以挂载不会从新读取,

    3:创建一个raid50,由7块盘组成,其中一块为热备盘,最终容量为6G大小,chunk大小为1M,要求热备盘共享,创建为ext4文件系统,开机自动挂载到/magedata目录下。

    创建第一个raid5
    lsblk
                sdi       8:128  0   1.5G  0 disk  
                sdj       8:144  0   1.5G  0 disk  
                sdk       8:160  0   1.5G  0 disk  
    mdadm -C /dev/md0 -n 3 -a yes -l 5 -c 1M /dev/sd{i,j,k}
    mkfs.ext4 /dev/md0
    创建第二个raid5
    lsblk
                sdl       8:176  0   1.5G  0 disk  
                sdm       8:192  0   1.5G  0 disk  
                sdn       8:208  0   1.5G  0 disk  
                sdo       8:224  0   1.5G  0 disk 
    mdadm -C /dev/md1 -n 3 -a yes -l 5 -c 1M -x 1 /dev/sd{l,m,n,o}
    mkfs.ext4 /dev/md0
    创建raid0
    mdadm -C /dev/md3 -a yes -n 2 -l 0 -c 1M /dev/md1 /dev/md0
    查看:lsblk / blkid  / mdadm -D /dev/md3
    mkfs.ext4 /dev/md3 
    blkid
    vim /etc/fstab
                UUID=8a93b1f7-fb18-4439-8548-2a2ec0e4c428 /magedata              ext4    defaults        0 0

    删除raid1

    mdadm -S /dev/md1  停止raid设备
             mdadm: stopped /dev/md1
    mdadm --zero-superblock /dev/sdd删除某块硬盘的raid信息
    hexdump -C -n 1024 /dev/sdd  查看硬盘文件二进制信息
    00000000  00 00 00 00 00 00 00 00  00 00 00 00 00 00 00 00  |................|
    *
    00000400
    展开全文
  • 磁盘阵列Raid

    2021-07-21 23:23:21
    1.Raid历史 简介:RAID一般指磁盘阵列。...在实际领域中使用最多的RAID等级是RAID0、RAID1、RAID3、RAID5、RAID6 和 RAID10。 RAID每一个等级代表一种实现方法和技术,等级之间没有高低之分。在实际应用中

    1.Raid历史

    简介:RAID一般指磁盘阵列。磁盘阵列(Redundant Arrays of Independent Disks,RAID)
    就是把多块容量小的磁盘组合在一起 形成一个容量大的磁盘来使用。

    2.RAID等级

    根据三种技术的使用策略和组合架构,可以把RAID分为不同的等级,以满足不同数据应用的需求。
    在实际领域中使用最多的RAID等级是RAID0、RAID1、RAID3、RAID5、RAID6 和 RAID10。
    RAID每一个等级代表一种实现方法和技术,等级之间没有高低之分。在实际应用中,应该根据用户的数据应用特点,综合考虑可用性、性能和成本来选择合适的RAID等级,以及具体的实现方式。

    3.RAID的三种技术

    镜像技术:
    镜像技术是一种冗余技术,它可以为磁盘提供数据备份功能,防止磁盘发生故障而造成数据丢失。
    对于RAID而言,采用镜像技术最典型的用法就是:写入数据时,在磁盘阵列中产生两个完全相同的副本数据(采用同步复制或异步),并且这两个数据副本 分布在两个不同的磁盘上。镜像提供了完全的数据冗余能力,当一个数据副本失效不可用时,另一个数据副本就会顶上去,会保证外部系统的正常访问,不会对外部系统的运行和性能产生影响。
    镜像副本的故障修复能力也非常快,直接复制即可。不需要通过 额外的计算 和 校验 来恢复失效的镜像副本。
    镜像技术可以从多个副本进行并发数据读取,提高更高的读I/O 性能。写数据时,响应时间会有所影响,因为会涉及镜像同步(同步复制或在线刷盘),会影响写的效率,但是读数据没有影响。

    【注】:(只会往一个磁盘中写,然后镜像副本再去进行数据的复制)

    数据条带技术:
    它是一种自动将 I/O 操作负载均衡到多个物理磁盘上的技术。具体的讲就是:将一块连续的数据分成很多个小块 并分别存储到不同的磁盘中。
    带来的好处就是:在写数据的时候,就可以并行的写。提升 写I/O 的并行能力,极大的提升性能。

    数据校验技术:
    这个技术是指:RAID在写入数据的同时,会进行校验计算,并将得到的校验数存储在RAID的成员磁盘中。
    校验数据可以集中保存在某个磁盘中,或者分散存储在不同的磁盘中。当某个磁盘写入的数据丢失 或 出错时,就可以使用校验数据 和 磁盘中的剩余数据 进行反校验计算,然后重建出丢失 或出错的数据。
    优点是:相对于镜像技术的优势在于节省大量的开销,但是对cpu要求较高(因为每次读写数据都要进行大量的校验计算),且必须使用硬件RAID控制器。在数据重建恢复方面,校验技术比镜像技术复杂的多 且慢的多。
    【注】:它是一种数据安全技术,虽然节省空间,但是对CPU浪费太大。

    4.RAID分类

    在这里插入图片描述

    5.常见RAID等级详解

    JBOD:
    JBOD意思是磁盘簇(或磁盘柜),它仅仅是将多个磁盘串联在一起,扩展存储空间而已,对外表现就如同一块磁盘一样,没有任何的控制软件来提供协调控制。
    JBOD的数据存储是磁盘的顺序存储,一个磁盘存满后 才会往下一个磁盘中存数据,它的存储性能完全等同于单块磁盘,因为同一时刻只有其中的一块盘在工作,并且也不提供数据安全保护。

    它不属于RAID。其只是简单的提供一种扩展存储空间的机制,JBOD可用存储容量等于所有成员磁盘的容量之和。

    RAID0:
    它是一种简单的、无数据校验的数据条带化技术。不是一种真正的RAID,因为它并不提供任何形式的冗余策略。

    RAID0和JBOD的比较?
    相同点:
    1)存储容量:都是磁盘容量的总和
    2)磁盘利用率都是100%,都没有做任何的数据冗余备份。

    不同点:
    1)JBOD:数据是顺序存放的,一个磁盘存满后才会开始存放到下一个磁盘。
    2)RAID0:各个磁盘中的数据写入是并行的,是通过数据条带技术写入的。其读写性能理论上是JBOD的n倍。

    RAID1:

    RAID01:

    RAID10:

    这几个等级各有特点,根据实际需求去选择。


    总结

    ref:https://www.bilibili.com/video/BV1cf4y157sz?p=33&spm_id_from=pageDriver

    展开全文
  • RAID技术通过把多个硬盘设备组合成一个容量更大、安全性更好的磁盘阵列,并把数据切割成多个区段后分别存放在各个不同的物理硬盘设备上,然后利用分散读写技术来提升磁盘阵列整体的性能,同时把多个重要数据的副本...

    ** RAID磁盘冗余阵列**

    RAID技术通过把多个硬盘设备组合成一个容量更大、安全性更好的磁盘阵列,并把数据切割成多个区段后分别存放在各个不同的物理硬盘设备上,然后利用分散读写技术来提升磁盘阵列整体的性能,同时把多个重要数据的副本同步到不同的物理硬盘设备上,从而起到了非常好的数据冗余备份效果。
    任何事物都有它的两面性。RAID技术确实具有非常好的数据冗余备份功能,但是它也相应地提高了成本支出。就像原本我们只有一个电话本,但是为了避免遗失,我们将联系人号码信息写成了两份,自然要为此多买一个电话本,这也就相应地提升了成本支出。RAID技术的设计初衷是减少因为采购硬盘设备带来的费用支出,但是与数据本身的价值相比较,现代企业更看重的则是RAID技术所具备的冗余备份机制以及带来的硬盘吞吐量的提升。也就是说,RAID不仅降低了硬盘设备损坏后丢失数据的几率,还提升了硬盘设备的读写速度,所以它在绝大多数运营商或大中型企业中得以广泛部署和应用。
    出于成本和技术方面的考虑,需要针对不同的需求在数据可靠性及读写性能上作出权衡,制定出满足各自需求的不同方案。目前已有的RAID磁盘阵列的方案至少有十几种,而刘遄老师接下来会详细讲解RAID 0、RAID 1、RAID 5与RAID 10这4种最常见的方案。


    RAID 0

    RAID 0技术把多块物理硬盘设备(至少两块)通过硬件或软件的方式串联在一起,组成一个大的卷组,并将数据依次写入到各个物理硬盘中。这样一来,在最理想的状态下,硬盘设备的读写性能会提升数倍,但是若任意一块硬盘发生故障将导致整个系统的数据都受到破坏。通俗来说,RAID 0技术能够有效地提升硬盘数据的吞吐速度,但是不具备数据备份和错误修复能力。
    在这里插入图片描述

    2. RAID 1

    RAID 1技术是把两块以上的硬盘设备进行绑定,在写入数据时,是将数据同时写入到多块硬盘设备上(可以将其视为数据的镜像或备份)。当其中某一块硬盘发生故障后,一般会立即自动以热交换的方式来恢复数据的正常使用。

    在这里插入图片描述

    3. RAID 5

    RAID5技术是把硬盘设备的数据奇偶校验信息保存到其他硬盘设备中。RAID 5磁盘阵列组中数据的奇偶校验信息并不是单独保存到某一块硬盘设备中,而是存储到除自身以外的其他每一块硬盘设备上,这样的好处是其中任何一设备损坏后不至于出现致命缺陷;图中parity部分存放的就是数据的奇偶校验信息,换句话说,就是RAID 5技术实际上没有备份硬盘中的真实数据信息,而是当硬盘设备出现问题后通过奇偶校验信息来尝试重建损坏的数据。RAID这样的技术特性“妥协”地兼顾了硬盘设备的读写速度、数据安全性与存储成本问题。
    在这里插入图片描述
    4. RAID 10

    RAID 10技术是RAID 1+RAID 0技术的一个“组合体”。如图7-4所示,RAID 10技术需要至少4块硬盘来组建,其中先分别两两制作成RAID 1磁盘阵列,以保证数据的安全性;然后再对两个RAID 1磁盘阵列实施RAID 0技术,进一步提高硬盘设备的读写速度。这样从理论上来讲,只要坏的不是同一组中的所有硬盘,那么最多可以损坏50%的硬盘设备而不丢失数据。由于RAID 10技术继承了RAID 0的高读写速度和RAID 1的数据安全性,在不考虑成本的情况下RAID 10的性能都超过了RAID 5,因此当前成为广泛使用的一种存储技术。
    在这里插入图片描述

    参数	作用
    -a	    检测设备名称
    -n	    指定设备数量
    -l	    指定RAID级别
    -C      创建
    -v	    显示过程
    -f	    模拟设备损坏
    -r	    移除设备
    -Q	    查看摘要信息
    -D	    查看详细信息
    -S	    停止RAID磁盘阵列
    
    
    mdadm   -C 创建
    -v 显示创建的过程
    -l 指定RAID的级别是0 1 5 10
    -D 查看详细信息     完成之后可以查询
    -f 模拟设备损坏 
    -a 检测设备名称     -a yes 自动创建设备文件
    -n 有几块盘 
    
    删除占用mdadm /dev/md1 --fail /dev/sdc --remove /dev/sdc
    mdadm --stop /dev/md1或者/绑定的文件 删除磁盘阵列
    mdadm --remove /dev/md1或者/绑定的文件 删除磁盘阵列
    

    虚拟机模拟磁盘阵列实验 RAID 10 并切换切换RAID 5操作过程

    1.先在虚拟机前设中添加4个磁盘
    在这里插入图片描述
    2.查询磁盘并使用mdadm命令添加磁盘阵列!
    在这里插入图片描述

    [root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 4 -l 10 /dev/sd[c-f]
    mdadm: layout defaults to n2
    mdadm: layout defaults to n2
    mdadm: chunk size defaults to 512K
    mdadm: size set to 20954624K
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md/zhuxing started.
    其中 /dev/md/zhuyxing 可以更改为/dev/md[0-无限]但必须有/dev/md格式 /dev/sd[c-f]可以设置为/dev/sdc /dev/sdd /dev/sdf /dev/sde
    

    3.格式化主磁盘,并在家目录创建文件夹以挂载主磁盘

    [root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
    mke2fs 1.42.9 (28-Dec-2013)
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    Stride=128 blocks, Stripe width=256 blocks
    2621440 inodes, 10477312 blocks
    523865 blocks (5.00%) reserved for the super user
    First data block=0
    Maximum filesystem blocks=2157969408
    320 block groups
    32768 blocks per group, 32768 fragments per group
    8192 inodes per group
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    	4096000, 7962624
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (32768 blocks): done
    Writing superblocks and filesystem accounting information: done   
    
    [root@lizhiqiang Desktop]# cd ~
    [root@lizhiqiang ~]# mkdir zhu
    [root@lizhiqiang ~]# mount /dev/md/zhuxing /zhu
    mount: mount point /zhu does not exist
    [root@lizhiqiang ~]# mount /dev/md/zhuxing /root/zhu
    其中在家目录中只写/zhu不可以挂载 只能用绝对路径挂载 显示挂载成功!
    

    把磁盘加到启动项,并使用-D命令查看挂载分区信息

    [root@lizhiqiang ~]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
    [root@lizhiqiang ~]# mdadm -D /dev/md/zhuxing
    /dev/md/zhuxing:
            Version : 1.2
      Creation Time : Tue Oct 20 06:43:30 2020
         Raid Level : raid10
         Array Size : 41909248 (39.97 GiB 42.92 GB)
      Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
       Raid Devices : 4
      Total Devices : 4
        Persistence : Superblock is persistent
    
        Update Time : Tue Oct 20 06:52:37 2020
              State : clean 
     Active Devices : 4
    Working Devices : 4
     Failed Devices : 0
      Spare Devices : 0
    
             Layout : near=2
         Chunk Size : 512K
    
               Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
               UUID : 0a64eebf:9c26768e:88803e37:5ca70cdf
             Events : 17
    
        Number   Major   Minor   RaidDevice State
           0       8       32        0      active sync   /dev/sdc
           1       8       48        1      active sync   /dev/sdd
           2       8       64        2      active sync   /dev/sde
           3       8       80        3      active sync   /dev/sdf
    

    RAID 10 切换RAID 5

    先使用umount命令卸载磁盘,再停止使用著主磁盘占用防止浪费磁盘,成功卸载之后就可以装载RAID 5

    [root@lizhiqiang Desktop]# umount /dev/md/zhuxing
    [root@lizhiqiang Desktop]# mdadm --stop /zhu
    mdadm: error opening /zhu: Is a directory
    [root@lizhiqiang Desktop]# mdadm --stop /dev/md/zhuxing
    mdadm: stopped /dev/md/zhuxing
    [root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
    mdadm: cannot open /dev/md/zhuxing: No such file or directory
    

    装载RAID 5 使用mdadm命令并格式化,mdadm命令需要加入一个备份盘 使用-x命令
    此时会提示分盘占用 用y强制使用便成功!

    [root@lizhiqiang Desktop]# mdadm -Cv /dev/md/zhuxing -a yes -n 3 -l 5 -x 1 /dev/sd[c-f]
    mdadm: layout defaults to left-symmetric
    mdadm: layout defaults to left-symmetric
    mdadm: chunk size defaults to 512K
    mdadm: /dev/sdc appears to be part of a raid array:
        level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
    mdadm: /dev/sdd appears to be part of a raid array:
        level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
    mdadm: /dev/sde appears to be part of a raid array:
        level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
    mdadm: /dev/sdf appears to be part of a raid array:
        level=raid10 devices=4 ctime=Tue Oct 20 06:43:30 2020
    mdadm: size set to 20954624K
    Continue creating array? y
    mdadm: Defaulting to version 1.2 metadata
    mdadm: array /dev/md/zhuxing started.
    [root@lizhiqiang Desktop]# mdadm -D /dev/md/zhuxing
    /dev/md/zhuxing:
            Version : 1.2
      Creation Time : Tue Oct 20 07:17:32 2020
         Raid Level : raid5
         Array Size : 41909248 (39.97 GiB 42.92 GB)
      Used Dev Size : 20954624 (19.98 GiB 21.46 GB)
       Raid Devices : 3
      Total Devices : 4
        Persistence : Superblock is persistent
    
        Update Time : Tue Oct 20 07:19:18 2020
              State : clean 
     Active Devices : 3
    Working Devices : 4
     Failed Devices : 0
      Spare Devices : 1
    
             Layout : left-symmetric
         Chunk Size : 512K
    
               Name : lizhiqiang:zhuxing  (local to host lizhiqiang)
               UUID : 19cec61b:0d1c4f49:972ba0ec:fad30b55
             Events : 32
    
        Number   Major   Minor   RaidDevice State
           0       8       32        0      active sync   /dev/sdc
           1       8       48        1      active sync   /dev/sdd
           4       8       64        2      active sync   /dev/sde
    
           3       8       80        -      spare   /dev/sdf
    

    格式化主磁盘并挂载主磁盘接入启动项,RAID 5安装成功

    [root@lizhiqiang Desktop]# mkfs.ext4 /dev/md/zhuxing
    mke2fs 1.42.9 (28-Dec-2013)
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    Stride=128 blocks, Stripe width=256 blocks
    2621440 inodes, 10477312 blocks
    523865 blocks (5.00%) reserved for the super user
    First data block=0
    Maximum filesystem blocks=2157969408
    320 block groups
    32768 blocks per group, 32768 fragments per group
    8192 inodes per group
    Superblock backups stored on blocks: 
    	32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632, 2654208, 
    	4096000, 7962624
    
    Allocating group tables: done                            
    Writing inode tables: done                            
    Creating journal (32768 blocks): done
    Writing superblocks and filesystem accounting information: done   
    
    [root@lizhiqiang Desktop]# mount /dev/md/zhuxing /zhu
    [root@lizhiqiang Desktop]# df -h
    Filesystem                        Size  Used Avail Use% Mounted on
    /dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
    devtmpfs                          985M     0  985M   0% /dev
    tmpfs                             994M  140K  994M   1% /dev/shm
    tmpfs                             994M  8.9M  986M   1% /run
    tmpfs                             994M     0  994M   0% /sys/fs/cgroup
    /dev/sdb1                         2.0G   33M  2.0G   2% /opo
    /dev/sda1                         497M  125M  373M  26% /boot
    /dev/md127                         40G   49M   38G   1% /zhu
    [root@lizhiqiang Desktop]# echo "/dev/md/zhuxing /zhu ext4 defaults 0 0" >> /etc/fstab
    [root@lizhiqiang Desktop]# df -h
    Filesystem                        Size  Used Avail Use% Mounted on
    /dev/mapper/rhel_lizhiqiang-root   18G  3.5G   15G  20% /
    devtmpfs                          985M     0  985M   0% /dev
    tmpfs                             994M  140K  994M   1% /dev/shm
    tmpfs                             994M  8.9M  986M   1% /run
    tmpfs                             994M     0  994M   0% /sys/fs/cgroup
    /dev/sdb1                         2.0G   33M  2.0G   2% /opo
    /dev/sda1                         497M  125M  373M  26% /boot
    /dev/md127                         40G   49M   38G   1% /zhu
    

    操作成功!

    ** 损坏磁盘阵列及修复**

    在生产环境中部署RAID10磁盘阵列组目的就是为了提高存储设备的IO读写速度及数据的安全性,但因为这次是在本机电脑上模拟出来的硬盘设备所以对于读写速度的改善可能并不直观,因此刘遄老师决定给同学们讲解下RAID磁盘阵列组损坏后的处理方法,这样以后步入了运维岗位后不会因为突发事件而手忙脚乱。首先确认有一块物理硬盘设备出现损坏不能再继续正常使用后,应该使用mdadm命令来予以移除之后查看下RAID磁盘阵列组的状态已经被改变:

    移除阵列中一块硬盘来模拟一块硬盘损坏。

    mdadm /dev/md0 -f /dev/sdb    #把/dev/sdb从磁盘阵列/dev/md0中移除
    mdadm -D /dev/md0             #查看磁盘这列/dev/md0详细信息,发现/dev/sdb状态从active变为faulty
    umount /RAID                  #先重启系统,卸载/RAID目录
    mdadm /dev/md0 -a /dev/sdb    #把新硬盘添加到RAID磁盘阵列中
    mdadm -D /dev/md0             #查看磁盘阵列/dev/md0详细信息,/dev/sdb正在 spare rebuilding,然后变回active
    mount -a                      #重新挂载
    

    磁盘阵列+备份盘

    部署RAID 5 磁盘阵列时,至少需要用3块硬盘,还需要再加一块备份硬盘。
    还原虚拟机,部署RAID 5 + 1备份盘 。

    mdadm -Cv /dev/md0 -n 3 -l 5 -x 1 /dev/sd[b-e]           #用3块硬盘创建RAID 5磁盘阵列,再用1块作为备份盘
    mdadm -D /dev/md0                                        #查看磁盘阵列详细信息,显示3个盘为actvie,1个盘为spare,RAID类型为RAID 5
    mkfs.ext4 /dev/md0                                       
    echo "/dev/md0 /RAID ext4 defaults 0 0" >> /etc/fstab    #往/etc/fstab文件追加挂载信息,以实现永久挂载
    mkdir /RAID
    mount -a
    mdadm /dev/md0 -f /dev/sdb                               #故意移除RAID 5阵列中的其中一个盘(active的盘)
    mdadm -D /dev/md0                                        #再查看磁盘阵列/dev/md0详细信息,显示备份盘自动定提上去并开始数据同步(spare rebuilding)。
    
    

    展开全文
  • RAID5能通过算法,利用其他两位数据将丢失的数据进行计算还原,因此RAID5最多只能允许一块硬盘损坏,可见磁盘利用率是(N-1)/N,数据的安全性得以保障,一般大多数人选择用RAID5的组合方式做磁盘阵列。实验要求1.3块...
  • 磁盘阵列RAID的建立和系统安装 磁盘阵列RAID的建立和系统安装磁盘阵列RAID的建立和系统安装磁盘阵列RAID的建立和系统安装
  • 北亚数据恢复中心接收到客户的一台HP DL380 G4服务器,服务器使用hp smart array控制器挂载了一台国产磁盘阵列磁盘阵列由14块146G SCSI硬盘组成一组RAID5。操作系统为LINUX,构建了NFS+FTP,作为公司内部文件...
  • 磁盘阵列RAID 5与6的比较

    千次阅读 2014-02-17 11:20:03
    磁盘阵列RAID(disk array)可以有效的提高存储系统的可靠性和性能,同时也存在显著的缺点,那就是由于多个设备(磁盘)同时使用,导致了可靠性降低(从概率的角度来讲:N个设备的可靠性是一个设备的1/N)。...
  • 磁盘阵列RAID,逻辑卷

    2019-08-26 17:27:54
    文章目录磁盘阵列RAID 磁盘阵列RAID 什么是RAID磁盘阵列 RAID简称磁盘阵列,那么什么是阵列,例如:古代打仗时为什么要对士兵进行排兵布阵,其目的在于提高士兵整体的作战能力,而不是某个士兵的战斗力。 那么回到...
  • 磁盘阵列RAID 技术

    2021-01-28 14:15:05
    磁盘阵列 RAID 技术 1 概述 冗余磁盘阵列技术(Redundant Array of Inexpensive Disks,简称RAID技术)是一种数据的虚拟存储技术,其结合了多个物理磁盘驱动器件在一个逻辑磁盘内用以实现比单个磁盘更高的存储性能...
  • 简单来说就是磁盘阵列,把多个磁盘空间合并。目前市面上有 RAID0、RAID1、RAID5、RAID6、RAID10 等。RAID0,代表所有硬盘的空间相加,也就是说,我有4个3T+1个4T。加起来就是16T。一旦损坏,数据找不回来。RAID1...
  • linux配置磁盘阵列raid 0、raid1 、raid5 、raid6 、raid10、raid50、raid60原理1 raid0的特性:2 raid1的特性:3 raid10的特性:4 raid5的特性:5 raid50的特性:6 raid6的特性:RAID6的性能:7 raid60的特性:简单...
  • 磁盘阵列RAID5工作原理

    千次阅读 2017-09-22 17:25:27
    RAID5,RAID5工作原理是什么? ...由图中可以看出,RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于
  • 试验项目:配置磁盘阵列(raid 0、raid1 、raid5 、raid6 、raid1+0)理论部分:把多块独立的物理磁盘按不同的方式重新组合在一起,然后会形成一块逻辑磁盘,这样就可以提供比一块物理磁盘更具有存储效率和容量、...
  • 磁盘阵列RAID 00

    2018-07-23 00:55:06
    磁盘阵列RAID 00多RAID 0阵列组合形成一个RAID 00阵列。这些spanned array提供更佳的性能及容量大得多的驱动器。用RAID 0,ServeRAID在阵列中最多可具有15个驱动器。使用spanned array,与非spanned array相比,用户...
  • 1.在虚拟机上添加4个磁盘,其中主用盘3个,热备盘1个 [root@centos7 ~]# fdisk -l Disk /dev/sda: 21.5 GB, 21474836480 bytes, 41943040 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/...
  • 2.3. 廉价冗余磁盘阵列RAID 批注 [U1]: 本节的内容层次需要确认重新编排建议... Patterson 教授在1988 年提出的也简称为磁盘阵列RAID 将一磁盘驱动器用某种逻辑方式联系起 来作为逻辑上的一个磁盘驱动器来使用一般情
  • 转载于:https://www.cnblogs.com/ZHONGZHENHUA/p/8387899.html
  • 磁盘阵列RAID理解

    2015-08-21 09:52:46
    磁盘阵列(Redundant Arrays of Independent Disks,RAID),有“独立磁盘构成的具有冗余能力的阵列”之意。 磁盘阵列是由很多价格较便宜的磁盘,组合成一个容量巨大的磁盘,利用个别磁盘提供数据所产生加成...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,943
精华内容 7,577
关键字:

如何组磁盘阵列raid5