2018-03-13 RAID管理

1、RAID管理

创建RAID时要取用相同大小的磁盘或者分区,把文件的数据分成一个个的chunk,默认为512k,写磁盘时把chunk写到几个磁盘里,读的时候也是从几个磁盘同时读chunk,增加读写速度,并且raid具有容错性,在生产中使用的raid大部分为硬raid,使用的是raid卡。

  • RAID 0


    2018-03-13 RAID管理_第1张图片
    image.png

    特点:至少两块磁盘组成,读写性能提升,但如果其中有一块硬盘损坏,则无法正常工作,没有容错性,磁盘利用率为100%。被称为条带卷。

  • RAID 1


    2018-03-13 RAID管理_第2张图片
    image.png

    特点:两块硬盘互为镜像,读性能提升,写性能下降,磁盘数量为2n,有容错性,磁盘利用率为50%。损坏一块硬盘仍可以使用

  • RAID 4


    2018-03-13 RAID管理_第3张图片
    image.png

    特点:至少三块硬盘,读性能提升,写性能稍微下降,有容错性,但由于校验位在同一个磁盘上,这块磁盘很容易损坏,磁盘利用率为n-1/n。损坏一块不是校验位的硬盘仍可以使用

  • RAID 5
    特点:至少三块硬盘,异或校验位在每个磁盘上,读能力提升,写性能稍微下降,容错性好,磁盘利用率为n-1/n。损坏一块硬盘仍可以使用
  • RAID 6


    2018-03-13 RAID管理_第4张图片
    image.png

    特点:至少四块硬盘,读性能提升,写性能下降,容错性好,损坏两块硬盘仍然通过异或校验位找到损坏硬盘的数据,磁盘利用率为n-2/n

  • RAID 01(RAID 0+1)


    2018-03-13 RAID管理_第5张图片
    image.png

    特点:先做RAID0,再做RAID1,读写性能大幅提升,假如有左侧一块磁盘坏了,右侧只要坏任意一块都不能使用了,损坏的概率的(n/2)/n-1

  • RAID 10(RAID 1+0)


    2018-03-13 RAID管理_第6张图片
    image.png

    特点:先做RAID1再做RAID0,假如有一块硬盘坏了,只要不是和它同镜像的硬盘损坏,系统就可以正常工作,损坏的概率为1/n-1,说明RAID10容错性好,生产中使用的比较多。

2、一步创建RAID 10

[root@localhost ~]#mdadm -C /dev/md10 -a yes -l 10 -n 4 /dev/sdc{1,2,3,4}    ---创建RAID 10
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
[root@localhost ~]#mdadm -D /dev/md10    ---查看RAID阵列的详细信息
/dev/md10:
        Version : 1.2
  Creation Time : Tue Mar 13 21:40:55 2018
     Raid Level : raid10
     Array Size : 10449920 (9.97 GiB 10.70 GB)
  Used Dev Size : 5224960 (4.98 GiB 5.35 GB)
   Raid Devices : 4
  Total Devices : 4
    Persistence : Superblock is persistent

    Update Time : Tue Mar 13 21:41:40 2018
          State : clean, resyncing 
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

  Resync Status : 89% complete

           Name : localhost.localdomain:10  (local to host localhost.localdomain)
           UUID : 2694ff7a:a1c11db4:afba5c18:2853151c
         Events : 14

    Number   Major   Minor   RaidDevice State
       0       8       33        0      active sync set-A   /dev/sdc1
       1       8       34        1      active sync set-B   /dev/sdc2
       2       8       35        2      active sync set-A   /dev/sdc3
       3       8       36        3      active sync set-B   /dev/sdc4
[root@localhost ~]#lsblk
NAME     MAJ:MIN RM  SIZE RO TYPE   MOUNTPOINT
sdb        8:16   0   20G  0 disk   
sda        8:0    0   20G  0 disk   
├─sda1     8:1    0  300M  0 part   /boot
├─sda2     8:2    0 17.8G  0 part   /
└─sda3     8:3    0    2G  0 part   [SWAP]
sdc        8:32   0   20G  0 disk   
├─sdc1     8:33   0    5G  0 part   
│ └─md10   9:10   0   10G  0 raid10 
├─sdc2     8:34   0    5G  0 part   
│ └─md10   9:10   0   10G  0 raid10 
├─sdc3     8:35   0    5G  0 part   
│ └─md10   9:10   0   10G  0 raid10 
└─sdc4     8:36   0    5G  0 part   
  └─md10   9:10   0   10G  0 raid10 
sdd        8:48   0   20G  0 disk   
sr0       11:0    1  3.7G  0 rom   
[root@localhost ~]#mdadm -S /dev/md10    ---停用RAID
mdadm: stopped /dev/md10

你可能感兴趣的:(2018-03-13 RAID管理)