独立硬盘冗余阵列(RAID,Redundant Array of Independant Disks),旧称为廉价磁盘冗余阵列(Redundant Array of Inexpensive Disks)。1987年美国加州伯克利分校的一篇名为《A Case for Redundant Arrays of Inexpensive Disk(RAID)》论文诞生,这标志着RAID技术的开始。
RAID的实现模式
Software RAID:
软件磁盘阵列,由CPU处理和协调一个RAID里面各个硬盘的作业,这样就会给CPU带来较多的运算压力,分为3种:
1)基于主板的的磁盘阵列:通常上是由主板上的芯片组提供RAID功能。
2)硬件辅助磁盘阵列:需要RAID卡和相关厂商提供的驱动程序,RAID功能是由驱动程序和CPU运算来提供
3)操作系统的RAID功能:Linux、windows Server等操作系统内置的RAID功能
虽然软RAID实现的有多种,但是在生产环境还是不建议使用的。
Hardware RAID:
硬件磁盘阵列,在RAID卡上内置了CPU处理器,这样就不占用服务器的CPU了。一般硬件磁盘阵列都会有备份的电源模块和NVRAM(非易失性内存),当系统断掉后,备份电源开始供电,将硬盘读写的日志保存在内存中,当系统恢复,备份电源关闭供电,再在NVRAM读取日志数据,继续完成上次断电前没有完成的作业。
常用RAID介绍
常用的RAID有:RAID0,RAID-1,RAID-5,RAID6,RAID-10,RAID50。
RAID0,也称条带卷(striping)。在RAID0中,数据会被切成片,按一定顺序会被写到所有的磁盘里面,如下图:
若一片数据被切割成了A1-A8,将存储在一个由2块Disk组成的RAID0,那么第一段数据块A1会被存储在Disk0中,第二段数据块A2会被存储在Disk1中,第三段数据块会被存储在Disk0中,以此类推,这一片数据会被均分到2块磁盘上。
RAID0的优缺点:
1)速度快,写和读的能力得到了提高;
2)RAID0没有冗余的能力,一旦一块磁盘出现了故障,则所有的数据都将不会恢复;
3)RAID0需要N块磁盘才能实现(N>=2);
4)能够存储数据的大小为N*min(S1,S2,S3,S4....)
在RAID0中有两个重要的参数:
条带宽度:stripe width,它指的是可以被并行写入的数据块的个数,也就是实现RAID0中磁盘的个数;
条带大小:stripe size,它指的是每次写入磁盘的数据块的大小,大小一般为2KB或者512KB甚至更大,size越小,数据被分割的次数就越多。stripe size对性能是有一定的影响的,在生产环境中,需要调整好。
RAID1,镜像化,在RAID1中,数据会被复制成多份,存储在多个磁盘上,如下图:
若一片数据将要被存储,数据会被复制成多份(取决RAID1的磁盘个数),然后存储到每一个磁盘上。
RAID1的优缺点:
1)冗余性和数据的可靠性最高,只要不是磁盘同时损坏了,一般都不会带来数据丢失的问题;
2)RAID1的容量取决容量最小的那个磁盘,写入速度也是取决于最小的那个磁盘,较大的磁盘的剩余空间可 以分区使用,不会造成浪费;
3)RAID1的读取速度理论上来说是磁盘个数的倍数;
4)RAID1需要N块磁盘才能实现(N>=2)
5)能够存储数据的大小为min(S1,S2,S3...)
RAID3,数据类似于RAID0,被条带化的存储在多个磁盘中,数据以字节为单位,与RAID0不同的是,RAID3单独使用了一块独立的磁盘用来存储数据的奇偶校验值,如下图所示:
数据被切片存储在Disk0-2上,同时计算处奇偶校验值存储在Disk3上,这样即使Disk0-2中损坏一块磁盘,也能根据奇偶校验值得到损坏磁盘的数据。
RAID3的优缺点:
1.较高的容错能力;
2.不适合写入操作较多的情景,会给校验盘带来一定的负载,适合读取操作较多的应用环境;
3.RAID3需要N块磁盘(N>=3);
4.能够存储数据的大小为(N-1)*min(S1,S2,S3,S4....)。
和RAID3类似,RAID4不是以字节为存取单位,RAID4的数据以块(一般为512字节)为单位,如下图:
以块为单位带来的好处就是,减少了奇偶检验的次数,比如,如果一段数据的大小为10个字节,在RAID3上可能需要计算2次奇偶检验值了,但是在RAID4上,10个字节都会被放在第一个磁盘上,并不需要计算。
RAID4的优缺点:
1.较高的容错能力;
2.提高了小量数据的I/O能力;
3.RAID4需要N块磁盘(N>=3);
4.能够存储数据的大小为(N-1)*min(S1,S2,S3,S4....)。
RAID5可以理解成是RAID0和RAID1的折中方案,把数据条带化后存储,并且将数据奇偶检验值存储在所有的硬盘上,如下图:
数据被条带化存储到了磁盘上,并且每个磁盘上都能够存储奇偶检验值,其读写速度和RAID0差不多,可能写的时候要慢一点,比较要计算奇偶检验,这样,即使坏掉一块磁盘,只需要更换上好的磁盘,RAID会利用剩下奇偶检验去重建磁盘上的数据。
与RAID5类似,只是增加了第二个独立的奇偶检验信息块,使用了两种不同的奇偶检验算法,如下图所示:
数据仍然是被条带化得存储在磁盘上,但是会计算出两个独立的奇偶检验值,相对于RAID5来说有更多的I/O操作和计算量,所以RAID6通常不会以软件来实现,一般会使用硬件实现,RAID6也是最常见的磁盘阵列。
RAID6的优缺点:
1)较高的容错能力
2)同一RAID6中最多运行同时损坏2块磁盘,更换磁盘后,数据将被重新计算写入;
3)RAID6需要N个磁盘(N>=4);
4)RAID容量为(N-2)*min(s1,s2,s3,...)
RAID 01是一种混合的磁盘阵列,即是RAID0和RAID1的混合,先做条带,再做镜像:
RAID01中,同组RAID0只要出现一个磁盘损坏,那么这个RAID 0就不能你使用了,值剩下其他组的磁盘运作,可靠性较低。
RAID01的优缺点:
1)数据可靠性低
2)RAID01需要N个磁盘(N>=4)
和RAID 01相反,RAID10是先做RAID1,再做RAID0,如下图所示:
RAID10和RAID01在读写速度上没有什么太大的差别,但是RAID10的数据安全性比较高,若下图左边那组RAID1中磁盘损坏了一个,另外一个也能用,右边那组RAID1再损坏一个数据也是恢复的,除非一组RAID1中的磁盘都坏掉了。
RAID 50是RAID5和RAID0的组合,先做RAID5,再做RAID0,RAID 5至少需要3颗硬盘,因此要以多组RAID 5构成RAID 50,至少需要6颗硬盘,如下图。
在底层的任意一组或者多组的RAID5中出现了一个磁盘的损坏是可以接受的,但是若出现了2个或者以上的磁盘损坏,整个RAID50就会损坏。
RAID50的优缺点:
1)较高的容错能力
2)RAID10需要N个磁盘(N>=6)
Just a Bunch of Disks,能够将多块磁盘的空间合并起来的一个连续的空间,可靠性较低。
在Linux系统上实现Software RAID
在centos中,使用模块化得工具mdadm,如果没有可以使用:
yum -y install mdadm
命令的语法格式:mdadm [mode][options] -C:创建模式 -n #: 使用#个块设备来创建此RAID; -l #:指明要创建的RAID的级别; -a {yes|no}:自动创建目标RAID设备的设备文件; -c CHUNK_SIZE: 指明块大小; -x #: 指明空闲盘的个数; -D:显示raid的详细信息 mdadm -D /dev/md# 管理模式: -f:标记指定磁盘为损坏 -a:添加磁盘 -r:移除磁盘 停止md设备: mdadm -S /dev/md#
举例:创建一个可用空间为10G的RAID1设备,文件系统为ext4,有一个空闲盘,开机可自动挂载至/backup目录。
先来分析一下:RAID1为镜像磁盘阵列,最少需要2个磁盘,可用空间为10G,即磁盘最小大小为10G即可,我们这里就使用1块硬盘的不同分区来模拟各个磁盘,每个10G:
[root@localhost ~]# fdisk -l /dev/sdb Disk /dev/sdb: 128.8 GB, 128849018880 bytes 255 heads, 63 sectors/track, 15665 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0xf9b59c0f Device Boot Start End Blocks Id System /dev/sdb1 1 1306 10490413+ 83 Linux /dev/sdb2 1307 2612 10490445 83 Linux /dev/sdb3 2613 3918 10490445 83 Linux
使用以下命令创建RAID1系统,-C为创建模式,/dev/md0设备文件名,-n 2:使用2个块设备创建此RAID,-x 1:指定1个空闲盘的,-l:指定硬盘RAID等级,-a yes:自动创建RAID的设备文件,/dev/adb{1,2,3}:指定磁盘位置
[root@localhost ~]# mdadm -C /dev/md0 -n 2 -x 1 -l 1 -c 128 -a yes /dev/sdb{1,2,3} mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started.
使用 cat /proc/mdstat 查看RAID构建的进度和预期完成的时间:
unused devices:[root@localhost ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb3[2](S) sdb2[1] sdb1[0] 10482176 blocks super 1.2 [2/2] [UU] [=============>.......] resync = 68.6% (7200128/10482176) finish=0.2min speed=200001K/sec unused devices: [root@localhost ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdb3[2](S) sdb2[1] sdb1[0] 10482176 blocks super 1.2 [2/2] [UU] unused devices:
[root@localhost ~]# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sun Jul 30 05:16:32 2017 Raid Level : raid1 Array Size : 10482176 (10.00 GiB 10.73 GB) Used Dev Size : 10482176 (10.00 GiB 10.73 GB) Raid Devices : 2 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Jul 30 05:17:25 2017 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 Name : localhost.localdomain:0 (local to host localhost.localdomain) UUID : a46c7642:a46e274a:05923aeb:4c1ae0e9 Events : 17 Number Major Minor RaidDevice State 0 8 17 0 active sync /dev/sdb1 1 8 18 1 active sync /dev/sdb2 2 8 19 - spare /dev/sdb3
格式化RAID1为ext4文件系统:
[root@localhost ~]# mkfs.ext4 /dev/md0 mke2fs 1.41.12 (17-May-2010) 文件系统标签= 操作系统:Linux 块大小=4096 (log=2) 分块大小=4096 (log=2) Stride=0 blocks, Stripe width=0 blocks 655360 inodes, 2620544 blocks 131027 blocks (5.00%) reserved for the super user 第一个数据块=0 Maximum filesystem blocks=2684354560 80 block groups 32768 blocks per group, 32768 fragments per group 8192 inodes per group Superblock backups stored on blocks: 32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632 正在写入inode表: 完成 Creating journal (32768 blocks): 完成 Writing superblocks and filesystem accounting information: 完成 This filesystem will be automatically checked every 35 mounts or 180 days, whichever comes first. Use tune2fs -c or -i to override.
[root@localhost ~]# mount /dev/md0 /backup/ [root@localhost ~]# [root@localhost ~]# df Filesystem 1K-blocks Used Available Use% Mounted on /dev/mapper/VolGroup-lv_root 51606140 1122252 47862448 3% / tmpfs 953276 0 953276 0% /dev/shm /dev/sda1 495844 33466 436778 8% /boot /dev/mapper/VolGroup-lv_home 67708512 184084 64085020 1% /home /dev/md0 10317624 154100 9639416 2% /backup
可以使用 -f 将其中的某个磁盘模拟为坏的故障硬盘
[root@localhost backup]# mdadm /dev/md0 -f /dev/sdb1 mdadm: set /dev/sdb1 faulty in /dev/md0
[root@localhost backup]# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sun Jul 30 05:16:32 2017 Raid Level : raid1 Array Size : 10482176 (10.00 GiB 10.73 GB) Used Dev Size : 10482176 (10.00 GiB 10.73 GB) Raid Devices : 2 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Jul 30 05:37:02 2017 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 1 Spare Devices : 0 Name : localhost.localdomain:0 (local to host localhost.localdomain) UUID : a46c7642:a46e274a:05923aeb:4c1ae0e9 Events : 38 Number Major Minor RaidDevice State 2 8 19 0 active sync /dev/sdb3 1 8 18 1 active sync /dev/sdb2 0 8 17 - faulty /dev/sdb1
使用 -r 选项能够移除坏的硬盘
[root@localhost backup]# mdadm /dev/md0 -r /dev/sdb1
mdadm: hot removed /dev/sdb1 from /dev/md0
[root@localhost backup]# fdisk /dev/sdb WARNING: DOS-compatible mode is deprecated. It's strongly recommended to switch off the mode (command 'c') and change display units to sectors (command 'u'). Command (m for help): n Command action e extended p primary partition (1-4) p Selected partition 4 First cylinder (3919-15665, default 3919): Using default value 3919 Last cylinder, +cylinders or +size{K,M,G} (3919-15665, default 15665): +10G Command (m for help): w The partition table has been altered! Calling ioctl() to re-read partition table. WARNING: Re-reading the partition table failed with error 16: 设备或资源忙. The kernel still uses the old table. The new table will be used at the next reboot or after you run partprobe(8) or kpartx(8)
咦,有告警!因为当前的磁盘已经有分区被挂载当根文件系统的目录上了,内核没有识别,我们来查看/proc/parttions,果真没有识别
[root@localhost backup]# cat /proc/partitions major minor #blocks name 8 16 125829120 sdb 8 17 10490413 sdb1 8 18 10490445 sdb2 8 19 10490445 sdb3 8 0 125829120 sda 8 1 512000 sda1 8 2 125316096 sda2 253 0 52428800 dm-0 253 1 4096000 dm-1 253 2 68788224 dm-2 9 0 10482176 md0
[root@localhost backup]# partx -a /dev/sdb
添加/dev/sdb4到RAID1
[root@localhost backup]# mdadm /dev/md0 -a /dev/sdb4
mdadm: added /dev/sdb4
[root@localhost backup]# mdadm -D /dev/md0 /dev/md0: Version : 1.2 Creation Time : Sun Jul 30 05:16:32 2017 Raid Level : raid1 Array Size : 10482176 (10.00 GiB 10.73 GB) Used Dev Size : 10482176 (10.00 GiB 10.73 GB) Raid Devices : 2 Total Devices : 3 Persistence : Superblock is persistent Update Time : Sun Jul 30 05:51:52 2017 State : clean Active Devices : 2 Working Devices : 3 Failed Devices : 0 Spare Devices : 1 Name : localhost.localdomain:0 (local to host localhost.localdomain) UUID : a46c7642:a46e274a:05923aeb:4c1ae0e9 Events : 40 Number Major Minor RaidDevice State 2 8 19 0 active sync /dev/sdb3 1 8 18 1 active sync /dev/sdb2 3 8 20 - spare /dev/sdb4
设置开机可以自动挂载只/backup目录下,修改配置文件/etc/fstab即可
# # /etc/fstab # Created by anaconda on Fri Jul 28 06:34:35 2017 # # Accessible filesystems, by reference, are maintained under '/dev/disk' # See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info # /dev/mapper/VolGroup-lv_root / ext4 defaults 1 1 UUID=bc67ad74-46b3-4abc-b8a7-c4fb7cd6552a /boot ext4 defaults 1 2 /dev/mapper/VolGroup-lv_home /home ext4 defaults 1 2 /dev/mapper/VolGroup-lv_swap swap swap defaults 0 0 tmpfs /dev/shm tmpfs defaults 0 0 devpts /dev/pts devpts gid=5,mode=620 0 0 sysfs /sys sysfs defaults 0 0 proc /proc proc defaults 0 0 /dev/md0 /backup ext4 defaults 0 0
watch -n1 'cat /proc/mdstat'