mdadm命令是用于杂linux系统中管理软Raid的工具。软Raid是一个由两个或以上的磁盘分区组成的虚拟矩阵。它允许由多个设备(通常是磁盘或分区)组成一个单一文件系统的矩阵。有些Raid级别提供冗余能力,在一定程度上能避免设备损坏带来的数据损失。
命令格式
mdadm [mode] [options]
支持的Raid级别有:RAID-0,RAID-1,RAID-4,RAID-5,RAID-6,RAID-10。
常用模式及其相关选项
-
- -C:创建模式
专属选项包括:
-n #:指定使用#个块设备来创建此RAID;
-l #:指定要创建的RAID的级别;
-a {yes|no}:指定是否自动创建目标RAID设备的设备文件;
-c CHUNK_SIZE:指定块大小;
-x #:指定空闲盘的个数;
- -C:创建模式
-
- -D:显示RAID的详细信息;也可以通过cat /proc/mdstat查看创建的md设备的信息;
-
- -A:装配模式,重新识别此前实现的RAID;
-
- -F:监控模式
-
- 管理模式:
-f:标记指定磁盘为损坏
-a:添加磁盘;
-r:移除磁盘;
- 管理模式:
-
- -S:停止md设备
使用案例
创建一个可用空间为10G的RAID5设备,要求其chunk大小为256K,并且有一个空闲盘:
[root@localhost ~]# mdadm -C /dev/md0 -a yes -l 5 -n 3 -x 1 -c 256K /dev/sdb{1,2,3,4}
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Mar 3 14:16:54 2018
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Mar 3 14:17:21 2018
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 256K
Consistency Policy : resync
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 2ffe38f5:b9d7a745:6d95db4f:961b452b
Events : 18
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
4 8 19 2 active sync /dev/sdb3
3 8 20 - spare /dev/sdb4
把上述创建的Raid5矩阵格式化后挂载进文件系统的/mnt目录,随后把/etc/passwd 复制粘贴到该目录下,具体步骤如下:
[root@localhost ~]# mke2fs -t ext4 /dev/md0
mke2fs 1.42.9 (28-Dec-2013)
文件系统标签=
OS type: Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=64 blocks, Stripe width=128 blocks
655360 inodes, 2618880 blocks
130944 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=2151677952
80 block groups
32768 blocks per group, 32768 fragments per group
8192 inodes per group
Superblock backups stored on blocks:
32768, 98304, 163840, 229376, 294912, 819200, 884736, 1605632
Allocating group tables: 完成
正在写入inode表: 完成
Creating journal (32768 blocks): 完成
Writing superblocks and filesystem accounting information: 完成
[root@localhost ~]#
[root@localhost ~]# mount /dev/md0 /mnt/
[root@localhost ~]# df -lh
文件系统 容量 已用 可用 已用% 挂载点
/dev/mapper/centos-root 18G 4.2G 14G 24% /
devtmpfs 472M 0 472M 0% /dev
tmpfs 488M 48M 441M 10% /dev/shm
tmpfs 488M 14M 474M 3% /run
tmpfs 488M 0 488M 0% /sys/fs/cgroup
/dev/sda1 497M 181M 316M 37% /boot
tmpfs 98M 44K 98M 1% /run/user/1000
tmpfs 98M 44K 98M 1% /run/user/0
/dev/sdd1 4.8G 21M 4.6G 1% /mydata
/dev/md0 9.8G 37M 9.2G 1% /mnt
[root@localhost ~]# cp /etc/passwd /mnt/
[root@localhost ~]# ll /mnt/
总用量 20
drwx------. 2 root root 16384 3月 3 14:19 lost+found
-rw-r--r--. 1 root root 2321 3月 3 14:22 passwd
[root@localhost ~]# tail -n 5 /mnt/passwd
tcpdump:x:72:72::/:/sbin/nologin
sssd:x:989:984:User for sssd:/:/sbin/nologin
abrt:x:173:173::/etc/abrt:/sbin/nologin
setroubleshoot:x:988:983::/var/lib/setroubleshoot:/sbin/nologin
charlie:x:1000:1000:charlie:/home/charlie:/bin/bash
使用mdadm -F监控该矩阵,并将该矩阵的/dev/sdb3设置为错误:
- 终端1:
[root@localhost ~]# mdadm -F /dev/md0 #开启mdadm的监控模式,会持续监控/dev/md0的状态
Mar 3 14:24:08: Fail on /dev/md0 /dev/sdb3
Mar 3 14:24:35: SpareActive on /dev/md0 /dev/sdb4 #设置了/dev/sdb3为错误后,空闲盘会自动激活替换/dev/sdb3。
- 终端2:
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb3 #设置矩阵中的/dev/sdb3为错误
mdadm: set /dev/sdb3 faulty in /dev/md0
此时依旧还能访问/mnt/passwd:
[root@localhost ~]# tail -n 5 /mnt/passwd
tcpdump:x:72:72::/:/sbin/nologin
sssd:x:989:984:User for sssd:/:/sbin/nologin
abrt:x:173:173::/etc/abrt:/sbin/nologin
setroubleshoot:x:988:983::/var/lib/setroubleshoot:/sbin/nologin
charlie:x:1000:1000:charlie:/home/charlie:/bin/bash
将标记为损坏的/dev/sdb3分区移除,并添加新的分区/dev/sdc1至/dev/md0,新增的磁盘会作为空闲盘处理:
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb3
mdadm: hot removed /dev/sdb3 from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -a /dev/sdc1
mdadm: added /dev/sdc1
[root@localhost ~]# mdadm -D /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sat Mar 3 14:16:54 2018
Raid Level : raid5
Array Size : 10475520 (9.99 GiB 10.73 GB)
Used Dev Size : 5237760 (5.00 GiB 5.36 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Sat Mar 3 14:31:45 2018
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 256K
Consistency Policy : resync
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : 2ffe38f5:b9d7a745:6d95db4f:961b452b
Events : 39
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 18 1 active sync /dev/sdb2
3 8 20 2 active sync /dev/sdb4
4 8 33 - spare /dev/sdc1
[root@localhost ~]#
安全移除磁盘分区并停止RAID矩阵:
[root@localhost ~]# umount /mnt/ #先将RAID从挂载点卸载
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdc1 #设置所属的磁盘分区为fault
mdadm: set /dev/sdc1 faulty in /dev/md0
[root@localhost ~]# mdadm /dev/md0 -f /dev/sdb{1,2,4}
mdadm: set /dev/sdb1 faulty in /dev/md0
mdadm: set /dev/sdb2 faulty in /dev/md0
mdadm: set /dev/sdb4 faulty in /dev/md0
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdc1 #移除所有的磁盘分区
mdadm: hot removed /dev/sdc1 from /dev/md0
[root@localhost ~]# mdadm /dev/md0 -r /dev/sdb{1,2,4}
mdadm: hot removed /dev/sdb1 from /dev/md0
mdadm: hot removed /dev/sdb2 from /dev/md0
mdadm: hot removed /dev/sdb4 from /dev/md0
[root@localhost ~]# mdadm -S /dev/md0 #停止RAID矩阵
mdadm: stopped /dev/md0