导读:首先祝所有的程序猿/媛1024快乐!本文主要讲解了在RAID5的基础上建立LVM的磁盘冗余管理机制(主要是建立与测试)。
yum install vim -y
yum install lvm -y
yum install mdadm -y
[root@web dev]# fdisk /dev/sdb
[root@web dev]# fdisk /dev/sdc
[root@web dev]# fdisk /dev/sdd
[root@web dev]# fdisk /dev/sde
[root@web ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1
//创建raid5磁盘冗余阵列
[root@web ~]# mdadm --detail /dev/md0 //查看是否创建成功
很明显创建成功了
[root@web ~]# mdadm --detail --scan > /etc/mdadm.conf //创建raid5配置文件
[root@web ~]# pvcreate /dev/md0 //创建物理卷/dev/md0
[root@web ~]# vgcreate myraidvg /dev/md0 //创建卷组myraidvg
[root@web ~]# lvcreate -n myraidlv -L 6G myraidvg
//创建名为myraidlv大小为6G的逻辑卷,从卷组myraidvg中分配容量
[root@web /]# mkfs.ext4 /dev/myraidvg/myraidlv //格式化文件系统
[root@web /]# mount /dev/myraidvg/myraidlv /raidlvm/ //挂载
//开机自动挂载
重启后进入
[root@web ~]# mdadm --detail /dev/md0
一切正常,开始测试:
[root@web raidlvm]# dd if=/dev/zero of=/raidlvm/test bs=1M count=20
在实际中,当软RAID检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作,所以这里需要将/dev/sdb1标记为出现故障的磁盘,命令如下:
[root@web ~]# mdadm /dev/md0 --fail /dev/sdb1 //模拟故障磁盘
查看
以上信息表明阵列正在重建,当一个设备出现故障或被标记故障时,相应设备的方括号后将被标以(F),如“sdb10”,其中“[3/2]”的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,因为目前有一个故障设备,所以第二位数为2;这时的阵列以降级模式运行,虽然该阵列仍然可用,但是不具有数据冗余;而“[_UU]”表示当前阵列可以正常使用的设备是/dev/sdc1和/dev/sdd1,如果是设备“/dev/sdc1”出现故障时,则将变成[U_U]。
再次查看阵列状态时,就会发现当前的RAID设备又恢复了正常,如下:
[root@web ~]# cat /proc/mdstat
既然“/dev/sdb1”出现了故障,当然要移除该设备,移除故障磁盘的操作如下:
[root@web ~]# mdadm /dev/md0 --remove /dev/sdb1
查看raidlvm阵列数据是否丢失:
测试raidlvm阵列是否仍然可用:
(先添加一块硬盘并分区,/dev/sdf1)
分区
由于例子中的RAID 5设置了一个备用设备,所以不需要做任何操作RAID 5也能正常运行,但是如果这时某块磁盘再出现故障的话,会导致RAID 5没有数据冗余功能,这对于存放重要的数据的设备来说显得太不安全了。那么这时增加到RAID 5中的“/dev/sdf1”则作为备用设备出现在阵列中,如下:
[root@cent7 dev]# mdadm /dev/md0 --add /dev/sdf1
//将/dev/sdf1加入到磁盘冗余阵列及lvm中
[root@cent7 dev]# mdadm --detail /dev/md0 //查看raid5lvm状态
首先,如果不修改配置文件,那么重启或再次进入时,就会出现下图的情况
即:/dev/sdf1没有自动挂载到阵列中
所以我们需要修改raid5的配置文件 /etc/mdadm.conf
wq保存后,退出,重启,发现一切ok!
1.RAID和LVM的组合与单独创建raid5和lvm的步骤是有区别的
2.当磁盘损坏,添加新的热备盘后,需要修改raid5的配置文件
3.由于作者水平有限,本次测试中可能存在一些问题,希望大家批评指正,感激不尽!