RAID5+LVM的机制

RAID5和LVM的组合

导读:首先祝所有的程序猿/媛1024快乐!本文主要讲解了在RAID5的基础上建立LVM的磁盘冗余管理机制(主要是建立与测试)。

零、首先新机器我们需要相应的命令

yum install vim -y
yum install lvm -y
yum install mdadm -y

一、添加硬盘

RAID5+LVM的机制_第1张图片
RAID5+LVM的机制_第2张图片
镜像没挂载,那肯定用不了yum啦
RAID5+LVM的机制_第3张图片
RAID5+LVM的机制_第4张图片
RAID5+LVM的机制_第5张图片
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

二、分区

[root@web dev]# fdisk /dev/sdb
在这里插入图片描述
[root@web dev]# fdisk /dev/sdc
在这里插入图片描述
[root@web dev]# fdisk /dev/sdd
在这里插入图片描述
[root@web dev]# fdisk /dev/sde
在这里插入图片描述

三、创建raid5:创建raid5,编辑配置文件

[root@web ~]# mdadm --create /dev/md0 --level=5 --raid-devices=3 --spare-devices=1 /dev/sd[b-e]1
//创建raid5磁盘冗余阵列
在这里插入图片描述
[root@web ~]# mdadm --detail /dev/md0 //查看是否创建成功
RAID5+LVM的机制_第6张图片
很明显创建成功了
RAID5+LVM的机制_第7张图片
[root@web ~]# mdadm --detail --scan > /etc/mdadm.conf //创建raid5配置文件
在这里插入图片描述
RAID5+LVM的机制_第8张图片

四、创建lvm:物理卷,卷组,逻辑卷

[root@web ~]# pvcreate /dev/md0 //创建物理卷/dev/md0
在这里插入图片描述
[root@web ~]# vgcreate myraidvg /dev/md0 //创建卷组myraidvg
在这里插入图片描述
[root@web ~]# lvcreate -n myraidlv -L 6G myraidvg
//创建名为myraidlv大小为6G的逻辑卷,从卷组myraidvg中分配容量
RAID5+LVM的机制_第9张图片
RAID5+LVM的机制_第10张图片

五、格式化,挂载,自动挂载

RAID5+LVM的机制_第11张图片
[root@web /]# mkfs.ext4 /dev/myraidvg/myraidlv //格式化文件系统
RAID5+LVM的机制_第12张图片
[root@web /]# mount /dev/myraidvg/myraidlv /raidlvm/ //挂载
RAID5+LVM的机制_第13张图片
//开机自动挂载
RAID5+LVM的机制_第14张图片

六、检查,测试

重启后进入
RAID5+LVM的机制_第15张图片
[root@web ~]# mdadm --detail /dev/md0
RAID5+LVM的机制_第16张图片
RAID5+LVM的机制_第17张图片
一切正常,开始测试:
RAID5+LVM的机制_第18张图片
在这里插入图片描述

1.首先测试raid5能否进行io操作

[root@web raidlvm]# dd if=/dev/zero of=/raidlvm/test bs=1M count=20
RAID5+LVM的机制_第19张图片

2.模拟维护raid5

(1)查看到当前阵列的状态(完好时) //查看到当前阵列的状态

RAID5+LVM的机制_第20张图片

(2)模拟故障磁盘

在实际中,当软RAID检测到某个磁盘有故障时,会自动标记该磁盘为故障磁盘,并停止对故障磁盘的读写操作,所以这里需要将/dev/sdb1标记为出现故障的磁盘,命令如下:
[root@web ~]# mdadm /dev/md0 --fail /dev/sdb1 //模拟故障磁盘
在这里插入图片描述
查看
RAID5+LVM的机制_第21张图片

(3)分析

以上信息表明阵列正在重建,当一个设备出现故障或被标记故障时,相应设备的方括号后将被标以(F),如“sdb10”,其中“[3/2]”的第一位数表示阵列所包含的设备数,第二位数表示活动的设备数,因为目前有一个故障设备,所以第二位数为2;这时的阵列以降级模式运行,虽然该阵列仍然可用,但是不具有数据冗余;而“[_UU]”表示当前阵列可以正常使用的设备是/dev/sdc1和/dev/sdd1,如果是设备“/dev/sdc1”出现故障时,则将变成[U_U]。

(4)重建完数据后

再次查看阵列状态时,就会发现当前的RAID设备又恢复了正常,如下:
[root@web ~]# cat /proc/mdstat
RAID5+LVM的机制_第22张图片

(5)移除故障磁盘

既然“/dev/sdb1”出现了故障,当然要移除该设备,移除故障磁盘的操作如下:
[root@web ~]# mdadm /dev/md0 --remove /dev/sdb1
在这里插入图片描述
RAID5+LVM的机制_第23张图片
查看raidlvm阵列数据是否丢失:
在这里插入图片描述
测试raidlvm阵列是否仍然可用:
RAID5+LVM的机制_第24张图片

(6)添加新硬盘

(先添加一块硬盘并分区,/dev/sdf1)
RAID5+LVM的机制_第25张图片
分区
在这里插入图片描述
在这里插入图片描述
RAID5+LVM的机制_第26张图片
由于例子中的RAID 5设置了一个备用设备,所以不需要做任何操作RAID 5也能正常运行,但是如果这时某块磁盘再出现故障的话,会导致RAID 5没有数据冗余功能,这对于存放重要的数据的设备来说显得太不安全了。那么这时增加到RAID 5中的“/dev/sdf1”则作为备用设备出现在阵列中,如下:

[root@cent7 dev]# mdadm /dev/md0 --add /dev/sdf1
//将/dev/sdf1加入到磁盘冗余阵列及lvm中
在这里插入图片描述
[root@cent7 dev]# mdadm --detail /dev/md0 //查看raid5lvm状态
RAID5+LVM的机制_第27张图片
RAID5+LVM的机制_第28张图片
RAID5+LVM的机制_第29张图片
RAID5+LVM的机制_第30张图片

(7)修改配置文件

首先,如果不修改配置文件,那么重启或再次进入时,就会出现下图的情况
RAID5+LVM的机制_第31张图片
即:/dev/sdf1没有自动挂载到阵列中
所以我们需要修改raid5的配置文件 /etc/mdadm.conf
RAID5+LVM的机制_第32张图片
wq保存后,退出,重启,发现一切ok!
RAID5+LVM的机制_第33张图片

七、总结:

1.RAID和LVM的组合与单独创建raid5和lvm的步骤是有区别的
2.当磁盘损坏,添加新的热备盘后,需要修改raid5的配置文件
3.由于作者水平有限,本次测试中可能存在一些问题,希望大家批评指正,感激不尽!

你可能感兴趣的:(RAID5+LVM的机制)