实验想法
1.我建立的5块硬盘/dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sdd1 /dev/sdf1
2.用3块硬盘做raid5阵列,其余2块做冗余spare盘
3.打破raid5关系,重新建立raid阵列用4块硬盘,其余1块做冗余spare
4.模拟一块硬盘的损坏,冗余盘允许顶替并作数据恢复机制
5.监控raid5的运行状况并转发给root
实验环境
1.操作系统RedHat Linux Enterprise 5.5
2.VMWare WorkStation 7.0
3.mdadm管理工具(linux自带)
实验步骤
1.查看硬盘状况
2.硬盘分区并转化成Linux raid auto
3.创建raid5的设备文件
4.创建raid5
5.看看简易的状态和信息
6.看看复杂的状态和信息
7.创建配置文件并查看了一下,如果没有配置文件在你停掉raid5后将无法再次启动
8.我现在把配置文件删除或重命名,只要/dev/md5找不到配置文件就可以了,我们看看能不能在启动
9.现在我把配置文件有正确的名字和路径,再次启动raid5
10.现在我们格式化raid5设备
11.挂载raid5设备
12.查看raid的挂载情况
13.我现在想在添加一块冗余盘
这是我原来的raid信息看到只有sde1是冗余盘
我添加新盘/dev/sdf1到/dev/md5的raid信息,sdf1也变成冗余了
14.现在我有5块硬盘了分别是/dev/sdb1---/dev/sdc1----/dev/sdd1---/dev/sde1---/dev/sdf1
我想用4块硬盘做raid5然后1块硬盘做冗余,因为我先前做过一次raid5,所以我再次创建时候会提示以前的硬盘已经有文件系统并属于其他raid了,我强制重建了,最后我看了一下raid5的状态没有问题
15.我在新的已挂载的raid5设备上写一些空数据,
16.我打算创建个后台任务监控raid5的状况
17.然后我让raid5设备中的/dev/sde1损坏
那么此时冗余盘应该立刻接替损坏的磁盘并开始建立数据恢复机制,/dev/sdf1代替了/dev/sde1了
18.我们来看看监控信息有没有发给管理员邮箱
至此我们的raid演示结束了,请虾哥虾姐有必要的补充就留言给我吧,不管是已实现的实验步骤还是未实现的需求都可以,我会竭尽全力补充和完善
我现在是用4块硬盘做raid5,突然想改成3块硬盘做了,看资料说
mdadm -A --run /dev/sdb1 /dev/sdc1 /dev/sdd1 不知道是否可以,我做实验了居然最后1块盘冗余盘/dev/sdf1代替了第1块硬盘/dev/sdb1,实在搞不懂了,请高手赐教