制作软RAID

 
 
 
 
 
RAID 全名是 Redundant Array of Independent Disk 的缩写,中文意识是独立冗余磁盘阵列
 RAID 采用存储系统,其提高传输速率和提供容错,可靠性,扩大存储等功能
 
 
  第一    RAID 0
   实验前准备,因为实验是在虚拟机上做的,先为虚拟机加快硬盘为了在实验,我一般吧磁盘都分为 512M
1 查看磁盘,进行磁盘分区
  #fdisk �Cl
  #fdisk /dev/sdc
 
但是 RAID 必须把文件类型转化为 LINUX  RAID  AUTODECET 的类型
 
#command  m for help ): t
#partition number 1-2 fd
         :应为我们的就分了两个区 在这只需把需要改变的磁盘文件类型的区号。
 
# Hex code type L to list codes ): 需要输入要改变文件类型的代号   可以输入大写的 L 可以查看文件系统类型
2 使 mdadm 命令进行创建 RAID0
 #mdadm  -v �CC  /dev/md0  -a yes  -l  0   -n  2  /dev/sdc{1,2}
    /dev/md0 是要创建的 RAID 0 的名    -l 是说明要创建是那一种 RAID 级别 ,
-n 是要说明你创建的 RAID 0 有几个设备
 
 
3 执行 cat /proc/mdstat 查看创建的 RAID 0
 
 
4 格式化创建的 RAID 0 , 但是在格式化前必须先执行 partporbe
 #mkfs.ext3  /dev/md0
5 创建目录并挂载
#mkdir   /RAID0
#mount /dev/md0   /RAID0
并执行 mount 查看
#mount
   
7 执行命令查看磁盘的情况
# df �Clh
  第二  RAID 1
 
 
  1 同样在创建 RAID 1 是也需要准备虚拟机重新挂载硬盘,分区,
同样是两个分区,且都是 512m 并转化成 RAID LINUX AUTODECET 类型的,该过程和在创建 RAID0 时的过程一样,在此略过
2 执行命令创建 RAID1
 #mdadm �Cv �CC  /dev/md1  -a  yes  -l 1  �Cn 2 /dev/sdc{3,5}
执行命令查看
 #cat  /proc/mdstat
4 执行命令:
#partprobe
 
 
5 格式化磁盘
 
建立文件夹
 #mkdir  /RAID1
 
6 建立挂载点,并挂载 RAID1
  要是在开机自动挂载是应该编辑文件 /etc/fstab 文件
 # vim /etc/fstab
 /dev/md1    /RAID1     ext3      default       0 0
 
 
#mount /dev/md1   /RAID1
 
7 查看 raid1 的信息
 
 #mdadm   --detail  /dev/md1
 
 
 
 
 
 
 
RAID 5
在做 raid 5 应先分区,分三个区 在这就不指明分区的大小
当然在这就不再重复前面的磁盘分区了,但是在分区后就必须指明文件系统类型,当然文件的系统类型必须是 fd   fd  对应的三个是 linux raid autodetect
  应为在做 raid5 是至少要三块磁盘,且其中一块磁盘做热备。当准备工作完成后,开始配置 raid5
1 . 创建 raid5 
# mdadm   -v  -C  /dev/md5   -a yes �Cl 5 �Cn  3  -x  1 /dev/sdd{1,5,6 }
   mdadm layout  defaults to left-symmetric
   mdadm: chunk size defaults to 64k
   mdadm size  set  to  987840
   mdadm : array  /dev/md5   started
`2 查看文文件 /part/mdstat
#cat  /part/mdstat
Personalitiles  [raid6] [raid5] [raid4]
Md5 : active raid5 sdd6[2] sdd7[3](s) sdd5[1] sdd1[0]
      1975680 blocks level 5, 64k chunk , algorithm 2 [3/3] [uuu]
Unused devices:<none>
 
3 格式化磁盘
  # mkfs.etx3   /devmd5
 
  ARRAY /dev/md5 level=raid5 num-devices=3 metadata=0.90 spares=1 UUID=c1f61914:fce7d526:78b0a85c:52386d13
 
 
mke2fs 1.39 (29-May-2006)
Filesystem label=
OS type: Linux
Block size=4096 (log=2)
Fragment size=4096 (log=2)
247296 inodes, 493920 blocks
24696 blocks (5.00%) reserved for the super user
First data block=0
Maximum filesystem blocks=507510784
16 block groups
32768 blocks per group, 32768 fragments per group
15456 inodes per group
Superblock backups stored on blocks:
        32768, 98304, 163840, 229376, 294912
 
Writing inode tables: done                           
Creating journal (8192 blocks): done
Writing superblocks and filesystem accounting information: done
 
This filesystem will be automatically checked every 23 mounts or
180 days, whichever comes first.  Use tune2fs -c or -i to override.
 
 
 
 
 
 4 挂载 raid 5 ,但是先建立挂载点,当然要是开机在东挂载是需要编辑文件 /etc/fstab
  #mkdir  /RAID5
  #vim  /etc/fstab
  /dev/md5      /RAID5   ext3   defaults   0  0
  
  如果是直接挂载则不需要编辑文件 /etc/fstab ,直接挂载
# mount  /dev/md5     /RAID5
 
 
      5 查看 raid5 的信息
  # mdadm   --detail   /dev/md5
 
   / dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      spare   /dev/sdd7
 
6 模拟 raid5 卷中其中的一个分区坏掉
 # mdadm  /dev/md5   -f   /dev/sdd6
 
mdadm set /dev/sdd6  faulty   in /dev/md5
 
 
 
 
7 再次查看 raid5
 # mdadm  --detail  /dev/md5
d ev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd7
 
       3       8       55        -      spare   /dev/sdd6
 
 
 
8 同是可以把一个新设备加进 raid5 中: 如果说新分的磁盘分区,要先执行下 partporbe ,在进行添加
  # mdadm  RAID 设备” �Ca  “分区”
  # mdadm    /dev/md5    -a   /dev/sdd8
  Mdadm  added   /dev/sdd8
 
9 再次查看 /dev/md5
# mdadm  --detail   /dev/md5
dev/md5:
        Version : 0.90
  Creation Time : Sun Feb  7 21:46:27 2010
     Raid Level : raid5
     Array Size : 1975680 (1929.70 MiB 2023.10 MB)
  Used Dev Size : 987840 (964.85 MiB 1011.55 MB)
   Raid Devices : 3
  Total Devices : 4
Preferred Minor : 5
    Persistence : Superblock is persistent
 
    Update Time : Sun Feb  7 21:51:31 2010
          State : clean
 Active Devices : 3
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 1
 
         Layout : left-symmetric
     Chunk Size : 64K
 
           UUID : c1f61914:fce7d526:78b0a85c:52386d13
         Events : 0.2
 
    Number   Major   Minor   RaidDevice State
       0       8       49        0      active sync   /dev/sdd1
       1       8       53        1      active sync   /dev/sdd5
       2       8       54        2      active sync   /dev/sdd6
 
       3       8       55        -      faulty spare   /dev/sdd7
   4       8        56       -      spare        /dev/sdd8
 
10 当然可以停止磁盘阵列,也可以启用磁盘阵列
 # mdadm  -A  磁盘阵列名 表示启用 s 设备、
     # mdadm   -scan  扫描磁盘阵列
      # mdadm   -S  表示停止磁盘阵列
 

你可能感兴趣的:(职场,raid,休闲)