RAID是英文Redundant Array of Independent Disks的缩写,中文简称为独立冗余磁盘阵列。简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术。
组成磁盘阵列的不同方式称为RAID级别(RAID Levels)。在用户看起来,组成的磁盘组就像是一个硬盘,用户可以对它进行分区,格式化等等。总之,对磁盘阵列的操作与单个硬盘一模一样。不同的是,磁盘阵列的存储速度要比单个硬盘高很多,而且可以提供自动数据备份。数据备份的功能是在用户数据一旦发生损坏后,利用备份信息可以使损坏数据得以恢复,从而保障了用户数据的安全性。
1.CPU: 运算/控制
几由服务器:服务器上有多少个CPU
CPU核数:处理工作任务 核心数越多 并行处理能力越强
2.内存: 数据先存储到内存(断电易丢失)
名词概念:
程序:所有代码信息构成一个程序
#进程:运行起来的程序
守护进程:一直运行存在的进程
缓存:将数据放入缓存区 加快数据读取 读-缓存(cache)
缓冲:将数据放入缓冲区 加快数据写入 写-缓冲(buffer)
3.硬盘: 存储到硬盘(永久存储)
接口分类:SATA–SCIS–SAS
硬盘转速:家用级别5400、7200企业级别:10K、15K
换算:1024B=1KB 1024KB=1MB 专业级别换算
---------1000B=1KB 1024KB=1MB 工业级别换算
存储单位:B-KB-MB-GB-TB-PB-EB…
4.主板: 南桥、北桥
5.电源: 服务供电(冗余特性)
6.网卡: 实现网络通讯(可多块)
7.陈列卡BAID: 提高单块硬盘的存储量/提高数据安全性/实现提高数据存储效率
8.远程管理卡: 控制服务器启动/远程安装系统
RAID分为不同的等级,不同等级的RAID均在数据可靠性及读写性能上做了不同的权衡。
是Redundant Array of Independent Disks的缩写,中
文简称为独立冗余磁盘阵列
把多块独立的物理硬盘按不同的方式组合起来形成一个硬
盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能
和提供数据备份技术
组成磁盘阵列的不同方式称为RAID级别(RAID Levels)
常用的RAID级别有以下几种:
RAID 0
RAID 1
RAID 5
RAID 6
RAID 1+0
RAID 1 | RAID 5 | RAID 6 | |
---|---|---|---|
是否有校验 | 无 | 有 | 有 |
保护能力 | 允许一个设备故障 | 允许一个设备故障 | 允许两个设备故障 |
写性能 | 需写两个存储设备 | 需写计算校验 | 需双重写计算校验 |
磁盘利用率 | 50% | N-1/N(N>=3) | N-2/N(N>=4) |
SATA是“Serial ATA”的缩写,主要用在主板和大量存储设备之间传输数据。拥有这种接口的硬盘又叫串口硬盘,以采用串行方式传输数据
SATA总线使用了嵌入式时钟信号,使得其具备更强的纠错能力。如果发现数据传输中的错误会自动进行矫正,很大程度上提高了数据传输的可靠性,也是一种支持热拔热插的接口
同样的配置RAID 5,选择NO read ah
退出保存
Ctrl+alt+delete重启系统
按F11等待进入
选择HARD sevice C
选择从U盘进行安装
之后就是跟装CentOS是一样的,这里就不再做阐述了。
mdadm工具指令基本格式
[root@localhost ~]# mdadm -C -v 目录 -l级别 -n磁盘数量 设备
常用选项
l 指定级别
C 创建
v 指定目录
n 磁盘数量
第一个方法
cat /proc/mdstat '//查看状态'
第二个方法
mdadm -D 目录 '//查看更详细信息'
1.创建好两个磁盘分区
设备 Boot Start End Blocks Id System
/dev/sdb1 2048 41943039 20970496 fd Linux raid autodetect
设备 Boot Start End Blocks Id System
/dev/sdc1 2048 41943039 20970496 fd Linux raid autodetect
2.创建RAID0
[root@localhost ~]# mdadm -C -v /dev/md0 -l0 -n2 /dev/sd[b-c]1 '//在/dev/md0目录下创建RAID 0'
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# cat /proc/mdstat '//查看raid 第一种方法'
Personalities : [raid0]
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices:
[root@localhost ~]# mdadm -D /dev/md0 '//查看raid 第二种方法'
/dev/md0:
Version : 1.2
Creation Time : Mon Nov 4 23:13:21 2019
Raid Level : raid0
Array Size : 41908224 (39.97 GiB 42.91 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:13:21 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : localhost.localdomain:0 (local to host localhost.localdomain)
UUID : e6803bdd:e42b94df:8a0475cd:a1ef6f04
Events : 0
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 8 33 1 active sync /dev/sdc1
3.格式化分区
[root@localhost ~]# mkfs.xfs /dev/md0
meta-data=/dev/md0 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
4.格式化后并挂载
[root@localhost ~]# mkdir /raid0 '//创建raid0挂载目录'
[root@localhost ~]# mount /dev/md0 /raid0/ '//将/dev/md0 挂载到/raid0'
[root@localhost ~]# df -hT '//查看挂载是否成功'
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/sda2 xfs 20G 3.1G 17G 16% /
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 912M 0 912M 0% /dev/shm
tmpfs tmpfs 912M 9.0M 903M 1% /run
tmpfs tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda5 xfs 10G 37M 10G 1% /home
/dev/sda1 xfs 6.0G 174M 5.9G 3% /boot
tmpfs tmpfs 183M 12K 183M 1% /run/user/42
tmpfs tmpfs 183M 0 183M 0% /run/user/0
/dev/md0 xfs 40G 33M 40G 1% /raid0
-x:备用磁盘
1.创建raid1
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1 -x1 /dev/sdf1 '//创建将sdd1,sde1创建raid1,并将sdf1作为备用磁盘'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看状态信息
[root@localhost ~]# cat /proc/mdstat '//查看状态信息'
Personalities : [raid0] [raid1]
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
20954112 blocks super 1.2 [2/2] [UU]
[===========>.........] resync = 59.1% (12402304/20954112) finish=0.6min speed=206292K/sec
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices:
[root@localhost ~]# mdadm -D /dev/md1 '//查看详细信息'
/dev/md1:
Version : 1.2
Creation Time : Mon Nov 4 23:41:52 2019
Raid Level : raid1
Array Size : 20954112 (19.98 GiB 21.46 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 2
Total Devices : 3
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:43:18 2019
State : clean, resyncing
Active Devices : 2
Working Devices : 3
Failed Devices : 0
Spare Devices : 1
Consistency Policy : resync
Resync Status : 82% complete
Name : localhost.localdomain:1 (local to host localhost.localdomain)
UUID : cbd878ef:8ad679a4:2ee73455:99f429de
Events : 13
Number Major Minor RaidDevice State
0 8 49 0 active sync /dev/sdd1
1 8 65 1 active sync /dev/sde1
2 8 81 - spare /dev/sdf1
3.格式化并挂载
[root@localhost ~]# mkfs.xfs /dev/md1 '//格式化分区'
meta-data=/dev/md1 isize=512 agcount=4, agsize=1309632 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=5238528, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mkdir /raid1 '//创建raid1挂载目录'
[root@localhost ~]# mount /dev/md1 /raid1 '//挂载'
[root@localhost ~]# df -hT
文件系统 类型 容量 已用 可用 已用% 挂载点
/dev/sda2 xfs 20G 3.1G 17G 16% /
devtmpfs devtmpfs 898M 0 898M 0% /dev
tmpfs tmpfs 912M 0 912M 0% /dev/shm
tmpfs tmpfs 912M 9.1M 903M 1% /run
tmpfs tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda5 xfs 10G 37M 10G 1% /home
/dev/sda1 xfs 6.0G 174M 5.9G 3% /boot
tmpfs tmpfs 183M 12K 183M 1% /run/user/42
tmpfs tmpfs 183M 0 183M 0% /run/user/0
/dev/md0 xfs 40G 33M 40G 1% /raid0
/dev/md1 xfs 20G 33M 20G 1% /raid1
1.创建raid5
[root@localhost ~]# mdadm -C -v /dev/md5 -l5 -n3 /dev/sd[g-j]1 -x1 /dev/sdk1 '//用sdg1,sdh1,sdj1创建raid5,将sdk1作为备用磁盘'
mdadm: layout defaults to left-symmetric
mdadm: layout defaults to left-symmetric
mdadm: chunk size defaults to 512K
mdadm: size set to 20954112K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md5 started.
2.查看磁盘信息
[root@localhost ~]# cat /proc/mdstat '//查看状态信息'
Personalities : [raid0] [raid1] [raid6] [raid5] [raid4]
md5 : active raid5 sdj1[4] sdk1[3](S) sdh1[1] sdg1[0]
41908224 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
20954112 blocks super 1.2 [2/2] [UU]
md0 : active raid0 sdc1[1] sdb1[0]
41908224 blocks super 1.2 512k chunks
unused devices:
[root@localhost ~]# mdadm -D /dev/md5 '//查看详细信息'
/dev/md5:
Version : 1.2
Creation Time : Mon Nov 4 23:53:59 2019
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Mon Nov 4 23:55:43 2019
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
Events : 18
Number Major Minor RaidDevice State
0 8 97 0 active sync /dev/sdg1
1 8 113 1 active sync /dev/sdh1
4 8 145 2 active sync /dev/sdj1
3 8 161 - spare /dev/sdk1
3.删除一块磁盘,看备用磁盘是否自动顶替掉坏掉的磁盘
[root@localhost ~]# mdadm -f /dev/md5 /dev/sdg1 '//删除sdg1'
mdadm: set /dev/sdg1 faulty in /dev/md5 '//提示sdg1已经损坏'
[root@localhost ~]# mdadm -D /dev/md5 '//查看详细信息'
/dev/md5:
Version : 1.2
Creation Time : Mon Nov 4 23:53:59 2019
Raid Level : raid5
Array Size : 41908224 (39.97 GiB 42.91 GB)
Used Dev Size : 20954112 (19.98 GiB 21.46 GB)
Raid Devices : 3
Total Devices : 4
Persistence : Superblock is persistent
Update Time : Tue Nov 5 00:00:54 2019
State : clean, degraded, recovering
Active Devices : 2
Working Devices : 3
Failed Devices : 1
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : resync
Rebuild Status : 22% complete
Name : localhost.localdomain:5 (local to host localhost.localdomain)
UUID : e473255b:68d70fc5:3e26dce3:9a98f13e
Events : 23
Number Major Minor RaidDevice State
3 8 161 0 spare rebuilding /dev/sdk1 '//发现备用sdk1已经顶替上来'
1 8 113 1 active sync /dev/sdh1
4 8 145 2 active sync /dev/sdj1
0 8 97 - faulty /dev/sdg1
4.格式化并挂载
[root@localhost ~]# mkdir /raid5 '//创建挂载点目录'
[root@localhost ~]# mkfs.xfs /dev/md5 '//格式化'
meta-data=/dev/md5 isize=512 agcount=16, agsize=654720 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=10475520, imaxpct=25
= sunit=128 swidth=256 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=5120, version=2
= sectsz=512 sunit=8 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
[root@localhost ~]# mount /dev/md5 /raid5 '//挂载'
同RAID 5实验
RAID 1+0是用两个RAID1来创建的
1.连续创建两个raid1
[root@localhost ~]# mdadm -C -v /dev/md0 -l1 -n2 /dev/sd[b-c]1 '//创建第一个raid1'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.
[root@localhost ~]# mdadm -C -v /dev/md1 -l1 -n2 /dev/sd[d-e]1 '//创建第二个raid1'
mdadm: Note: this array has metadata at the start and
may not be suitable as a boot device. If you plan to
store '/boot' on this device please ensure that
your boot-loader understands md/v1.x metadata, or use
--metadata=0.90
mdadm: size set to 20954112K
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md1 started.
2.查看详细信息
[root@localhost ~]# mdadm -D /dev/md0
[root@localhost ~]# mdadm -D /dev/md1
3.创建raid1+0
[root@localhost ~]# mdadm -C -v /dev/md10 -l0 -n2 /dev/md0 /dev/md1
mdadm: chunk size defaults to 512K
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md10 started.
4.查看详细信息
[root@localhost ~]# mdadm -D /dev/md10
/dev/md10:
Version : 1.2
Creation Time : Tue Nov 5 00:19:07 2019
Raid Level : raid0
Array Size : 41875456 (39.94 GiB 42.88 GB) '//创建成功'
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Tue Nov 5 00:19:07 2019
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Consistency Policy : none
Name : localhost.localdomain:10 (local to host localhost.localdomain)
UUID : 6c3209a3:71bece7a:9b3129be:05a436e0
Events : 0
Number Major Minor RaidDevice State
0 9 0 0 active sync /dev/md0
1 9 1 1 active sync /dev/md1