目录
引言
一、文件系统的作用
1.1、文件系统的挂载使用
二、GlusterFS简介
三、GlusterFS特点
3.1、扩展性和高性能
3.2、高可用性
3.3、全局同一命名空间
3.4、弹性卷管理
3.5、基于标准协议
四、GlusterFS术语
五、GlusterFS构成
六、GlusterFS的工作流程
理解:
七、弹性HASH算法
弹性HASH算法优点
八、GFS支持七种卷
8.1、分布式卷(Distribute volume)
分布式卷具有以下特点
8.2、条带卷(Stripe volume)
条带卷特点:
8.3、复制卷(Replica volume)
复制卷特点:
8.4、分布式条带卷(Distribute Replica volume)
8.5、分布式复制卷(Distrbute Replica volume)
8.6、条带复制卷(Stripe Replca volume)
8.7、分布式条带复制卷(Distribute Strippe Reolica volume)
九、部署GlusterFS集群
9.1、集群环境
报错
9.2、添加节点创建集群
9.3、根据规划创建卷
创建分布式卷
创建条带卷
创建复制卷
创建分布式条带卷
创建分布式复制卷
9.4、部署gluster客户端
9.5、查看文件分布
查看分布式文件分布(node1:/dev/sdb1、node2:/dev/sdb1)
查看条带卷文件分布(node1:/dev/sdc1、node2:/dev/sdc1)
查看复制卷文件分布(node3:/dev/sdb1、node4:/dev/sdb1)
查看分布式条带卷分布(node1:/dev/sdd1、node2:/dev/sdd1、node3:/dev/sdd1、node4:/dev/sdd1)
查看分布式复制卷分布(node1:/dev/sde1、node2:/dev/sde1、node3:/dev/sde1、node4:/dev/sde1)
9.6、冗余测试
分布式卷数据查看,缺少demo5,这是在node2上的,不具备冗余,挂起 node2 节点或者关闭glusterd服务来模拟故障
条带卷,无法访问,不具备冗余
复制卷,在node3和node4上的,关闭node4(192.168.130.157)进行测试,具有冗余
分布式条带卷,不具备冗余
十、其他维护命令
总结
GFS是一个可扩展的分布式文件系统,用于大型对的,分布式的,对于大量数据进行访问的应用。它运行于廉价的普通硬件上,并提供容错功能,它可以给大量的用户提供总体性能较高的服务
从系统交度来看,文件系统时对文件存储设备的了空间进行组织和分配,负责文件存储并对存入的文件进行保护和检索的系统
主要负责为用户建立文件,存入,读出,修改,转存文件,空值文件的存取
例如:配置也就挂载时,我们会写入挂载点与挂载目录,还有文件系统的名称(xfs),文件类型格式等。我们在远程跨服务器使用GFS分布式文件系统,股灾时也需要指定其文件格式(GlusterFS)
传统的分布式文件系统大多通过元服务器来存储数据,元数据包含存储节点上的目录信息,目录结构等。这样的设计在浏览目录时效率高,但是也存在一些缺陷,例如单点故障。一旦元数据服务器出现故障,即使节点具备再高的冗余性,整个存储系统也将崩溃。而GlusterFS分布式文件系统是基于无元服务器的设计,数据横向亏站能力强,具备较高的可靠性及存储效率
GlusterFS利用双重特性来提高容量存储解决方案
分布式存储中,将所有节点的命名空间整合为统一命名空间,将整个系统的所有节点的存储容量组成一个大的虛拟存储池,供前端主机访问这些节点完成数据读写操作。
使用GFS会使用到以上的虚拟文件系统
模块化堆栈式架构
1、API:应用程序编程接口
2、模块化:每个模块可以提供不同的功能
3、堆栈式:同时启用多个模块,多个功能可以组合,实现复杂的功能
(1)客户端或应用程序通过 GlusterFS 的挂载点访问数据。
(2)linux系统内核通过 VFS API 收到请求并处理。
(3)VFS 将数据递交给 FUSE 内核文件系统,并向系统注册一个实际的文件系统 FUSE,
而 FUSE 文件系统则是将数据通过 /dev/fuse 设备文件递交给了 GlusterFS client 端。
可以将 FUSE 文件系统理解为一个代理。
(4)GlusterFS client 收到数据后,client 根据配置文件的配置对数据进行处理。
(5)经过 GlusterFS client 处理后,通过网络将数据传递至远端的
GlusterFS Server,并且将数据写入到服务器存储设备上。
外来一个请求,例:用户端申请创建一个文件,客户端或应用程序通过GFS的挂载点访问数据
linux系统内容通过VFSAPI收到请求并处理
VFS将数据递交给FUSE内核文件系统,fuse文件系统则是将数据通过/dev/fuse设备文件递交给了GlusterFS client端
GlusterFS client端收到数据后,会根据配置文件的配置对数据进行处理
再通过网络,将数据发送给远端的ClusterFS server,并将数据写入到服务器储存设备上
server再将数据转交给VFS伪文件系统,再由VFS进行转存处理,最后交给EXT3
弹性 HASH 算法是 Davies-Meyer 算法的具体实现,通过 HASH 算法可以得到一个 32 位的整数范围的 hash 值,
假设逻辑卷中有 N 个存储单位 Brick,则 32 位的整数范围将被划分为 N 个连续的子空间,每个空间对应一个 Brick。
当用户或应用程序访问某一个命名空间时,通过对该命名空间计算 HASH 值,根据该 HASH 值所对应的 32 位整数空间定位数据所在的 Brick。
GlusterFS 支持七种卷,即分布式卷、条带卷、复制卷、分布式条带卷、分布式复制卷、条带复制卷和分布式条带复制卷。
类似RAID10,同时具有条带卷和复制卷的特点。
三种基本卷的复合卷,通常用于类Map Reduce应用。
Node1节点:node1/192.168.130.102 磁盘: /dev/sdb1 挂载点: /data/sdb1
/dev/sdc1 /data/sdc1
/dev/sdd1 /data/sdd1
/dev/sde1 /data/sde1
Node2节点:node2/192.168.130.103 磁盘: /dev/sdb1 挂载点: /data/sdb1
/dev/sdc1 /data/sdc1
/dev/sdd1 /data/sdd1
/dev/sde1 /data/sde1
Node3节点:node3/192.168.130.153 磁盘: /dev/sdb1 挂载点: /data/sdb1
/dev/sdc1 /data/sdc1
/dev/sdd1 /data/sdd1
/dev/sde1 /data/sde1
Node4节点:node4/192.168.130.157 磁盘: /dev/sdb1 挂载点: /data/sdb1
/dev/sdc1 /data/sdc1
/dev/sdd1 /data/sdd1
/dev/sde1 /data/sde1
=====客户端节点:192.168.130.13=====
1、首先,每台节点添加四块磁盘,仅做实验,无需太大
2、然后,重启服务器,准备开始部署
#!/bin/bash
#########磁盘分区#############
disk=`ls /dev/sd* | grep -o sd[b-e]`
for dev in $disk
do
mkdir -p /data/${dev}1
ls /data
echo "n
p
w" | fdisk /dev/$dev &> /dev/null
mkfs.xfs /dev/${dev}1 &> /dev/null
echo "/dev/${dev}1 /data/${dev}1 xfs defaults 0 0" >> /etc/fstab
done
echo "创建完成"
mount -a &> /dev/null
lsblk
#########解压gfs库###########
cd /opt
unzip gfsrepo.zip
#########创建本地gfs仓库#######
mkdir /etc/yum.repos.d/bak
mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
touch /etc/yum.repos.d/glfs.repo
echo "[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
enabled=1
gpgcheck=0
" > /etc/yum.repos.d/glfs.repo
yum clean all
yum makecache
echo "元数据已建立"
##########添加虚拟域名##########
echo "192.168.130.102 node1" >> /etc/hosts
echo "192.168.130.103 node2" >> /etc/hosts
echo "192.168.130.153 node3" >> /etc/hosts
echo "192.168.130.157 node4" >> /etc/hosts
##########yum软件#################
rpm -e --nodeps glusterfs-api-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-libs-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-fuse-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-cli-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el786_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el7.x86_6
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
systemctl start glusterd.service
systemctl status glusterd.service
这里可能会出现依赖包冲突的问题
将冲突版本使用
rpm -e --nodeps [包命]
强制删除就行
每台服务器都需要执行
添加节点到存储信任池中(仅需在一个节点上操作,我这里依旧在node1节点上操作)
[root@node1 ~] # gluster peer probe node1
peer probe: success. Probe on localhost not needed
[root@node1 ~] # gluster peer probe node2
peer probe: success.
[root@node1 ~] # gluster peer probe node3
peer probe: success.
[root@node1 ~] # gluster peer probe node4
peer probe: success.
[root@node1 ~] # gluster peer status
Number of Peers: 3
Hostname: node2
Uuid: 2ee63a35-6e83-4a35-8f54-c9c0137bc345
State: Peer in Cluster (Connected)
Hostname: node3
Uuid: e63256a9-6700-466f-9279-3e3efa3617ec
State: Peer in Cluster (Connected)
Hostname: node4
Uuid: 9931effa-92a6-40c7-ad54-7361549dd96d
State: Peer in Cluster (Connected)
========根据以下规划创建卷=========
卷名称 卷类型 Brick
dis-volume 分布式卷 node1(/data/sdb1)、node2(/data/sdb1)
stripe-volume 条带卷 node1(/data/sdc1)、node2(/data/sdc1)
rep-volume 复制卷 node3(/data/sdb1)、node4(/data/sdb1)
dis-stripe 分布式条带卷 node1(/data/sdd1)、node2(/data/sdd1)、node3(/data/sdd1)、node4(/data/sdd1)
dis-rep 分布式复制卷 node1(/data/sde1)、node2(/data/sde1)、node3(/data/sde1)、node4(/data/sde1)
#创建分布式卷,没有指定类型,默认创建的是分布式卷
[root@node1 ~] # gluster volume create dis-volume node1:/data/sdb1 node2:/data/sdb1 force
volume create: dis-volume: success: please start the volume to access data
[root@node1 ~] # gluster volume list
dis-volume
[root@node1 ~] # gluster volume start dis-volume
volume start: dis-volume: success
[root@node1 ~] # gluster volume info dis-volume
Volume Name: dis-volume
Type: Distribute
Volume ID: 8f948537-5ac9-4091-97eb-0bdcf142f4aa
Status: Started
Snapshot Count: 0
Number of Bricks: 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdb1
Brick2: node2:/data/sdb1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
#指定类型为 stripe,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是条带卷
[root@node1 ~] # gluster volume create stripe-volume stripe 2 node1:/data/sdc1 node2:/data/sdc1 force
volume create: stripe-volume: success: please start the volume to access data
[root@node1 ~] # gluster volume start stripe-volume
volume start: stripe-volume: success
[root@node1 ~] # gluster volume info stripe-volume
Volume Name: stripe-volume
Type: Stripe
Volume ID: b1185b78-d396-483f-898e-3519d3ef8e37
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdc1
Brick2: node2:/data/sdc1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
#指定类型为 replica,数值为 2,且后面跟了 2 个 Brick Server,所以创建的是复制卷
[root@node1 ~] # gluster volume create rep-volume replica 2 node3:/data/sdb1 node4:/data/sdb1 force
volume create: rep-volume: success: please start the volume to access data
[root@node1 ~] # gluster volume start rep-volume
volume start: rep-volume: success
[root@node1 ~] # gluster volume info rep-volume
Volume Name: rep-volume
Type: Replicate
Volume ID: 9d39a2a6-b71a-44a5-8ea5-5259d8aef518
Status: Started
Snapshot Count: 0
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: node3:/data/sdb1
Brick2: node4:/data/sdb1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
[root@node1 ~] # gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
volume create: dis-stripe: success: please start the volume to access data
[root@node1 ~] # gluster volume start dis-stripe
volume start: dis-stripe: success
[root@node1 ~] # gluster volume info dis-stripe
Volume Name: dis-stripe
Type: Distributed-Stripe
Volume ID: beb7aa78-78d1-435f-8d29-c163878c73f0
Status: Started
Snapshot Count: 0
Number of Bricks: 2 x 2 = 4
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdd1
Brick2: node2:/data/sdd1
Brick3: node3:/data/sdd1
Brick4: node4:/data/sdd1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
[root@node1 ~] # gluster volume create dis-stripe stripe 2 node1:/data/sdd1 node2:/data/sdd1 node3:/data/sdd1 node4:/data/sdd1 force
volume create: dis-stripe: success: please start the volume to access data
[root@node1 ~] # gluster volume start dis-stripe
volume start: dis-stripe: success
[root@node1 ~] # gluster volume info dis-stripe
Volume Name: dis-stripe
Type: Distributed-Stripe
Volume ID: beb7aa78-78d1-435f-8d29-c163878c73f0
Status: Started
Snapshot Count: 0
Number of Bricks: 2 x 2 = 4
Transport-type: tcp
Bricks:
Brick1: node1:/data/sdd1
Brick2: node2:/data/sdd1
Brick3: node3:/data/sdd1
Brick4: node4:/data/sdd1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
指定类型为 replica,数值为 2,而且后面跟了 4 个 Brick Server,是 2 的两倍,所以创建的是分布式复制卷
[root@node1 ~] # gluster volume create dis-rep replica 2 node1:/data/sde1 node2:/data/sde1 node3:/data/sde1 node4:/data/sde1 force
volume create: dis-rep: success: please start the volume to access data
[root@node1 ~] # gluster volume start dis-rep
volume start: dis-rep: success
[root@node1 ~] # gluster volume info dis-rep
Volume Name: dis-rep
Type: Distributed-Replicate
Volume ID: 734e38e6-154c-4425-acca-2342577b14e7
Status: Started
Snapshot Count: 0
Number of Bricks: 2 x 2 = 4
Transport-type: tcp
Bricks:
Brick1: node1:/data/sde1
Brick2: node2:/data/sde1
Brick3: node3:/data/sde1
Brick4: node4:/data/sde1
Options Reconfigured:
transport.address-family: inet
nfs.disable: on
=======================
[root@node1 ~] # gluster volume list
dis-rep
dis-stripe
dis-volume
rep-volume
stripe-volume
部署Gluster客户端(192.168.130.13)
安装Gluster
#!/bin/bash
#########解压gfs库###########
cd /opt
unzip gfsrepo.zip
#########创建本地gfs仓库#######
mkdir /etc/yum.repos.d/bak
mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
touch /etc/yum.repos.d/glfs.repo
echo "[glfs]
name=glfs
baseurl=file:///opt/gfsrepo
enabled=1
gpgcheck=0
" > /etc/yum.repos.d/glfs.repo
yum clean all
yum makecache
echo "元数据已建立"
##########添加虚拟域名##########
echo "192.168.130.102 node1" >> /etc/hosts
echo "192.168.130.103 node2" >> /etc/hosts
echo "192.168.130.153 node3" >> /etc/hosts
echo "192.168.130.157 node4" >> /etc/hosts
##########yum软件#################
rpm -e --nodeps glusterfs-api-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-libs-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-fuse-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-cli-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el786_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el7.x86_64
rpm -e --nodeps glusterfs-client-xlators-3.12.2-18.el7.x86_6
yum -y install glusterfs glusterfs-server glusterfs-fuse glusterfs-rdma
systemctl start glusterd.service
systemctl status glusterd.service
下面是具体操作
[root@promote yum.repos.d]#mkdir -p /test/{dis,stripe,rep,dis_stripe,dis_rep}
[root@promote yum.repos.d]#cd /test/
[root@promote test]#ls
dis dis_rep dis_stripe rep stripe
[root@promote test]#
[root@promote test]#
[root@promote test]#mount.glusterfs node1:dis-volume /test/dis
[root@promote test]#mount.glusterfs node1:stripe-volume /test/stripe
[root@promote test]#mount.glusterfs node1:rep-volume /test/rep
[root@promote test]#mount.glusterfs node1:dis-stripe /test/dis_stripe
[root@promote test]#mount.glusterfs node1:dis-rep /test/dis_rep
[root@promote test]#
[root@promote test]#df -h
文件系统 容量 已用 可用 已用% 挂载点
/dev/sda2 16G 3.5G 13G 22% /
devtmpfs 898M 0 898M 0% /dev
tmpfs 912M 0 912M 0% /dev/shm
tmpfs 912M 18M 894M 2% /run
tmpfs 912M 0 912M 0% /sys/fs/cgroup
/dev/sda5 10G 37M 10G 1% /home
/dev/sda1 10G 174M 9.9G 2% /boot
tmpfs 183M 4.0K 183M 1% /run/user/42
tmpfs 183M 40K 183M 1% /run/user/0
/dev/sr0 4.3G 4.3G 0 100% /mnt
node1:dis-volume 6.0G 65M 6.0G 2% /test/dis
node1:stripe-volume 8.0G 65M 8.0G 1% /test/stripe
node1:rep-volume 3.0G 33M 3.0G 2% /test/rep
node1:dis-stripe 21G 130M 21G 1% /test/dis_stripe
node1:dis-rep 11G 65M 11G 1% /test/dis_rep
[root@promote test]#cd /opt
[root@promote opt]#dd if=/dev/zero of=/opt/demo1.log bs=1M count=40
记录了40+0 的读入
记录了40+0 的写出
41943040字节(42 MB)已复制,0.0311576 秒,1.3 GB/秒
[root@promote opt]#dd if=/dev/zero of=/opt/demo2.log bs=1M count=40
记录了40+0 的读入
记录了40+0 的写出
41943040字节(42 MB)已复制,0.182058 秒,230 MB/秒
[root@promote opt]#dd if=/dev/zero of=/opt/demo3.log bs=1M count=40
记录了40+0 的读入
记录了40+0 的写出
41943040字节(42 MB)已复制,0.196193 秒,214 MB/秒
[root@promote opt]#dd if=/dev/zero of=/opt/demo4.log bs=1M count=40
记录了40+0 的读入
记录了40+0 的写出
41943040字节(42 MB)已复制,0.169933 秒,247 MB/秒
[root@promote opt]#dd if=/dev/zero of=/opt/demo5.log bs=1M count=40
记录了40+0 的读入
记录了40+0 的写出
41943040字节(42 MB)已复制,0.181712 秒,231 MB/秒
[root@promote opt]#
[root@promote opt]#ls -lh /opt
总用量 250M
-rw-r--r--. 1 root root 40M 3月 2 22:45 demo1.log
-rw-r--r--. 1 root root 40M 3月 2 22:45 demo2.log
-rw-r--r--. 1 root root 40M 3月 2 22:45 demo3.log
-rw-r--r--. 1 root root 40M 3月 2 22:45 demo4.log
-rw-r--r--. 1 root root 40M 3月 2 22:45 demo5.log
drwxr-xr-x. 3 root root 8.0K 3月 27 2018 gfsrepo
-rw-r--r--. 1 root root 50M 3月 2 10:30 gfsrepo.zip
drwxr-xr-x. 2 root root 6 3月 26 2015 rh
[root@promote opt]#
[root@promote opt]#cp demo* /test/dis
[root@promote opt]#cp demo* /test/stripe/
[root@promote opt]#cp demo* /test/rep/
[root@promote opt]#cp demo* /test/dis_stripe/
[root@promote opt]#cp demo* /test/dis_rep/
[root@promote opt]#cd /test/
[root@promote test]#tree
.
├── dis
│ ├── demo1.log
│ ├── demo2.log
│ ├── demo3.log
│ ├── demo4.log
│ └── demo5.log
├── dis_rep
│ ├── demo1.log
│ ├── demo2.log
│ ├── demo3.log
│ ├── demo4.log
│ └── demo5.log
├── dis_stripe
│ ├── demo1.log
│ ├── demo2.log
│ ├── demo3.log
│ ├── demo4.log
│ └── demo5.log
├── rep
│ ├── demo1.log
│ ├── demo2.log
│ ├── demo3.log
│ ├── demo4.log
│ └── demo5.log
└── stripe
├── demo1.log
├── demo2.log
├── demo3.log
├── demo4.log
└── demo5.log
5 directories, 25 files
[root@node1 ~] # ls -lh /data/sdb1
总用量 160M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
[root@node2 ~]#ll -h /data/sdb1
总用量 40M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node1 ~] # ls -lh /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo4.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo5.log
[root@node2 ~]#ll -h /data/sdc1
总用量 100M
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo4.log
-rw-r--r--. 2 root root 20M 10月 2 22:46 demo5.log
[root@node3 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node4 ~]#ll -h /data/sdb1
总用量 200M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node1 ~] # ll -h /data/sdd1
总用量 160M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
[root@node2 ~]#ll -h /data/sdd1
总用量 160M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
[root@node3 ~]#ll -h /data/sdd1
总用量 40M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node4 ~]#ll -h /data/sdd1
总用量 40M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node1 ~] # ll -h /data/sde1
总用量 160M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
[root@node2 ~]#ll -h /data/sde1
总用量 160M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo1.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo2.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo3.log
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo4.log
[root@node3 ~]#ll -h /data/sde1
总用量 40M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
[root@node4 ~]#ll -h /data/sde1
总用量 40M
-rw-r--r--. 2 root root 40M 10月 2 22:46 demo5.log
当有宕机出现,在客户端查看文件是否正常
[root@node2 ~]# init 0
#客户端
[root@zabbix test]#ll /test/dis
总用量 163840
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo4.log
[root@promote test]#
[root@zabbix test]#ll /test/stripe/
总用量 0
[root@promote test]#
[root@node4 ~]#init 0
#客户端,仍然存在
[root@zabbix test]#ll /test/rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo5.log
[root@promote test]#
[root@zabbix test]#ll /test/dis_stripe/
总用量 0
分布式复制卷,具有冗余
[root@zabbix test]#ll /test/dis_rep/
总用量 204800
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo1.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo2.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo3.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo4.log
-rw-r--r--. 1 root root 41943040 10月 2 23:36 demo5.log
==以上,带有复制数据的,数据都比较安全 ==
1.查看GlusterFS卷
gluster volume list
2.查看所有卷的信息
gluster volume info
3.查看所有卷的状态
gluster volume status
4.停止一个卷
gluster volume stop dis-stripe
5.删除一个卷,注意:删除卷时,需要先停止卷,且信任池中不能有主机处于宕机状态,否则删除不成功
gluster volume delete dis-stripe
6.设置卷的访问控制
#仅拒绝
gluster volume set dis-rep auth.allow [IP]
#仅允许
gluster volume set dis-rep auth.allow [网段].* #设置192.168.184.0网段的所有IP地址都能访问dis-rep卷(分布式复制卷)
①mysql服务器——>存储数据到挂载目录中/data
②mysql数据会优先交给内核的文件系统处理——>GFS客户端处理(本地)
③GFS客户端会和GFS服务端进行交互,GFS服务端接收到数据,然后再通过挂载的卷的类型,对应保存在后端block块节点服务器上
分布式条带复制卷(Distribute Stripe Replicavolume)三种基本卷的复合卷,通常用于类 Map Reduce 应用器——>存储数据到挂载目录中/data