简介
本方案 NFS 的高可用方案,客户端为 k8s集群 ,三台文件服务器分别Master和 Slave,使用 keepalived 生成一个虚拟 IP,使用 Sersync 进行 Master 与 Slave 之间文件相互同步,确保高可用。
角色 | 系统 | IP |
---|---|---|
虚拟IP | 172.12.17.200 | |
Client | k8s集群 | 172.12.17.163,172.12.17.164,172.12.17.165 |
Master | centos 7.5 | 172.12.17.166 |
Slave | centos 7.5 | 172.12.17.167 |
查看内核版本
uname -smr
建议升级到最新的长期支持版本 升级内核
安装nfs
在master和slave上面创建共享目录
mkdir -p /fs/nsf-data
在master和slave上安装nfs服务
// 下载nfs
yum -y install nfs-utils rpcbind
//写入配置(配置要改动需要reload nfs 服务)
echo '/fs/nsf-data 172.12.17.163 172.12.17.164 172.12.17.165(rw,sync,all_squash)' >> /etc/exports
//开启服务
systemctl start rpcbind && systemctl start nfs
//设置开机自启动
systemctl enable rpcbind && systemctl enable nfs
在k8s集群里面找个node 测试是否能链接上nfs服务
// 下载nfs
yum -y install nfs-utils rpcbind
// 挂载目录
mkdir /test-nsf-data
// 挂载nfs
mount -t nfs 172.12.17.166:/fs/nsf-data /test-nsf-data
//查看
df -TH
输出里面含有 172.12.17.166:/fs/nsf-data nfs4 53G 4.9G 46G 10% /test-nsf-data
//卸载挂载
umount /test-nsf-data
//检查 nfs 服务器端是否有设置共享目录 showmount -e $(nfs服务器的IP)
showmount -e 172.12.17.166
输出 Export list for 172.12.17.166:
/fs/nsf-data 10.255.22.92,10.255.22.91,10.255.22.90
Sersync 在 Slave 进行同步 Master 数据
Sersync
- 提到数据同步就必然会谈到rsync,一般简单的服务器数据传输会使用ftp/sftp等方式,但是这样的方式效率不高,不支持差异化增量同步也不支持实时传输。针对数据实时同步需求大多数人会选择rsync+inotify-tools的解决方案,但是这样的方案也存在一些缺陷,sersync是国人基于前两者开发的工具,不仅保留了优点同时还强化了实时监控,文件过滤,简化配置等功能,帮助用户提高运行效率,节省时间和网络资源。
在Slave上编辑配置文件
vim /etc/rsyncd.conf
# 设置rsync运行权限为root
uid = root
# 设置rsync运行权限为root
gid = root
# 默认端口
port = 873
# pid文件的存放位置
pid file = /var/rsyncd.pid
# 日志文件位置,启动rsync后自动产生这个文件,无需提前创建
log file = /var/log/rsyncd.log
# 默认为true,修改为no,增加对目录文件软连接的备份
use chroot = no
# 最大连接数
max connections = 200
# 设置rsync服务端文件为读写权限
read only = no
# 不显示rsync服务端资源列表
list = false
fake super = yes
ignore errors
[data]
# rsync服务端数据目录路径
path = /fs/nsf-data
# 执行数据同步的用户名,可以设置多个,用英文状态下逗号隔开
auth users = root
# 用户认证配置文件,里面保存用户名称和密码,后面会创建这个文件
secrets file = /etc/rsync_slave.pass
# 允许进行数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
hosts allow = 172.12.17.166
# 禁止数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
#hosts deny = 192.168.0.1
在Slave上安装启动
yum install rsync
echo 'root:123456' > /etc/rsync_slave.pass
chmod 600 /etc/rsync_slave.pass
chown -R root:root /fs/nsf-data
rsync --daemon --config=/etc/rsyncd.conf
在 Master 上测试下
yum -y install rsync
chown -R root:root /fs/nsf-data
echo "123456" > /etc/rsync_slave.pass
chmod 600 /etc/rsync_slave.pass
// 创建测试文件,测试推送
cd /fs/nsf-data
echo "test" > slave.txt
rsync -arv /fs/nsf-data/ [email protected]::data --password-file=/etc/rsync_slave.pass
#在 slave 上测试
ls /fs/nsf-data
# 出现 slave.txt 即可
在 Master 上配置自动同步安装
// 下载
wget https://raw.githubusercontent.com/orangle/sersync/master/release/sersync2.5.4_64bit_binary_stable_final.tar.gz
// 解压
tar zxvf sersync2.5.4_64bit_binary_stable_final.tar.gz
// 移动目录到 /usr/local/sersync
mv GNU-Linux-x86 /usr/local/sersync
在 Master 上配置自动同步配置
cd /usr/local/sersync/ && vim /usr/local/sersync/confxml.xml
修改配置文件里面节点数据
#源服务器同步目录
#remote ip="172.12.17.167" #目标服务器ip,每行一个
#name="data" 目标服务器rsync同步目录模块名称
#rsync同步认证
#start="true"
#users="root" 目标服务器rsync同步用户名
#passwordfile="/etc/rsync_slave.pass" 目标服务器rsync同步用户的密码在源服务器的存放路径
# 设置rsync远程服务端口,远程非默认端口则需打开自定义
#脚本运行失败日志记录
failLog path="/tmp/rsync_fail_log.sh"
启动
./sersync2 -r -d -o confxml.xml
// 测试
cd /fs/nsf-data
touch Slave1.txt
// 在 Slave 里面 /fs/nsf-data 里面去看看数据是否存在
在Master上的数据可以同步到Slave,如何Master挂掉后恢复不能同步数据到Slave,这里也同样配置Master到Slave的自动同步
在Slave上编辑配置文件
vim /etc/rsyncd.conf
# 设置rsync运行权限为root
uid = root
# 设置rsync运行权限为root
gid = root
# 默认端口
port = 873
# pid文件的存放位置
pid file = /var/rsyncd.pid
# 日志文件位置,启动rsync后自动产生这个文件,无需提前创建
log file = /var/log/rsyncd.log
# 默认为true,修改为no,增加对目录文件软连接的备份
use chroot = no
# 最大连接数
max connections = 200
# 设置rsync服务端文件为读写权限
read only = no
# 不显示rsync服务端资源列表
list = false
fake super = yes
ignore errors
[data]
# rsync服务端数据目录路径
path = /fs/nsf-data
# 执行数据同步的用户名,可以设置多个,用英文状态下逗号隔开
auth users = root
# 用户认证配置文件,里面保存用户名称和密码,后面会创建这个文件
secrets file = /etc/rsync_slave.pass
# 允许进行数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
hosts allow = 172.12.17.167
# 禁止数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
#hosts deny = 192.168.0.1
在Master上安装启动
yum install rsync
echo 'root:123456' > /etc/rsync_master.pass
chmod 600 /etc/rsync_master.pass
chown -R root:root /fs/nsf-data
rsync --daemon --config=/etc/rsyncd.conf
在 Slave 上测试下
yum -y install rsync
chown -R root:root /fs/nsf-data
echo "123456" > /etc/rsync_master.pass
chmod 600 /etc/rsync_master.pass
// 创建测试文件,测试推送
cd /fs/nsf-data
echo "test" > master.txt
rsync -arv /fs/nsf-data/ [email protected]::data --password-file=/etc/rsync_master.pass
#在 Master 上测试
ls /fs/nsf-data
# 出现 master.txt 即可
在 Slave 上配置自动同步安装
// 下载
wget https://raw.githubusercontent.com/orangle/sersync/master/release/sersync2.5.4_64bit_binary_stable_final.tar.gz
// 解压
tar zxvf sersync2.5.4_64bit_binary_stable_final.tar.gz
// 移动目录到 /usr/local/sersync
mv GNU-Linux-x86 /usr/local/sersync
在 Slave 上配置自动同步配置
cd /usr/local/sersync/ && vim /usr/local/sersync/confxml.xml
修改配置文件里面节点数据
#源服务器同步目录
#remote ip="172.12.17.166" #目标服务器ip,每行一个
#name="data" 目标服务器rsync同步目录模块名称
#rsync同步认证
#start="true"
#users="root" 目标服务器rsync同步用户名
#passwordfile="/etc/rsync_master.pass" 目标服务器rsync同步用户的密码在源服务器的存放路径
# 设置rsync远程服务端口,远程非默认端口则需打开自定义
#脚本运行失败日志记录
failLog path="/tmp/rsync_fail_log.sh"
启动
./sersync2 -r -d -o confxml.xml
// 测试
cd /fs/nsf-data
touch Master1.txt
// 在 Slave 里面 /fs/nsf-data 里面去看看数据是否存在
安装 Keepalived在Master上执行
yum -y install keepalived
vim /etc/keepalived/keepalived.conf
# 其中 eth0 为绑定网卡名称,可以使用 ip addr 命令查看
# 其中 172.12.17.200 为虚拟 ip ,注意不要和其它 ip 冲突
! Configuration File for keepalived
vrrp_instance VI_1 {
state MASTER
interface eth0
# 虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。
# 即同一vrrp_instance下,MASTER和BACKUP必须是一致的
virtual_router_id 51
# 定义优先级,数字越大,优先级越高(0-255)。
# 在同一个vrrp_instance下,MASTER 的优先级必须大于 BACKUP 的优先级
priority 150
# 设定 MASTER 与 BACKUP 负载均衡器之间同步检查的时间间隔,单位是秒
advert_int 1
authentication {
auth_type PASS
auth_pass 123456
}
virtual_ipaddress {
172.12.17.200/24 brd 172.12.17.255
}
}
安装 Keepalived在Slave上执行
yum -y install keepalived
vim /etc/keepalived/keepalived.conf
# 其中 eth0 为绑定网卡名称,可以使用 ip addr 命令查看
# 其中 172.12.17.200 为虚拟 ip ,注意不要和其它 ip 冲突
vrrp_instance VI_1 {
state MASTER
interface eth0
# 虚拟路由标识,这个标识是一个数字,同一个vrrp实例使用唯一的标识。
# 即同一vrrp_instance下,MASTER和BACKUP必须是一致的
virtual_router_id 51
# 定义优先级,数字越大,优先级越高(0-255)。
# 在同一个vrrp_instance下,MASTER 的优先级必须大于 BACKUP 的优先级
priority 100
# 设定 MASTER 与 BACKUP 负载均衡器之间同步检查的时间间隔,单位是秒
advert_int 1
authentication {
auth_type PASS
auth_pass 123456
}
virtual_ipaddress {
172.12.17.200/24 brd 172.12.17.255
}
}
启动服务
systemctl start keepalived.service && systemctl enable keepalived.service
测试
在 Master上
ip a | grep 172.12.17.200
有输出: inet 172.12.17.200/32 scope global eth0
在 Slave上
ip a | grep 172.12.17.200
无输出:
关闭Master上keepalived测试IP是否更换
在 Master上
systemctl stop keeplived
在 Slave上
ip a | grep 172.12.17.200
有输出: inet 172.12.17.200/32 scope global eth0
自动切换成功
在k8s集群里面找个node 测试是否能链接上nfs服务
// 挂载目录
mkdir /test-nsf-data-200
// 挂载nfs
mount -t nfs 172.12.17.200:/fs/nsf-data /test-nsf-data-200
//查看
df -TH
输出里面含有 172.12.17.200:/fs/nsf-data nfs4 53G 4.9G 46G 10% /test-nsf-data-200
//卸载挂载
umount /test-nsf-data-200
在安装Keepalived的机器上设置 Keepalived 脚本
ip 的漂移是根据 Keepalived 的存活来判断的,所以在 nfs 挂之后需要停止 keepalived 服务
echo 'systemctl status nfs &>/dev/null
if [ $? -ne 0 ]; then
systemctl start nfs
systemctl status nfs &>/dev/null
if [ $? -ne 0 ]; then
systemctl stop keepalived.service
fi
fi' >> /usr/local/sbin/task_nfs.sh
加入定时任务
chmod 777 /usr/local/sbin/task_nfs.sh
crontab -e
# 添加定时任务 5秒执行一次
* * * * * sleep 5;/usr/local/sbin/task_nfs.sh &> /dev/null