Linux虚拟服务器(Linux Virtual Server)
LVS 实际上相当于基于IP地址的虚拟化应用, 为基于IP地址和内容请求分发的负载均衡提出了一种高效的解决方法
Keepalived 是一个基于VRRP协议来实现的LVS高可用方案,可以解决静态路由出现的单点故障问题。
在一个LVS服务集群中通常有主服务器(MASTER)和备份服务器(BACKUP)两种角色的服务器,但是对外表现为一个虚拟IP,主服务器会发送VRRP通告信息给备份服务器,当备份服务器收不到VRRP消息的时候,即主服务器异常的时候,备份服务器就会接管虚拟IP,继续提供服务,从而保证了高可用性。
支持故障自动切换(Failover)
支持节点健康状态检查(Health Checking)
判断LVS负载调度器、节点服务器的可用性,当master主机出现故障及时切换到backup节点保证业务正常,当 master 故障主机恢复后将其重新加入群集并且业务重新切换回 master 节点
Keepalived体系架构中主要有三个模块,分别是core(核心模块)、check(健康检查模块)、vrrp(故障转移模块)
健康检查学名 :探针
1)发送心跳消息:ping/pang
2)TCP端口检查:向一台主机的IP:PORT(端口)T发起TCP三次握手连接
3)HTTP URL检查:向一台主机的 http://IP:PORT/…URL路径发送HTTP GET请求方法,主机响应返回2xx 3xx 认为健康检查正常,如响应返回4xx 5xx则认为健康检查异常
环境配置
主机 | IP地址 | 工具 |
---|---|---|
Director主 | 192.168.24.70 | ipvsadm、keepalived |
Director备 | 192.168.24.77 | ipvsadm、keepalived |
NFS-Server共享 | 192.168.24.80 | rpcbind、nfs-utils |
Web-Server节点1 | 192.168.24.100 | rpcbind、nfs-utils、httpd |
Web-Server节点2 | 192.168.24.110 | rpcbind、nfs-utils、httpd |
systemctl stop firewalld.service
setenforce 0
yum -y install ipvsadm keepalived
modprobe ip_vs
cat /proc/net/ip_vs
vim /etc/sysctl.conf
net.ipv4.conf.all.send_redirects = 0
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens32.send_redirects = 0
sysctl -p
ipvsadm-save > /etc/sysconfig/ipvsadm
systemctl start ipvsadm
ipvsadm -C
ipvsadm -A -t 192.168.24.70:80 -s rr #这里指定的虚拟IP为ens33网卡ip,重启keepliaved后会自动绑定虚拟网卡
ipvsadm -a -t 192.168.24.70:80 -r 192.168.24.100:80 -g
ipvsadm -a -t 192.168.24.70:80 -r 192.168.24.110:80 -g
ipvsadm
ipvsadm -l
systemctl stop firewalld.service
systemctl disable firewalld.service
setenforce 0
yum -y install nfs-utils rpcbind
systemctl start rpcbind.service
systemctl start nfs.service
systemctl enable nfs.service
systemctl enable rpcbind.service
mkdir /csgo/wj1
mkdir /csgo/wj2
chmod 777 /opt/wj1
chmod 777 /opt/wj2
vim /etc/exports
/opt/wj1 192.168.24.0/24(rw,sync)
/opt/wj2 192.168.24.0/24(rw,sync)
exportfs -rv
两台相同(192.168.24.100、192.168.24.110)
systemctl stop firewalld
setenforce 0
yum -y install httpd
systemctl start httpd
vim /etc/sysconfig/network-scripts/ifcfg-lo:0
DEVICE=lo:0
ONBOOT=yes
IPADDR=192.168.24.188
NETMASK=255.255.255.255
service network restart 或 systemctl restart network
ifup lo:0
ifconfig lo:0
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
sysctl -p
showmount -e 192.168.24.80
mount.nfs 192.168.24.80:/csgo/wj1 /var/www/html
echo 'this is wj1 web!' > /var/www/html/index.html
mount.nfs 192.168.24.80:/csgo/wj2/var/www/html
echo 'this is wj2 web!' > /var/www/html/index.html
cd /etc/keepalived/
cp keepalived.conf keepalived.conf.bak
vim keepalived.conf
......
global_defs { #定义全局参数
###10行修改,邮件服务指向本地
smtp_server 127.0.0.1
###12行修改,指定服务器(路由器)的名称,主备服务器名称须不同,主为LVS_01,备为LVS_02
router_id LVS_01
###14行修改,vrrp_strict:严格遵守VRRP协议。下列情况将会阻止启动Keepalived:1. 没有VIP地址。2. 单播邻居。3. 在VRRP版本2中有IPv6地址。
#vrrp_strict #加注释
}
vrrp_instance VI_1 { #定义VRRP热备实例参数
###20行修改,指定热备状态,主为MASTER,备为BACKUP
state MASTER
###21行修改,指定承载vip地址的物理接口
interface ens32
###22行,主备都要一样 virtual_router_id (66)
###23行修改,指定优先级,数值越大优先级越高,主为100,备为99
priority 100
advert_int 1 #通告间隔秒数(心跳频率)
authentication { #定义认证信息,每个热备组保持一致
auth_type PASS #认证类型
###27行修改,指定验证密码,主备服务器保持一致
auth_pass 1111
}
virtual_ipaddress { #指定群集vip地址
192.168.24.188
}
}
###34行修改,指定虚拟服务器地址(VIP)、端口,定义虚拟服务器和Web服务器池参数
virtual_server 192.168.24.188 80 {
delay_loop 6 #健康检查的间隔时间(秒)
lb_algo rr #指定调度算法,轮询(rr)
###37行修改,指定群集工作模式,直接路由(DR)
lb_kind DR
persistence_timeout 50 #连接保持时间(秒)
protocol TCP #应用服务采用的是 TCP协议
###41行修改,指定第一个Web节点的地址、端口
real_server 192.168.24.100 80 {
weight 1 #节点的权重
###43行删除,添加以下健康检查方式
TCP_CHECK {
connect_port 80 #添加检查的目标端口
connect_timeout 3 #添加连接超时(秒)
nb_get_retry 3 #添加重试次数
delay_before_retry 4 #添加重试间隔
}
}
real_server 192.168.24.100 80 { #添加第二个 Web节点的地址、端口
weight 1
TCP_CHECK {
connect_port 80
connect_timeout 3
nb_get_retry 3
delay_before_retry 4
}
}
}
###删除后面多余的配置
systemctl start keepalived
ip addr show dev ens32 #查看虚拟网卡vip
访问192.168.24.188,隔一段时间进行刷新,轮询显示
将主调度服务器keepalived服务关闭,再次验证
systemctl stop keepalived
非抢占模式需要在两个配置文件里面都修改为BACKUP
;然后必须配置nopreempt。
先写一个脚本
修改第一台nginx的配置文件:
第二台nginx的配置文件:
当两台高可用服务器在指定的时间内,无法互相检测到对方心跳而各自启动故障转移功能,取得了资源以及服务的所有权,而此时的两台高可用服务器对都还活着并作正常运行,这样就会导致同一个服务在两端同时启动而发生冲突的严重问题,最严重的就是两台主机同时占用一个VIP的地址(类似双端导入概念),当用户写入数据的时候可能会分别写入到两端,这样可能会导致服务器两端的数据不一致或造成数据的丢失,这种情况就称为裂脑
解决方案
关闭主服务器的Keepalived
启用磁盘锁。正在服务一方锁住共享磁盘,“裂脑”发生时,让对方完全“抢不走”共享磁盘资源。但使用锁磁盘也会有一个不小的问题,如果占用共享盘的一方不主动“解锁”,另一方就永远得不到共享磁盘。现实中假如服务节点突然死机或崩溃,就不可能执行解锁命令。后备节点也就接管不了共享资源和应用服务。于是有人在HA中设计了“智能”锁。即:正在服务的一方只在发现心跳线全部断开(察觉不到对端)时才启用磁盘锁。平时就不上锁了。
脑裂产生的原因
脑裂的预防方案
如何健康检查调度器和节点服务器?
1)Keepalived通过过什么判断哪台主机为主服务器?
2)keepalived的抢占模式与非抢占模式:
3)怎么生成VIP
4)怎么故障切换?