目录
一、LVS-DR工作原理
二、LVS-DR数据流向
三、DR模式特点即优缺点
3.1、DR模式特点
3.2、LVS-DR的优缺点
优点:
缺点:
四、ARP解析问题
4.1、问题一:IP地址冲突
解决方法:
4.2、问题二:第二次再有访问请求
解决方法:
五、部署LVS-DR集群
5.1、配置负载调度器lvs(192.168.59.11)
安装ipvsadm工具
配置虚拟IP地址(vip:192.168.59.100)
调整内核(proc)响应参数
配置负载分配
5.2、部署共享存储(NFS服务器:192.168.59.14)
安装nfs和rpcbind
创建共享目录并设置权限
输入页面内容
设置共享目录并发布共享
5.3、配置节点服务器(web1,web2)
配置虚拟IP地址(vip:192.168.59.100){web1和web2都要执行}
启动lo:0网卡,添加VIP本地访问路由
设置系统自动识别,并设置执行权限
调整内核的arp响应参数以阻止更新VIP的MAC地址,避免发生冲突
安装nfs、rpcbind和httpd服务
注意web2和以上操作一样
开启相关服务,并挂载分享端的内容
5.4、开始测试
可能出现的报错
六、LVS-DR问题总结
6.1、LVS/DR如何处理请求报文的,会修改IP包内容吗?
6.2、RealServer为什么要在lo接口上配置VIP?在出口网卡上配置VIP可以吗?
6.3、RealServer为什么要抑制arp帧?
6.4、LVS/DR load balancer(director)与RS为什么要在同一网段中?
5、为什么director上eth0接口除了VIP另外还要配一个ip(即DIP)?
6、director的vip的netmask一定要是255.255.255.255吗?
7、RS设置lo:0而不设置ens33:0的原因
LVS-DR(Linux Virtual Server Director Server)工作模式,是生产环境中最常用的一种工作模式
客户机发起请求,经过调度服务器(lvs),经过算法调度,去访问真实服务器(RS)
由于不原路返回,客户机不知道,真实主机的ip地址,
所以只能通过调度服务器的外网IP(vip)去放回报文信息
Director Server 作为集群的访问入口,但不作为网关使用,后端服务器池中的Real Server与Director Server在同一个物理网络中,发给客户机的数据包不需要经过Director Server。为了响应对整个集群的访问,DS(前端负载均衡节点服务器)与RS(后端真实服务器)都需要配置有VIP地址。
每个Real Server上都有两个IP:VIP(负载均衡对外提供访问的IP地址)和RIP(负载均衡后端的真实服务器IP地址),但是VIP是隐藏的,就是不难提供解析等功能,只是用来做请求回复的源IP的,Director上只需要一个网卡,然后利用别名来配置两个IP:VIP和DIP(负载均衡与后端服务器通信的IP地址),在DIR接收到客户端的请求后。DIR根据负载均衡算法选择一台rs server的网卡mac作为客户端请求包中的目标mac,通过arp转交给后端rs server处理,后端在通过自己的网关回复给客户端。
数据流向分析
负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接分发给用户。所以,负责均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台物理服务器服务,负载均衡器不再是系统的瓶颈。使用VS-DR方式,如果你的负载均衡器拥有100M的全双工网卡的话,就能使得整个Virtual Server能达到1G的吞吐量。甚至更高;
这种方式需要所有的DIR和RIP都在同一广播域;不支持异地容灾。
在LVS-DR负载均衡集群中,负载均衡与节点服务器都要配置相同的VIP地址,在局域网中具有相同的IP地址。势必会造成各服务器ARP通信的紊乱
Real Server返回报文(源IP是VIP)经路由器转发,重新封装报文时,需要先获取路由器的MAC地址,发送ARP请求时,Linux默认使用IP包的源IP地址(VIP)作为ARP请求包中的源IP地址,而不使用发送接口的IP地址,路由器收到ARP请求后,将更新ARP表项,原有的VIP对应Director的MAC地址会被更新为VIP对应的Real Server的MAC地址。路由器根据ARP表项,会将新来的请求报文转发给Real Server,导致Director的VIP失效
对节点服务器进行处理,设置内核参数arp_announce=2:系统不使用IP包的源地址来设置ARP请求的源地址,而选择发送接口的IP地址
路由器上绑定了真实服务器1的mac信息
请求到达真实服务器
在真实服务器上修改内核参数
只对所有服务器真实网卡上的地址进行反馈,解析
实验准备
DR服务器:192.168.59.11
web1:192.168.59.12
web2:192.168.59.13
vip(虚拟回环):192.168.59.100
NFS服务器:192.168.59.14
客户端:192.168.59.90
因为是在内网环境中所以我们需要关闭防火墙和配置本地yum仓库
########关闭防火墙############
#!/bin/bash
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
#######yum仓库#########
mount /dev/cdrom /mnt
mkdir /etc/yum.repos.d/bak
mv /etc/yum.repos.d/*.repo /etc/yum.repos.d/bak
touch /etc/yum.repos.d/local.repo
echo "
[local]
name=local
baseurl=file:///mnt
enabled=1
gpgcheck=0
" > /etc/yum.repos.d/local.repo
yum cleam all
yum makecache
要在每台内网服务器中执行!(下图是执行完效果)
yum -y install ipvsadm
cd /etc/sysconfig/network-scripts/
cp ifcfg-ens33 ifcfg-ens33:0
vim ifcfg-ens33:0
ifup ens33:0
ifconfig
对于DR集群模式来说,由于LVS负载调度器和各节点需要共用VIP地址,一个关闭Linux内核的重定向参数响应服务器部署一台路由器,那么它不会发送重定向,所以可以关闭该功能。
vim /etc/sysctl.conf
net.ipv4.ip_forward = 0 #关闭路由转发功能
net.ipv4.conf.all.send_redirects = 0 #下面都是关闭内核重定向功能
net.ipv4.conf.default.send_redirects = 0
net.ipv4.conf.ens33.send_redirects = 0
ipvsadm -C
ipvsadm -A -t 192.168.59.100:80 -s rr
ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.12:80 -g
ipvsadm -a -t 192.168.59.100:80 -r 192.168.59.13:80 -g
ipvsadm
ipvsadm-save > /etc/sysconfig/ipvsadm
部署前执行上面脚本关闭防火墙并配置本地yum仓库
yum -y install nfs-utils rpcbind
systemctl start nfs
systemctl start rpcbind
mkdir /opt/db1 /opt/db2
chmod 777 /opt/db1 /opt/db2
echo "i am web1" > /opt/db1/index.html
echo "i am web2" > /opt/db2/index.html
vim /etc/exports
/opt/db1 192.168.59.0/24(rw,sync)
/opt/db2 192.168.59.0/24(rw,sync)
exportfs -rv
配置前要执行上面脚本哦
此地址仅作为发送web响应数据包的源地址,并不需要监听客户机的访问请求(改由调度器监听并分发)。因此实验虚接口lo:0来承担VIP地址,并为本机添加一条路由记录,将访问VIP的数据限制在本地,以避免通讯紊乱。
cd /etc/sysconfig/network-scripts/
cp ifcfg-lo ifcfg-lo:0
vim ifcfg-lo:0
IPADDR=192.168.59.100
NETMASK=255.255.255.255 #子网掩码必须全为1
DEVICE=lo:0
ONBOOT=yes
ifup lo:0
ifconfig lo:0
route add -host 192.168.59.100 dev lo:0
vim /etc/rc.local
/sbin/route add -host 192.168.59.100 dev lo:0
chmod +x /etc/rc.d/rc.local
vim /etc/sysctl.conf
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
net.ipv4.conf.default.arp_ignore = 1
net.ipv4.conf.default.arp_announce = 2
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
sysctl -p #立即生效
yum -y install nfs rpcbind http
web1
systemctl start rpcbind httpd nfs
mount.nfs 192.168.59.14:/opt/db1 /var/www/html
df -hT
web2
systemctl start rpcbind httpd nfs
mount.nfs 192.168.59.14:/opt/db2 /var/www/html
df -hT
我们用一台win(net1网卡的)
测试成功
我们在访问的时候可能会出现这种情况,这时因为我们配置了本地yum源而导致的
我们只需要找到问题主机的httpd.conf文件
vim /etc/httpd/conf/httpd.conf
将其注释就行了。
vs/dr本身不会关心IP层以上的信息,即使是端口号也是tcp/ip协议栈去判断是否正确,vs/dr本身主要做这么几个事:
接收client的请求,根据你设定的负载均衡算法选取一台realserver的ip;
以选取的这个ip对应的mac地址作为目标mac,然后重新将IP包封装成帧转发给这台RS;
在hash table中记录连接信息。
vs/dr做的事情很少,也很简单,所以它的效率很高,不比硬件负载均衡设备差多少,数据包、数据帧的大致流向是这样的:client –> VS –> RS –> client。
既然要让RS能够处理目标地址为vip的IP包,首先必须要让RS能接收到这个包。在lo上配置vip能够完成接收包并将结果返回client。不可以将VIP设置在出口网卡上,否则会响应客户端的arp request,造成client/gateway arp table紊乱,以至于整个load balance都不能正常工作。
我们知道仰制arp帧需要在server上执行以下命令,如下:
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
3
4
因为arp对逻辑口没有意义。实际上起作用的只有以下两条:
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
1
2
即对所有的物理网卡设置arp仰制。对仰制所有的物理网卡设置arp仰制是为了让CIP发送的请求顺利转交给DIR以及防止整个LVS环境arp表混乱,不然容易导致整个lvs不能工作。
lvs/dr它是在数据链路层来实现的,即RIP必须能够接受到DIR的arp请求,如果不在同一网段则会隔离arp,这样arp请求就不能转发到指定的RIP上,所以director必须和RS在同一网段里面。
如果是用了keepalived等工具做HA或者Load Balance,则在健康检查时需要用到DIP。 没有健康检查机制的HA或者Load Balance则没有存在的实际意义。
lvs/dr里,director的vip的netmask 没必要设置为255.255.255.255,director的vip本来就是要像正常的ip地址一样对外通告的,不要搞得这么特殊。
因为“负载调度机”转发时并不会改写数据包的目的IP,所以“节点服务器”收到的数据包的目的IP仍是“负载调度器”的虚拟服务IP。为了保证“节点服务器”能够正确处理该数据包,而不是丢弃,必须在“节点服务器”的环回网卡上绑定“负载调度器”的虚拟服务IP。这样“节点服务器”会认为这个虚拟服务IP是自己的IP,自己是能够处理这个数据包的。否则“节点服务器”会直接丢弃该数据包!
“节点服务器”上的业务进程必须监听在环回网卡的虚拟服务IP上,且端口必须和“负载调度机”上的虚拟服务端口一致。因为“负载调度机”不会改写数据包的目的端口,所以“节点服务器”服务的监听端口必须和虚拟服务端口一致,否则“节点服务器”会直接拒绝该数据包。
“节点服务器”处理完请求后,响应直接回给客户端,不再经过“负载调度机”。因为“节点服务器”收到的请求数据包的源IP是客户端的IP,所以理所当然“节点服务器”的响应会直接回给客户端,而不会再经过“负载调度机”。这时候要求“节点服务器”和客户端之间的网络是可达的。
“负载调度机”和“节点服务器”须位于同一个子网。因为“负载调度机”在转发过程中需要改写数据包的MAC为“节点服务器”的MAC地址,所以要能够查询到“节点服务器”的MAC。而要获取到“节点服务器”的MAC,则需要保证二者位于一个子网,否则“负载调度机”只能获取到“节点服务器”网关的MAC地址。