LVS原理介绍

LVS是什么?

LVS,全称Linux Virtual Server,是国人章文嵩发起的一个开源项目。
在社区具有很大的热度,是一个基于四层、具有强大性能的反向代理服务器。
早期使用lvs需要修改内核才能使用,但是由于性能优异,现在已经被收入内核。

LVS通过工作于内核的ipvs模块来实现功能,其主要工作于netfilter 的INPUT链上。
而用户需要对ipvs进行操作配置则需要使用ipvsadm这个工具。
ipvsadm主要用于设置lvs模型、调度方式以及指定后端主机。

LVS中的角色

LVS的一些相关术语

LVS的模型中有两个角色:
调度器:Director,又称为Dispatcher,Balancer
调度器主要用于接受用户请求。
真实主机:Real Server,简称为RS。
用于真正处理用户的请求。

而为了更好地理解,我们将所在角色的IP地址分为以下三种:
Director Virtual IP:调度器用于与客户端通信的IP地址,简称为VIP
Director IP:调度器用于与RealServer通信的IP地址,简称为DIP。
Real Server : 后端主机的用于与调度器通信的IP地址,简称为RIP。

LVS原理介绍_第1张图片

基本模型

LVS的三种调度模式

LVS-NATNetwork Address Transform

示意图和调度步骤

LVS原理介绍_第2张图片

LVS-NAT

原理:

基于ip伪装MASQUERADES,原理是多目标DNAT。
所以请求和响应都经由Director调度器。

LVS-NAT的优点与缺点

优点:

  • 支持端口映射
  • RS可以使用任意操作系统
  • 节省公有IP地址。
    RIP和DIP都应该使用同一网段私有地址,而且RS的网关要指向DIP。
    使用nat另外一个好处就是后端的主机相对比较安全。

缺点:

  • 请求和响应报文都要经过Director转发;极高负载时,Director可能成为系统瓶颈。
    就是效率低的意思。

LVS-TUNIP Tuneling

示意图和调度步骤

LVS原理介绍_第3张图片

LVS-TUN

原理:

基于隧道封装技术。在IP报文的外面再包一层IP报文。
当Director接收到请求的时候,选举出调度的RealServer
当接受到从Director而来的请求时,RealServer则会使用lo接口上的VIP直接响应CIP。
这样CIP请求VIP的资源,收到的也是VIP响应。

LVS-TUN的优点与缺点

优点:

  • RIP,VIP,DIP都应该使用公网地址,且RS网关不指向DIP;
    只接受进站请求,解决了LVS-NAT时的问题,减少负载。
    请求报文经由Director调度,但是响应报文不需经由Director。

缺点:

  • 不指向Director所以不支持端口映射。
  • RS的OS必须支持隧道功能。
  • 隧道技术会额外花费性能,增大开销。

LVS-DRDirect Routing

示意图和调度步骤

LVS原理介绍_第4张图片

LVS-DR

原理

当Director接收到请求之后,通过调度方法选举出RealServer。
讲目标地址的MAC地址改为RealServer的MAC地址。
RealServer接受到转发而来的请求,发现目标地址是VIP。RealServer配置在lo接口上。
处理请求之后则使用lo接口上的VIP响应CIP。

LVS-DR的优点与缺点

优点:

  • RIP可以使用私有地址,也可以使用公网地址。
    只要求DIP和RIP的地址在同一个网段内。
  • 请求报文经由Director调度,但是响应报文不经由Director。
  • RS可以使用大多数OS

缺点:

  • 不支持端口映射。
  • 不能跨局域网。

总结:

三种模型虽然各有利弊,但是由于追求性能和便捷,DR是目前用得最多的LVS模型。

LVS的八种调度方法

静态方法:仅依据算法本身进行轮询调度

  • RR:Round Robin,轮调
    一个接一个,自上而下
  • WRR:Weighted RR,加权论调
    加权,手动让能者多劳。
  • SH:SourceIP Hash
    来自同一个IP地址的请求都将调度到同一个RealServer
  • DH:Destination Hash
    不管IP,请求特定的东西,都定义到同一个RS上。

动态方法:根据算法及RS的当前负载状态进行调度

  • LC:least connections(最小链接数)
    链接最少,也就是Overhead最小就调度给谁。
    假如都一样,就根据配置的RS自上而下调度。

  • WLC:Weighted Least Connection (加权最小连接数)
    这个是LVS的默认算法。

  • SED:Shortest Expection Delay(最小期望延迟)
    WLC算法的改进。

  • NQ:Never Queue
    SED算法的改进。

  • LBLC:Locality-Based Least-Connection,基于局部的的LC算法
    正向代理缓存机制。访问缓存服务器,调高缓存的命中率。
    和传统DH算法比较,考虑缓存服务器负载。可以看做是DH+LC
    如果有两个缓存服务器
    1.只要调度到其中的一个缓存服务器,那缓存服务器内就会记录下来。下一次访问同一个资源的时候也就是这个服务器了。 (DH)
    2.有一个用户从来没有访问过这两个缓存服务器,那就分配到负载较小的服务器。LC

LBLCR:Locality-Based Least-Connection with Replication(带复制的lblc算法)
缓存服务器中的缓存可以互相复制。
因为即使没有,也能立即从另外一个服务器内复制一份,并且均衡负载

man ipvsadm有讲这几种动态或者静态的rs调度方法

配置LVS-DR

主机名 主机地址 角色
node1 DIP:192.168.2.201,VIP:192.168.2.211 Director
node3 RIP:192.168.2.203,VIP:192.168.2.211 RealServer
node4 RIP:192.168.2.204,VIP:192.168.2.211 RealServer

本文中的主机系统均为CentOS7.1,Apache2.4,数据库:MariaDB-5.5.50

实验拓扑:

 

LVS原理介绍_第5张图片

lvs-dr实验拓扑

(1)在Director上配置VIP和DIP

  [root@bc ~]# vim /etc/sysconfig/network-scripts/ifcfg-eno16777736
    TYPE=Ethernet
    BOOTPROTO="static"
    DEFROUTE=yes
    PEERDNS=yes
    PEERROUTES=yes
    NAME=eno16777736
    DEVICE=eno16777736
    ONBOOT=yes
    IPADDR="192.168.2.201"
    NETMASK="255.255.255.0"
    DNS1="192.168.2.1"
    GATEWAY="192.168.2.1"

[root@bc ~]# vim /etc/sysconfig/network-scripts/ifcfg-eno16777736:0
    TYPE=Ethernet
    BOOTPROTO="static"
    NAME=eno16777736:0
    ONBOOT=yes
    IPADDR="192.168.2.211"
    NETMASK="255.255.255.0"
    DNS1="192.168.2.1"
    GATEWAY="192.168.2.1"
    ONPARENT=yes

重启网络之后查看配置

[root@bc ~]# service NetworkManager stop
  Redirecting to /bin/systemctl stop  NetworkManager.service
[root@bc ~]# service network restart
  Restarting network (via systemctl):                        [  OK  ]
[root@bc ~]# ifconfig
  eno16777736: flags=4163  mtu 1500
        inet 192.168.2.201  netmask 255.255.255.0  broadcast 192.168.2.255
        inet6 fe80::250:56ff:fe3c:d757  prefixlen 64  scopeid 0x20
        ether 00:50:56:3c:d7:57  txqueuelen 1000  (Ethernet)
        RX packets 88853  bytes 14843664 (14.1 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 79195  bytes 6551143 (6.2 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

  eno16777736:0: flags=4163  mtu 1500
        inet 192.168.2.211  netmask 255.255.255.0  broadcast 192.168.2.255
        ether 00:50:56:3c:d7:57  txqueuelen 1000  (Ethernet)

  lo: flags=73  mtu 65536
        inet 127.0.0.1  netmask 255.0.0.0
        inet6 ::1  prefixlen 128  scopeid 0x10
        loop  txqueuelen 0  (Local Loopback)
        RX packets 12998  bytes 1140269 (1.0 MiB)
        RX errors 0  dropped 0  overruns 0  frame 0
        TX packets 12998  bytes 1140269 (1.0 MiB)
        TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

(2)Director使用ipvsadm修改创建ipvs规则

[root@bc ~]# ipvsadm -A -t 192.168.2.211:80 -s rr
[root@bc ~]# ipvsadm -a -t 192.168.2.211:80 -r 192.168.2.203 -g
[root@bc ~]# ipvsadm -a -t 192.168.2.211:80 -r 192.168.2.204 -g
[root@bc ~]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
  -> RemoteAddress:Port           Forward Weight ActiveConn InActConn
TCP  192.168.2.211:80 rr
  -> 192.168.2.203:80             Route   1      0          0         
  -> 192.168.2.204:80             Route   1      0          0   

(3)RealServer安装httpd

[root@node3 ~]# yum install httpd -y
[root@node4 ~]# yum install httpd -y

可以在里面放一个Wordpress,也可以简单echo几个字到index.html
(4)node3和node4修改RealServer内核参数

echo "1" > /proc/sys/net/ipv4/ip_forward
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
ifconfig lo:0 192.168.2.211/32 broadcast 192.168.2.211 up
route add -host 192.168.2.211 dev lo:0

修改内核参数,并且配置VIP地址到RealServer的loopback接口上。
那样的话,当RealServer接到从Director转发而来的数据报文时,RealServer也不会丢弃报文。
同时,修改了RealServer的参数,局域网内的arp表就只有Director有VIP。
RealServer的的机器上有VIP这件事,只有RealServer自己知道。
这样可以保证,当请求到来的时候,第一个会送到Director那里去。

(5)测试结果

[root@node3 httpd]# vim  /var/log/httpd/access_log 
[root@node4 httpd]# vim  /var/log/httpd/access_log 

效果差不多就是这样:
因为我们使用了RR静态调度方法,所以这node3和node4的请求是一人一个。

 

原文:https://www.jianshu.com/p/8a61de3f8be9

你可能感兴趣的:(nginx,网站架构)