在各种互联网应用中,随着站点对硬件性能、响应速度、服务稳定性、数据可靠性等要求越来越高,单台服务器已经无法满足负载均衡及高可用的要求。除了使用价格昂贵的大型机、专用负载分流设备以外,企业还有另外一种选择来解决难题,那就是构建群集服务器— —通过整合多台服务器,使用 LVS 来达到服务器的高可用和负载均衡,并以同一个 IP 地址对外提供相同的服务
本章将要学习在企业中常用的一种群集技术——LVS(Linux Virtual Server,Linux 虚拟服务器)
群集的称呼来自于英文单词“Cluster”,表示一群、一串的意思,用在服务器领域则表示大量服务器的集合体,以区分于单个服务器。本节将对群集的结构、工作模式、LVS 虚拟应用,以及 NFS 共享存储介绍及使用
根据实际企业环境的不同,群集所提供的功能也各不相同,采用的技术细节也可能各有千秋。然而从整体上来看,需要先了解一些关于群集的共性特征,才能在构建和维护群集的工作中做到心中有数,避免操作上的盲目性
无论是哪种群集,都至少包括两台节点服务器,而对外表现为一个整体,只提供一个访问入口。根据群集所针对的目标差异,可分为以下三种类型
不同类型的群集在必要时可以合并,如高可用的负载均衡群集。本章将依次讲解 LVS 负载均衡群集、高可用软件 Keepalived,以及两者的结合使用
在典型的负载均衡群集中,包括三个层次的组件,如图 1.1 所示。前端至少有一个负载调度器(Load Balancer,或称为 Director)负责响应并分发来自客户机的访问请求;后端由大量真实服务器(Real Server)构成服务器池(Server Pool),提供实际的应用服务,整个群集的伸缩性通过增加、删除服务器节点来完成,而这些过程对客户机是透明的;为了保持服务的一致性,所有节点使用共享存储设备
关于群集的负载调度技术,可以基于 IP、端口、内容等进行分发,其中基于 IP 的负载调度是效率最高的。基于 IP 的负载均衡模式中,常见的有地址转换、IP 隧道和直接路由三种工作模式,如图
以上三种工作模式中,NAT 方式只需要一个公网 IP 地址,从而成为最易用的一种负载均衡模式,安全性也比较好,许多硬件负载均衡设备就采用这种方式。相比较而言,DR 模式和 TUN 模式的负载能力更加强大,适用范围更广,但节点的安全性要稍差一些
Linux Virtual Server 是针对 Linux 内核开发的一个负载均衡项目,由我国的章文嵩博士在 1998 年 5 月创建,官方站点位于 http://www.linuxvirtualserver.org/。LVS 实际上相当于基于 IP 地址的虚拟化应用,为基于 IP 地址和内容请求分发的负载均衡提出了一种高效的解决方法
LVS 现在已成为 Linux 内核的一部分,默认编译为 ip_vs 模块,必要时能够自动调用。 在 CentOS 7 系统中,以下操作可以手动加载 ip_vs 模块,并查看当前系统中 ip_vs 模块的版本信息
[root@node1 ~]# modprobe ip_vs //加载ip_vs模块
[root@node1 ~]# cat /proc/net/ip_vs //查看ip_vs版本信息
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
[root@node1 ~]#
下面将介绍 LVS 所支持的主要负载调度算法,以及在 LVS 负载均衡调度器上如何使用 ipvsadm 管理工具
针对不同的网络服务和配置需要,LVS 调度器提供多种不同的负载调度算法,其中最常用的四种算法是轮询、加权轮询、最少连接和加权最少连接
ipvsadm 是在负载调度器上使用的 LVS 群集管理工具,通过调用 ip_vs 模块来添加、删除服 务器节点,以及查看群集的运行状态 。在CentOS 7系统中,需要手动安装 ipvsadm.x86_64 0:1.27-7.el7 软件包
[root@node1 ~]# yum -y install ipvsadm
[root@node1 ~]# ipvsadm -v
ipvsadm v1.27 2008/5/15 (compiled with popt and IPVS v1.2.1)
[root@node1 ~]#
LVS 群集的管理工作主要包括创建虚拟服务器、添加服务器节点、查看群集节点状态、删除服务器节点和保存负载分配策略。下面分别展示使用 ipvsadm 命令的操作方法
(1)创建虚拟服务器
若群集的 VIP 地址为 192.168.161.10,针对 TCP 80 端口提供负载分流服务,使用的调度算法为轮询,则对应的 ipvsadm 命令操作如下所示。对于负载均衡调度器来说,VIP 必须是本机实际已启用的 IP 地址
[root@node1 ~]# ipvsadm -A -t 192.168.161.10:80 -s rr
上述操作中,选项-A 表示添加虚拟服务器,-t 用来指定 VIP 地址及 TCP 端口,-s 用来指定负载调度算法——轮询(rr)、加权轮询(wrr)、最少连接(lc)、加权最少连接(wlc)
(2)添加服务器节点
为虚拟服务器 192.168.161.10添加两个服务器节点,IP 地址依次为 192.168.161.11~12, 对应的 ipvsadm 命令操作如下所示。若希望使用保持连接,还应添加“-p 60”选项,其中 60 为保持时间(单位为 s)
[root@node1 ~]# ipvsadm -a -t 192.168.161.10:80 -r 192.168.161.11:80 -m -w 1
[root@node1 ~]# ipvsadm -a -t 192.168.161.10:80 -r 192.168.161.12:80 -m -w 1
上述操作中,有以下选项:
(3)查看群集节点状态
结合选项-l 可以列表查看 LVS 虚拟服务器,可以指定只查看某一个 VIP 地址(默认为查看所有),结合选项-n 将以数字形式显示地址、端口等信息
[root@node1 ~]# ipvsadm -ln //查看节点状态
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.161.10:80 rr
-> 192.168.161.11:80 Masq 1 0 0
-> 192.168.161.12:80 Masq 1 0 0
[root@node1 ~]#
上述输出结果中,Forward 列下的 Masq 对应 Masquerade(地址伪装),表示采用的群集模式为 NAT。如果是 Route,则表示采用的群集模式为 DR
(4)删除服务器节点
需要从服务器池中删除某一个节点时,使用选项-d。执行删除操作必须指定目标对象,包括节点地址、虚拟 IP 地址。例如,以下操作将会删除 LVS 群集 192.168.161.10 中的节点 192.168.161.11
[root@node1 ~]# ipvsadm -d -r 192.168.161.11:80 -t 192.168.161.10:80
需要删除整个虚拟服务器时,使用选项-D 并指定虚拟 IP 地址即可,无须指定节点。例如,若执行“ipvsadm -D -t 192.168.161.10:80”,则删除此虚拟服务器
(5)保存负载分配策略
使用导出/导入工具 ipvsadm-save/ipvsadm-restore 可以保存、恢复 LVS 策略。当然也可以快速清除、重建负载分配策略
[root@node1 ~]# ipvsadm-save > /etc/sysconfig/ipvsadm //保存策略
[root@node1 ~]# cat /etc/sysconfig/ipvsadm //确认保存结果
-A -t node1:http -s rr
-a -t node1:http -r 192.168.161.11:http -m -w 1
-a -t node1:http -r 192.168.161.12:http -m -w 1
[root@node1 ~]# systemctl stop ipvsadm //停止服务(清除策略)
[root@node1 ~]# systemctl start ipvsadm //启动服务(重建规则)
NFS 是一种基于 TCP/IP 传输的网络文件系统协议,最初由 Sun 公司开发。通过使用 NFS 协议,客户机可以像访问本地目录一样访问远程服务器中的共享资源。对于大多数负载均衡群集来说,使用 NFS 协议来共享数据存储是比较常见的做法,NFS 也是 NAS 存储设备必然支持的一种协议
下面将学习 NFS 共享服务的基本配置和访问方法
NFS 服务的实现依赖于 RPC(Remote Process Call,远端过程调用)机制,以完成远程到本地的映射过程。在 CentOS 7 系统中,需要安装 nfs-utils、rpcbind 软件包来提供 NFS 共享服务,前者用于 NFS 共享发布和访问,后者用于 RPC 支持
(1)安装nfs-utils、rpcbind软件包
提供 RPC 支持的服务为 rpcbind,提供 NFS 共享的服务为 nfs,完成安装以后建议调整这两个服务的自启动状态,以便每次开机后自动启用。手动加载 NFS 共享服务时,应该先启动 rpcbind,再启动 nfs
[root@node1 ~]# yum -y install nfs-utils rpcbind
[root@nfs ~]# systemctl enable nfs
Created symlink from /etc/systemd/system/multi-user.target.wants/nfs-server.service to /usr/lib/systemd/system/nfs-server.service.
[root@nfs ~]# systemctl enable rpcbind
(2)设置共享目录
NFS 的配置文件为/etc/exports,文件内容默认为空(无任何共享)。在 exports 文件中设置共享资源时,记录格式为“目录位置 客户机地址(权限选项)”。例如,若要将文件夹/opt/wwwroot 共享给 192.168.161.0/24 网段使用,允许读写操作,具体配置如下所示
[root@nfs ~]# mkdir -p /opt/wwwroot
[root@nfs ~]# vim /etc/exports
/opt/wwwroot 192.168.161.0/24(rw,sync,no_root_squash)
其中客户机地址可以是主机名、IP 地址、网段地址,允许使用*、?通配符;权限选项中的 rw 表示允许读写(ro 为只读),sync 表示同步写入,no_root_squash 表示当客户机以root 身份访问时赋予本地 root 权限(默认是 root_squash,将作为 nfsnobody 用户降权对待)
当需要将同一个目录共享给不同的客户机,且分配不同的权限时,只要以空格分隔指定多个“客户机(权限选项)”即可。例如,以下操作将/var/ftp/public 目录共享给两个客 户机,并分别给予只读、读写权限
[root@nfs ~]# vim /etc/exports
/var/ftp/public 192.168.161.11(ro) 192.168.161.12(rw)
(3)启动NFS服务程序
[root@nfs ~]# systemctl start rpcbind
[root@nfs ~]# systemctl start nfs
[root@nfs ~]# netstat -anpt | grep rpc
tcp 0 0 0.0.0.0:111 0.0.0.0:* LISTEN 7880/rpcbind
tcp 0 0 0.0.0.0:20048 0.0.0.0:* LISTEN 8046/rpc.mountd
tcp 0 0 0.0.0.0:52216 0.0.0.0:* LISTEN 8043/rpc.statd
tcp6 0 0 :::111 :::* LISTEN 7880/rpcbind
tcp6 0 0 :::20048 :::* LISTEN 8046/rpc.mountd
tcp6 0 0 :::47866 :::* LISTEN 8043/rpc.statd
[root@nfs ~]#
(4)查看本机发布的NFS共享目录
[root@nfs ~]# showmount -e
Export list for nfs:
/opt/wwwroot 192.168.161.0/24
/var/ftp/public 192.168.161.12,192.168.161.11
[root@nfs ~]#
NFS 协议的目标是提供一种网络文件系统,因此对 NFS 共享的访问也使用 mount 命令来进行挂载,对应的文件系统类型为 nfs。既可以手动挂载,也可以加入/etc/fstab 配置文件来实现开机自动挂载。考虑到群集系统中的网络稳定性,NFS 服务器与客户机之间最好使用专有网络进行连接
(1)安装rpcbind软件包,并启动rpcbind服务
若要正常访问 NFS 共享资源,客户机中也需要安装 rpcbind 软件包,并启动 rpcbind 系统服务。另外,为了使用 showmount 查询工具,建议将 nfs-utils 软件包也一并装上
[root@node2 ~]# yum -y install rpcbind nfs-utils
[root@node2 ~]# systemctl enable rpcbind
[root@node2 ~]# systemctl start rpcbind
如果已经安装了 nfs-utils 软件包,则客户机也可以使用 showmount 查看 NFS 服务器端共享了哪些目录,查询格式为“showmount -e 服务器地址”
[root@node2 ~]# showmount -e 192.168.161.13
Export list for 192.168.161.13:
/opt/wwwroot 192.168.161.0/24
/var/ftp/public 192.168.161.12,192.168.161.11
[root@node2 ~]#
(2)手动挂载NFS共享目录
以 root 用户身份执行 mount 操作,将 NFS 服务器共享的/opt/wwwroot 目录挂载到本地目录/var/www/html
[root@node2 ~]# mount 192.168.161.13:/opt/wwwroot /var/www/html/
[root@node2 ~]# tail -1 /etc/mtab //确认挂载结果
192.168.161.13:/opt/wwwroot /var/www/html nfs4 rw,relatime,vers=4.1,rsize=131072,wsize=131072,namlen=255,hard,proto=tcp,timeo=600,retrans=2,sec=sys,clientaddr=192.168.161.11,local_lock=none,addr=192.168.161.13 0 0
[root@node2 ~]# echo "Hello" > /var/www/html/index.html //在客户机创建测试文件
完成挂载以后,访问客户机的/var/www/html 文件夹,实际上就相当于访问 NFS 服务器中的/opt/wwwroot 文件夹,其中的网络映射过程对于用户程序来说是透明的。例如,上述操作中创建的 index.html 测试文件,会立刻出现在服务器的/opt/wwwroot/目录下
(3)fstab自动挂载设置
修改/etc/fstab 配置文件,加入 NFS 共享目录的挂载设置。注意将文件系统类型设为 nfs,挂载参数建议添加_netdev(设备需要网络)。若添加 soft、intr 参数可以实现软挂载,允许在网络中断时放弃挂载。这样,客户机就可以在每次开机后自动挂载 NFS 共享资源了
[root@node2 ~]# vim /etc/fstab
192.168.161.13:/opt/wwwroot /var/www/html nfs defaults,_netdev 0 0