Web集群调度器分为软件和硬件:
常用软件调度器:
常用硬件调度器:
梭子鱼、绿盟、F5、Array等
Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理的软件
Haproxy的缺点
LVS不支持正则处理,不能实现动静分离
对于大型网站,LVS的实施配置复杂,维护成本相对较高
Haproxy的优点
- LVS在企业应用中抗负载能力很强
- 适用于负载大的Web站点
- 运行在硬件上可支持数以万计的并发连接的连接请求
- Haproxy也是支持虚拟主机的
- Haproxy支持8种负载均衡器策略
- Haproxy的优点能补充nginx的一些缺点,比如支持Session的保持,Cookie的引导,同时支持通过获取指定url来检测后端服务器的状态
- Haproxy跟LVS类似,本身就只是一款负载均衡软件,单纯从效率上来讲Haproxy会比Nginx有更出色的负载均衡速度,在并发处理上也是优于Nginx的
- Haproxy支持TCP协议的负载均衡转发
HAProxy 是一个使用C语言编写的自由及开放源代码软件,其提供高可用性、负载均衡,以及基于TCP和HTTP的应用程序代理。
是免费、快速并且可靠的一种解决方案。HAProxy非常适用于并发(并发达1w以上)web站点,这些站点通常又需要会话保持或七层处理。
HAProxy的运行模式使得它可以很简单安全的整合至当前的架构中,同时可以保护web服务器不被暴露到网络上。
●可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美;
●最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s;
●支持多达8种负载均衡算法,同时也支持会话保持;
●支持虚机主机功能,从而实现web负载均衡更加灵活;
●支持连接拒绝、全透明代理等独特的功能;
●拥有强大的ACL支持,用于访问控制;
●其独特的弹性二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查寻速度不会随着数据条目的增加而速度有所下降;
●支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成;
●支持TCP加速,零复制功能,类似于mmap机制;
●支持响应池(response buffering);
●支持RDP协议;
●基于源的粘性,类似nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终调度到上游的同一服务器;
●更好统计数据接口,其web接口显示后端集群中各个服务器的接收、发送、拒绝、错误等数据的统计信息;
●详细的健康状态检测,web接口中有关于对上游服务器的健康检测状态,并提供了一定的管理功能;
●基于流量的健康评估机制;
●基于http认证;
●基于命令行的管理接口;
●日志分析器,可对日志进行分析。
1)roundrobin,表示简单的轮询
2)static-rr,表示根据权重
3)leastconn,表示最少连接者先处理
4)source,表示根据请求源IP
5)uri,表示根据请求的URI,做cdn需使用;
6)url_param,表示根据请求的URl参数'balance url_param' requires an URL parameter name
7)hdr(name),表示根据HTTP请求头来锁定每一次HTTP请求;
8)rdp-cookie(name),表示根据cookie(name)来锁定并哈希每一次TCP请求。
●LVS基于Linux操作系统内核实现软负载均衡,而HAProxy和Nginx是基于第三方应用实现的软负载均衡;
●LVS是可实现4层的IP负载均衡技术,无法实现基于目录、URL的转发。而HAProxy和Nginx都可以实现4层和7层技术,HAProxy可提供TCP和HTTP应用的负载均衡综合解决方案;
●LVS因为工作在ISO模型的第四层,其状态监测功能单一,而HAProxy在状态监测方面功能更丰富、强大,可支持端口、URL、脚本等多种状态检测方式;
●HAProxy功能强大,但整体性能低于4层模式的LVS负载均衡。
●Nginx主要用于Web服务器或缓存服务器。Nginx的upstream模块虽然也支持群集功能,但是对群集节点健康检查功能不强,性能没有Haproxy好。
ps:LVS与HAProxy
LVS在企业应用中抗负载能力很强,但存在不足
LVS不支持正则处理,不能实现动静分离
对于大型网站,LVS的实施配置复杂,维护成本相对较高Haproxy是一款可提供高可用性、负载均衡、及基于TCP和HTTP应用的代理软件
适用于负载大的web站点
运行在硬件上可支持数以万计的并发连接的连接请求
实验环境:
Haproxy服务器:192.168.47.102
Nginx 服务器1:192.168.47.103
Nginx 服务器2:192.168.47.104
客户端:192.168.47.105
1. #关闭防火墙
systemctl stop firewalld
setenforce 0
2. #安装依赖关系包
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
3. #新建用户和组便于管理
useradd -M -s /sbin/nologin nginx
4. #切换至opt目录,将下载好的压缩包传进来解压
cd /opt
rz -E
tar -zxf nginx-1.12.0.tar.gz
5. #切换至解压后的目录下编译
cd nginx-1.12.0
./configure \
--prefix=/apps/nginx \
--user=nginx \
--group=nginx \
--with-http_stub_status_module
6. #安装
make -j4 && make install
7. #做软连接,让系统识别nginx的操作命令
ln -s /apps/nginx/sbin/nginx /usr/local/sbin/
8. #将nginx命令加入服务
cd /lib/systemd/system
vim nginx.service
#!/bin.bash
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/apps/nginx/logs/nginx.pid
ExecStart=/apps/nginx/sbin/nginx
ExecReload=/usr/bin/kill -s HUP $MAINPID
ExecStop=/usr/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
9. #创建站点目录
echo "this is 103nginx1 web" > /apps/nginx/html/index.html
cat /apps/nginx/html/index.html
10. #重新加载单元.启动服务
systemctl daemon-reload
systemctl start nginx
11. #查看是否能成功启动
ss -ntap|grep nginx
curl 192.168.47.103
或者浏览器访问
192.168.47.103
1. #关闭防火墙
systemctl stop firewalld
setenforce 0
2. #安装依赖关系包
yum -y install pcre-devel zlib-devel gcc gcc-c++ make
3. #新建用户和组便于管理
useradd -M -s /sbin/nologin nginx
4. #切换至opt目录,将下载好的压缩包传进来解压
cd /opt
tar -zxf nginx-1.12.0.tar.gz
5. #切换至解压后的目录下编译
cd nginx-1.12.0
./configure \
--prefix=/apps/nginx \
--user=nginx \
--group=nginx \
--with-http_stub_status_module
6. #安装
make -j4 && make install
7. #做软连接,让系统识别nginx的操作命令
ln -s /apps/nginx/sbin/nginx /usr/local/sbin/
8. #将nginx命令加入服务
cd /lib/systemd/system
vim nginx.service
#!/bin.bash
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/apps/nginx/logs/nginx.pid
ExecStart=/apps/nginx/sbin/nginx
ExecReload=/usr/bin/kill -s HUP $MAINPID
ExecStop=/usr/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
9. #创建站点目录
echo "this is 104nginx2 web" > /apps/nginx/html/index.html
cat /apps/nginx/html/index.html
10. #重新加载单元.启动服务
systemctl daemon-reload
systemctl start nginx
11. #查看是否能成功启动
ss -ntap|grep nginx
curl 192.168.47.104
或浏览器访问
192.168.47.104
在客户端使用浏览器打开
192.168.47.102
不断刷新浏览器测试负载均衡效果
或
curl 192.168.47.102
默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。
#默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。
vim /etc/haproxy/haproxy.cfg
global
log /dev/log local0 info
log /dev/log local0 notice
service haproxy restart
#需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
systemctl restart rsyslog.service
tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息
1、#修改配置文件
vim /etc/haproxy/haproxy.cfg
global
1og /dev/log local0 info #将info日志存放到local0对应的路径中
log /dev/log local6 notice #将notice日志存放到local6对应的路径中
2、#设置local0和local6对应的日志路径
mkdir /var/log/haproxy #创建haproxy日志文件的存放目录/var/log/haproxy
vim /etc/rsyslog.d/haproxy.conf
local0.* /var/log/haproxy/haproxy-info.log
local1.* /var/log/haproxy/haproxy-notice.log
#如果不加下面的的配置则除了在/var/log/haproxy/中写入日志外,也会写入messages文件。
vim /etc/sysconfig/rsyslog
SYSLOGD_OPTIONS="-r -m 0 -c 2" #-r 开启远程日志;-m 0 标记时间戳,单位是分钟,为0时,表示禁用该功能;-c 2 使用兼容模式,默认是 -c 5
3、#重启haproxy服务和日志服务
systemctl restart rsyslog.service
service haproxy restart
4、#查看haproxy的访问请求日志信息
访问网页后查看日志
tail -f /var/log/haproxy/haproxy-info.log
说明:
这部分配置是将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下。“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
systemctl restart rsyslog.service
tail -f /var/log/haproxy/haproxy-info.log #查看haproxy的访问请求日志信息