引言
Haproxy是严格使用C语言编写的自由及开放源代码软件,其提供高可用性,负载均衡,以及基于TCP和HTTP的应用程序代理。
lvs在企业中抗负载能力很强,但存在不足;
Haproxy是一款可以供高可用性、负载均衡和基于TCP和HTTP应用的代理软件
1、可靠性和稳定性非常好,可以与硬件级的F5负载均衡设备相媲美
2、最高可以同时维护40000-50000个并发连接,单位时间内处理的最大请求数为20000个,最大处理能力可达10Git/s
3、支持多达8种负载均衡算法,同时也支持会话保持
4、支持虚拟主机功能,从而实现web负载均衡更加灵活
5、支持连接拒绝,全透明代理等独特功能
6、拥有强大的ACL支持,用于访问控制
7、其独特的担心二叉树数据结构,使数据结构的复杂性上升到了0(1),即数据的查询速度不会随着数据条目的增加而速度有所下降
8、支持客户端的keepalive功能,减少客户端与haproxy的多次三次握手导致资源浪费,让多个请求在一个tcp连接中完成
9、支持TCP加速,零复制功能,类似于nmap机制
10、支持响应池
11、支持RDP协议
12、基于源的粘性,类似于nginx的ip_hash功能,把来自同一客户端的请求在一定时间内始终掉地到上游的同一个服务器
13、更好统计数据接口,其web接口显示后端冀全中各个服务器的接受、发送、拒绝、错误等数据的统计信息
14、详细的健康状态检测,web接口中有关对上流服务器的健康检测状态,并提供了一定的管理功能
15、基于流量的健康评估机制
16、基于http认证
17、基于命令行的管理接口
18、日志分析器,可对日志进行分析
RR算法是最简单最常见的一种算法,即轮询调度
最小连接数算法,根据后端的节点连接数大小动态分配前端请求
理解举例:有三个节点A、B、C,各节点被指派到A上,连接数变为A:4 B:5 C:6
1、第一个用户连接请求,会被指派到A上,连接数变为A:5 B:5 C:6
2、第二各用户请求会继续分配到A上,连接数变为A:6 B:5 C:6,再有新的请求会分配给B,每此将新的请求指派给连接数最小的客户端
由于实际情况下A、B、C的连接数会动态释放,很难会出现一样连接数的情况
此算法相比RR算法有很大改进,是用到比较多的一种算法
基于来源访问调度算法,用于一些有Session会话记录在服务端的场景,可以基于来源的IP、Cookie等做集群调度
理解举例 有三个节点A、B、C,第一个用户第一次访问被指派到了A,第二个用户第一次访问被指派到了B
当第一个用户第二次访问时会被继续指派到A,第二个用户第二次访问时依旧会被指派到B,只要负载均衡器不重启,第一个用户都会被指派到A,第二个用户访问都会被指派到B,实现集群的调度
此调度算法好处是实现会话保持,但某些IP访问量非常大时会引起负载不均衡,部分节点访问量超大,影响业务使用
表示根据请求的URI,做cdn需使用
表示根据HTTP请求头来锁定每 一 次HTTP请求。
表示根据据cookie (name)来锁定并哈希每一次TCP请求。
表示根据请求的源IP,类似Nginx的IP hash机制。
表示根据权重,轮询
systemctl stop firewalld
systemcrl disable firewalld
setenforce 0
cd /opt
wget https://www.haproxy.org/download/2.3/src/haproxy-2.3.14.tar.gz
#创建haproxy
useradd -r -M -s /sbin/nologin haproxy
#解压
tar -xvf haproxy-1.5.19.tar.gz
#安装依赖关系包
yum -y install gcc glibc-devel make ncurses-devel openssl-devel xmlto perl wget gtk2-devel binutils-devel systemd-devel pcre-devel zlib-devel gcc gcc-c++ make
#解压编译
cd haproxy-1.5.19/
#编译并指定开启的参数
make ARCH=x86_64 TARGET=linux2628
#安装
make install PREFIX=/usr/local/haproxy
mkdir /etc/haproxy
#自定义配置文件
cp /opt/haproxy-1.5.19/examples/haproxy.cfg /etc/haproxy/haproxy.cfg
配置文件介绍:
global #全局配置,主要用于定义全局参数,属于进程级的配置,通常和操作系统配置有关
--4~5行--修改,定义haproxy日志输出设置和日志级别,local0为日志设备,默认存放到系统日志
log /dev/log local0 info #修改
log /dev/log local0 notice #修改
#log loghost local0 info
maxconn 4096 #最大连接数,需考虑ulimit -n限制,推荐使用10240
--8行--注释,chroot运行路径,为该服务自设置的根目录,一般需将此行注释掉
#chroot /usr/share/haproxy
uid 99 #用户UID
gid 99 #用户GID
daemon #守护进程模式
nbproc 1 #添加,设置并发进程数,建议与当前服务器CPU核数相等或为其2倍
defaults #配置默认参数,这些参数可以被用到Listen,frontend,backend组件
log global #引入global定义的日志格式
mode http #模式为http(7层代理http,4层代理tcp)
option httplog #日志类别为http日志格式
option dontlognull #不记录健康检查日志信息
retries 3 #检查节点服务器失败次数,连续达到三次失败,则认为节点不可用
redispatch #当服务器负载很高时,自动结束当前队列处理比较久的连接
maxconn 2000 #最大连接数,“defaults”中的值不能超过“global”段中的定义
#contimeout 5000 #设置连接超时时间,默认单位是毫秒
#clitimeout 50000 #设置客户端超时时间,默认单位是毫秒
#srvtimeout 50000 #设置服务器超时时间,默认单位是毫秒
timeout http-request 10s #默认http请求超时时间
timeout queue 1m #默认队列超时时间
timeout connect 10s #默认连接超时时间,新版本中替代contimeout,该参数向后兼容
timeout client 1m #默认客户端超时时间,新版本中替代clitimeout,该参数向后兼容
timeout server 1m #默认服务器超时时间,新版本中替代srvtimeout,该参数向后兼容
timeout http-keep-alive 10s #默认持久连接超时时间
timeout check 10s #设置心跳检查超时时间
--删除下面所有listen项--,添加
listen webcluster 0.0.0.0:80 #haproxy实例状态监控部分配置,定义一个名为webcluster的应用
option httpchk GET /test.html #检查服务器的test.html文件
balance roundrobin #负载均衡调度算法使用轮询算法roundrobin
server inst1 192.168.130.102:80 check inter 2000 fall 3 #定义在线节点
server inst2 192.168.130.103:80 check inter 2000 fall 3
---------------------参数说明-----------------------------------------------------------------
balance roundrobin #负载均衡调度算法
#轮询算法:roundrobin;最小连接数算法:leastconn;来源访问调度算法:source,类似于nginx的ip_hash
check inter 2000 #表示启用对此后端服务器执行健康检查,设置健康状态检查的时间间隔,单位为毫秒
fall 3 #表示连续三次检测不到心跳频率则认为该节点失效
若节点配置后带有“backup”表示该节点只是个备份节点,仅在所有在线节点都失效该节点才启用。不携带“backup”,表示为主节点,和其它在线节点共同提供服务。
修改后配置文件!!
global
log /dev/log local0 info
log /dev/log local1 notice
#log loghost local0 info
maxconn 4096
#chroot /usr/share/haproxy
uid 99
gid 99
daemon
#debug
#quiet
nbproc 1
defaults
log global
mode http
option httplog
option dontlognull
retries 3
redispatch
maxconn 2000
#contimeout 5000
#clitimeout 50000
#srvtimeout 50000
timeout http-request 10s #默认http请求超时时间
timeout queue 1m #默认队列超时时间
timeout connect 10s #默认连接超时时间
timeout client 1m #默认客户端超时时间
timeout server 1m #默认服务器超时时间
timeout http-keep-alive 10s #默认持久连接超时时间
timeout check 10s #设置心跳检查超时时间
listen webcluster 0.0.0.0:80
#option httpchk GET /test.html
balance roundrobin
server inst1 192.168.130.102:80 check inter 2000 fall 3
server inst2 192.168.130.103:80 check inter 2000 fall 3
cp /opt/haproxy-1.5.19/examples/haproxy.init /etc/init.d/haproxy
chmod +x /etc/init.d/haproxy
chkconfig --add /etc/init.d/haproxy
ln -s /usr/local/sbin/haproxy /usr/sbin/haproxy
service haproxy start 或 /etc/init.d/haproxy start #开启服务
节点服务器我们简单一点两台都yum装一个http就行
并且在html中分别写入http1和http2
web1:
echo "http1" > /etc/www/html/index.html
web2
echo "http2" > /etc/www/html/index.html
默认haproxy的日志是输出到系统的syslog中,查看起来不是非常方便,为了更好的管理haproxy的日志,我们在生产环境中一般单独定义出来。需要将haproxy的info及notice日志分别记录到不同的日志文件中。
需要修改rsyslog配置,为了便于管理。将haproxy相关的配置独立定义到haproxy.conf,并放到/etc/rsyslog.d/下,rsyslog启动时会自动加载此目录下的所有配置文件。
vim /etc/haproxy/haproxy.cfg
#更改日志文件
global
log /dev/log local0 info
log /dev/log local0 notice
#重启haproxy服务
service haproxy restart
#为了便于管理将haproxy相关的配置独立定义到haproxy.conf
vim /etc/rsyslog.d/haproxy.conf
if ($programname == 'haproxy' and $syslogseverity-text == 'info')
then -/var/log/haproxy/haproxy-info.log
&~
if ($programname == 'haproxy' and $syslogseverity-text == 'notice')
then -/var/log/haproxy/haproxy-notice.log
&~
#将haproxy的info日志记录到/var/log/haproxy/haproxy-info.log下,将notice日志记录到/var/log/haproxy/haproxy-notice.log下
#“&~”表示当日志写入到日志文件后,rsyslog停止处理这个信息。
#重启服务
systemctl restart rsyslog.service