负载均衡(Load Balancing)是一种将工作负载(如网络请求、数据流量等)分配到多个服务器或计算资源上的技术。它的主要目的是确保资源的合理利用,提高系统的性能、可靠性和可扩展性。
在负载均衡中,有一个负载均衡器(Load Balancer)作为中间层,它接收来自客户端的请求,并将这些请求分发给后端的多个服务器,使每个服务器都能够处理一部分工作负载。负载均衡器通常基于一些算法和策略来决定如何分配请求,以实现负载均衡。
以下是负载均衡的一些关键特点和优势:
分布负载:负载均衡器可以将工作负载平均地分发到多个服务器上,以避免某个服务器过载而导致性能下降或服务不可用。
提高性能:通过将工作负载分散到多个服务器上,负载均衡器可以提高整体系统的处理能力和响应速度,提供更好的用户体验。
高可用性:当某个服务器发生故障或不可用时,负载均衡器可以自动将请求转发到其他正常的服务器上,保证服务的连续性和可靠性。
扩展性:通过添加更多的服务器来增加系统的处理能力,负载均衡器可以实现系统的水平扩展,适应不断增长的工作负载和用户需求。
健康检查:负载均衡器可以定期检查后端服务器的健康状态,如响应时间、负载情况等,以便动态地调整负载分配策略,避免将请求发送到不可用或故障的服务器上。
透明性:对于客户端来说,负载均衡器是一个单一的入口点,它隐藏了后端服务器的细节,使客户端无需知道实际处理请求的服务器是哪台。
负载均衡在许多场景中都有广泛应用,特别是在高流量的网络服务、Web应用程序、数据库集群、虚拟化环境等领域。通过合理配置和使用负载均衡技术,可以提高系统的可靠性、性能和可扩展性,实现更好的资源利用和服务质量。
Nginx的负载均衡模块提供了多种策略来分发请求到后端服务器。以下是一些常见的负载均衡策略:
轮询(Round Robin):
这是最常用的负载均衡策略。Nginx按照事先定义的顺序依次将请求分发给后端服务器。每个请求依次轮询到不同的服务器,实现负载均衡。
IP Hash:
根据客户端的IP地址,将同一个客户端的请求始终分发给同一个后端服务器。这种方式可以保持会话的一致性,因为同一个客户端的请求总是被发送到同一个服务器上。
最少连接(Least Connections):
Nginx将请求发送到当前连接数最少的后端服务器上。这样可以确保将负载均衡到连接数较少的服务器上,从而实现动态负载均衡。
加权轮询(Weighted Round Robin):
对每个后端服务器分配一个权重,根据权重的比例将请求分发给后端服务器。具有较高权重的服务器将处理更多的请求。
加权最少连接(Weighted Least Connections):
类似于最少连接策略,但每个后端服务器的连接数还会乘以一个权重值。连接数较少且权重较高的服务器将优先处理请求。
URI哈希(URI Hash):
根据请求的URI对后端服务器进行哈希,将同一个URI的请求始终发送到同一个服务器上。这种方式可以保持特定URI的请求在同一个服务器上处理,适用于一些需要保持一致性的应用场景。
以上是一些常见的负载均衡策略,Nginx提供了灵活的配置选项,使得管理员可以根据具体需求选择合适的策略。可以通过Nginx的配置文件进行相应的调整和定制。
实验前提:
需要准备多台虚拟机:
其中一台作为负载均衡器。
其他的作为service服务器。
需要在/usr/loacl/ydhnginx/conf
的http中添加。
#定义一个负载均衡器
upstream myweb{
server 192.168.2.25;
server 192.168.2.26;
}
server {
listen 80;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
proxy_pass http://myweb;
}
#定义一个负载均衡器
upstream myweb{
server 192.168.2.25 weight=3;
server 192.168.2.26;
}
server {
listen 80;
#charset koi8-r;
#access_log logs/host.access.log main;
location / {
proxy_pass http://myweb;
}
#定义上游服务器集群,定义一个负载均衡器
upstream myweb1 {
least_conn;
server 192.168.2.25;
server 192.168.2.26;
server 192.168.2.27;
}
server {
listen 80;
location / {
proxy_pass http://myweb;
}
}
#定义上游服务器集群,定义一个负载均衡器
upstream myweb1 {
ip_hash;
server 192.168.2.25;
server 192.168.2.26;
server 192.168.2.27;
}
server {
listen 80;
location / {
proxy_pass http://myweb;
}
}
在/usr/local/ydhnginx/conf/ngixn.conf
的http中加上下面代码,同时nginx需要开通https的服务。
server {
listen 443 ssl;
server_name localhost;
ssl_certificate **.pem;
ssl_certificate_key **.key;
ssl_session_cache shared:SSL:1m;
ssl_session_timeout 5m;
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
location / {
proxy_pass http://myweb;
# root html;
# index index.html index.htm;
}
}
问题:
后端的real server不知道前端真正访问的ip地址,只是知道负载均衡的ip地址,如何让后端的real server知道前端真正的用户的ip地址?
在cong/nginx.conf
的http里面加
server {
listen 80;
server_name www.sc.com;
location / {
proxy_pass http://myweb1;
proxy_set_header X-Real-IP $remote_addr;
}
}
将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写
在主配置文件nginx.conf里的日志部分调用这个变量,获取x_real_ip的值
http {
include mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $http_x_real_i - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
可以看到通过访问负载均衡器访问的,也可以通过查看日志知晓源ip地址了。
注意:
需要server机器的配置干净,无其他代理,否则可能会失败。
提前条件需要在后端的backend服务器上在编译安装nginx的时候,需要接 --with-http_realip_module 开启这个功能
server {
listen 80;
server_name www.yan.com;
location / {
proxy_pass http://myweb;
proxy_set_header X-Real-IP $remote_addr;
}
}
将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写
server{
listen 80;
set_real_ip_from 192.168.2.24;
set_real_ip_from 192.168.2.24 告诉本机的nginx 192.168.2.24 是负载均衡器,不是真正的client
需要先准备一台机器,用来测试的。不能用负载均衡器或者server服务器
负载均衡器的作用是在多台服务器之间平衡负载,将请求分配给可用的服务器。它可以帮助提高系统的可靠性和性能。如果你不能使用负载均衡器,可能意味着你需要测试的系统没有多台服务器,或者你不希望在测试期间使用负载均衡功能。
服务器通常用于托管和处理应用程序或服务。它们提供计算资源和网络连接,使应用程序能够在网络上访问。如果你不能使用服务器,可能是因为你无法获得或设置一台服务器,或者你的测试并不依赖于服务器特定的功能。
ab(ApacheBench)是一个常用的性能测试工具,用于对网站或 Web 服务器进行压力测试。在CentOS 7上安装ab工具非常简单。以下是在CentOS 7上安装和使用ab工具的详细步骤:
安装Apache的HTTP服务器软件包:
sudo yum install httpd
安装ab工具:
sudo yum install httpd-tools
这将安装包含ab工具的httpd-tools软件包。
验证ab工具是否成功安装:
ab -V
运行该命令后,你应该能够看到ab工具的版本信息。
使用ab工具进行压力测试:
ab -n <请求数量> -c <并发数>
-n
:指定要发送的请求数量。-c
:指定并发请求数量。
:要测试的网址或服务器的URL。例如,要发送100个请求并发测试一个网址,可以使用以下命令:
ab -n 100 -c 10 http://example.com/
运行测试后,ab工具将输出关于测试结果的统计信息,包括请求数、失败数、传输速度、请求延迟等。
请注意,压力测试可能会对服务器和网络造成负载,因此在进行测试时应谨慎操作,并确保不会对生产环境造成过大的影响。
ab工具的结果分析主要关注以下几个关键指标:
请求数(Requests):总共发送的请求数量。
失败数(Failed requests):请求失败的数量,包括请求超时、连接重置等错误。
平均请求响应时间(Time per request):每个请求的平均响应时间,以毫秒为单位。
平均并发请求响应时间(Time per request: across all concurrent requests):所有并发请求的平均响应时间。
请求吞吐量(Requests per second):每秒处理的请求数量。较高的吞吐量表示服务器处理能力较强。
传输速度(Transfer rate):服务器响应的数据传输速率,通常以每秒传输的字节数来衡量。
请求延迟百分比(Percentage of the requests served within a certain time):表示在指定时间内处理的请求占总请求数的百分比。常见的百分比包括50%,90%,95%,99%等。
这些指标可以帮助你评估服务器的性能和稳定性。通常情况下,你希望请求数越高、失败数越低、平均响应时间和并发请求响应时间越短、吞吐量和传输速度越高,以及高百分比的请求在较短的时间内得到处理。
https://docs.nginx.com/nginx/admin-guide/load-balancer/tcp-udp-load-balancer/
官方配置
前提:编译安装的时候需要接--with-stream
是在nginx的ngx_stream_core_module
模块中。
#user nobody;
worker_processes 1;
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
events {
worker_connections 1024;
}
#4层的负载均衡
stream {
#负载均衡器的定义web
upstream scweb {
server 192.168.2.25:80;
server 192.168.2.26:80;
}
#负载均衡器的定义dns
upstream dns_servers {
hash $remote_addr consistent;
server 192.168.2.130:80;
server 192.168.2.131:80;
}
server {
listen 80;
proxy_pass scweb;
}
}
注意:
网页在nginx不停止重启的时候,画面不会发生变化,我们可以通过查看server服务器的日志知道确实放生了访问。
nginx默认使用7层负载
这是7层的nginx.conf
配置文件。
[root@ydh conf]# cat nginx_bak.conf
user **;
worker_processes 2;
#error_log logs/error.log;
error_log logs/error.log notice;
#error_log logs/error.log info;
pid logs/nginx.pid;
events {
worker_connections 2048;
}
http {
include mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log logs/access.log main;
sendfile on;
#tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
autoindex on;
server_tokens off;
#gzip on;
limit_conn_zone $binary_remote_addr zone=addr:10m;
limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;
server {
listen 80;
server_name www.yan.com;
access_log logs/yan.com.access.log main;
limit_rate 10k; #限制每秒10k的速度
limit_rate_after 100k; #下载速度达到100k每秒的时候,进行限制
location / {
root html/yan;
index shouye.html index.html index.htm;
limit_req zone=one burst=5;
}
location /download/ {
limit_conn addr 1;
autoindex on;
root html/yan;
}
error_page 404 /404.html;
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
location = /info{
stub_status; #返回nginx的状态的统计信息
access_log off;
auth_basic "ydh website";
auth_basic_user_file htpasswd;
allow 192.168.1.126;
deny all;
}
}
server {
listen 80;
server_name www.d.com;
access_log logs/d.com.access.log main;
location / {
root html/d;
index shouye.html index.html index.htm;
}
error_page 404 /404.html;
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
server {
listen 80;
server_name www.hao.com;
access_log logs/hao.com.access.log main;
location / {
root html/hao;
index shouye.html index.html index.htm;
}
error_page 404 /404.html;
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
location /download/ {
root html/hao;
}
location ~/download/sc {
root html/hao;
}
location ~* /DOWNLOAD/ {
root html/hao;
}
location ^~/image//a.txt{
root html/hao;
}
location /user/ {
proxy_pass http://www.jd.com;
}
location = /user {
proxy_pass http://www.taobao.com;
}
}
# HTTPS server
server {
listen 443 ssl;
server_name www.**.online;
ssl_certificate **e.pem;
ssl_certificate_key **.key;
ssl_session_cache shared:SSL:1m;
ssl_session_timeout 5m;
ssl_ciphers HIGH:!aNULL:!MD5;
ssl_prefer_server_ciphers on;
location / {
root html;
index index.html index.htm;
}
}
}
在NGINX中,4层负载均衡和7层负载均衡是两种不同的负载均衡方式,它们在处理网络流量和请求分发方面有一些关键的区别。
支持的服务:4层负载均衡适用于基于网络连接的服务,如数据库服务器、SMTP服务器、DNS服务器等。它可以根据IP地址和端口号将请求转发到后端服务器。
支持的服务:7层负载均衡适用于基于应用层协议的服务,如Web服务器(HTTP/HTTPS)、应用服务器(如Java应用服务器)、消息队列(如MQTT、AMQP)等。它可以根据请求的内容来智能地将请求分发给后端服务器。
总结:
4层负载均衡主要关注网络连接的基本信息,而7层负载均衡则对请求的内容进行深入解析和处理。4层负载均衡适用于基于网络连接的服务,而7层负载均衡适用于基于应用层协议的服务。选择使用哪种负载均衡方式取决于具体的应用场景和需求。