Nginx-负载均衡

文章目录

  • nginx 负载均衡
    • 负载均衡策略(方法、算法)
    • nginx配置
      • round-robin
      • 加权轮询
      • least-connected
      • ip-hasp
      • 使用Https
    • realip
      • 后端real server不使用realip模块
      • 后端
      • real server使用realip模块
    • ab压力测试
    • 不同负载
      • 四层负载
    • 7层负载
      • 4层和7层

nginx 负载均衡

Nginx-负载均衡_第1张图片

负载均衡(Load Balancing)是一种将工作负载(如网络请求、数据流量等)分配到多个服务器或计算资源上的技术。它的主要目的是确保资源的合理利用,提高系统的性能、可靠性和可扩展性。

在负载均衡中,有一个负载均衡器(Load Balancer)作为中间层,它接收来自客户端的请求,并将这些请求分发给后端的多个服务器,使每个服务器都能够处理一部分工作负载。负载均衡器通常基于一些算法和策略来决定如何分配请求,以实现负载均衡。

以下是负载均衡的一些关键特点和优势:

  1. 分布负载:负载均衡器可以将工作负载平均地分发到多个服务器上,以避免某个服务器过载而导致性能下降或服务不可用。

  2. 提高性能:通过将工作负载分散到多个服务器上,负载均衡器可以提高整体系统的处理能力和响应速度,提供更好的用户体验。

  3. 高可用性:当某个服务器发生故障或不可用时,负载均衡器可以自动将请求转发到其他正常的服务器上,保证服务的连续性和可靠性。

  4. 扩展性:通过添加更多的服务器来增加系统的处理能力,负载均衡器可以实现系统的水平扩展,适应不断增长的工作负载和用户需求。

  5. 健康检查:负载均衡器可以定期检查后端服务器的健康状态,如响应时间、负载情况等,以便动态地调整负载分配策略,避免将请求发送到不可用或故障的服务器上。

  6. 透明性:对于客户端来说,负载均衡器是一个单一的入口点,它隐藏了后端服务器的细节,使客户端无需知道实际处理请求的服务器是哪台。

负载均衡在许多场景中都有广泛应用,特别是在高流量的网络服务、Web应用程序、数据库集群、虚拟化环境等领域。通过合理配置和使用负载均衡技术,可以提高系统的可靠性、性能和可扩展性,实现更好的资源利用和服务质量。

负载均衡策略(方法、算法)

Nginx的负载均衡模块提供了多种策略来分发请求到后端服务器。以下是一些常见的负载均衡策略:

  1. 轮询(Round Robin):
    这是最常用的负载均衡策略。Nginx按照事先定义的顺序依次将请求分发给后端服务器。每个请求依次轮询到不同的服务器,实现负载均衡。

  2. IP Hash:
    根据客户端的IP地址,将同一个客户端的请求始终分发给同一个后端服务器。这种方式可以保持会话的一致性,因为同一个客户端的请求总是被发送到同一个服务器上。

  3. 最少连接(Least Connections):
    Nginx将请求发送到当前连接数最少的后端服务器上。这样可以确保将负载均衡到连接数较少的服务器上,从而实现动态负载均衡。

  4. 加权轮询(Weighted Round Robin):
    对每个后端服务器分配一个权重,根据权重的比例将请求分发给后端服务器。具有较高权重的服务器将处理更多的请求。

  5. 加权最少连接(Weighted Least Connections):
    类似于最少连接策略,但每个后端服务器的连接数还会乘以一个权重值。连接数较少且权重较高的服务器将优先处理请求。

  6. URI哈希(URI Hash):
    根据请求的URI对后端服务器进行哈希,将同一个URI的请求始终发送到同一个服务器上。这种方式可以保持特定URI的请求在同一个服务器上处理,适用于一些需要保持一致性的应用场景。

以上是一些常见的负载均衡策略,Nginx提供了灵活的配置选项,使得管理员可以根据具体需求选择合适的策略。可以通过Nginx的配置文件进行相应的调整和定制。

nginx配置

实验前提:

需要准备多台虚拟机:

其中一台作为负载均衡器。

其他的作为service服务器。

需要在/usr/loacl/ydhnginx/conf的http中添加。

round-robin

#定义一个负载均衡器
	upstream myweb{
		server 192.168.2.25;
		server 192.168.2.26;
	}    

	server {
        listen       80;
        
        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
			proxy_pass http://myweb;
        }


加权轮询

#定义一个负载均衡器
	upstream myweb{
		server 192.168.2.25 weight=3;
		server 192.168.2.26;
	}    

	server {
        listen       80;
        
        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
			proxy_pass http://myweb;
        }


least-connected

 #定义上游服务器集群,定义一个负载均衡器
    upstream myweb1 {
        least_conn;
        server  192.168.2.25;
        server  192.168.2.26;
        server  192.168.2.27;
        }
    server {
        listen       80;
  
        location / {
                proxy_pass http://myweb;
           }

    }

ip-hasp

#定义上游服务器集群,定义一个负载均衡器
    upstream myweb1 {
        ip_hash;
     	server  192.168.2.25;
        server  192.168.2.26;
        server  192.168.2.27;
        }
    server {
        listen       80;
        location / {
                proxy_pass http://myweb;
           }

    }

使用Https

/usr/local/ydhnginx/conf/ngixn.conf的http中加上下面代码,同时nginx需要开通https的服务。

    server {
        listen       443 ssl;
        server_name  localhost;

        ssl_certificate      **.pem;
        ssl_certificate_key  **.key;

        ssl_session_cache    shared:SSL:1m;
        ssl_session_timeout  5m;

        ssl_ciphers  HIGH:!aNULL:!MD5;
        ssl_prefer_server_ciphers  on;

        location / {
			proxy_pass http://myweb;
           # root   html;
           # index  index.html index.htm;
        }
    }

realip

问题:
后端的real server不知道前端真正访问的ip地址,只是知道负载均衡的ip地址,如何让后端的real server知道前端真正的用户的ip地址?

后端real server不使用realip模块

  • 在负载均衡器上修改http请求报文头部字段,添加一个X-Real-IP字段

cong/nginx.conf的http里面加

  server {
        listen       80;
        server_name  www.sc.com;
        location / {
                proxy_pass http://myweb1;
                proxy_set_header   X-Real-IP        $remote_addr;
           }

    }

将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写

  • 在后端real server上使用这个x_real_ip这个字段

在主配置文件nginx.conf里的日志部分调用这个变量,获取x_real_ip的值

http {
    include       mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr -  $http_x_real_i - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';


后端

在这里插入图片描述

可以看到通过访问负载均衡器访问的,也可以通过查看日志知晓源ip地址了。

注意:

需要server机器的配置干净,无其他代理,否则可能会失败。

real server使用realip模块

提前条件需要在后端的backend服务器上在编译安装nginx的时候,需要接 --with-http_realip_module 开启这个功能

  • 在负载均衡器上修改http请求报文头部字段,添加一个X_REAL_IP字段
  server {
        listen       80;
        server_name  www.yan.com;
        location / {
                proxy_pass http://myweb;
                proxy_set_header   X-Real-IP        $remote_addr;
           }

    }

将nginx内部的remote_addr这个变量的值,赋值给X-Real-IP这个变量,X-Real-IP这个变量会在http协议的请求报文里添加一个X-Real-IP的字段,后端的real server 服务器上的nginx就可以读取这个字段的值
X-Real-IP 这个变量名可以自己定义,随便取名,后面引用的时候,不区分大小写

  • 在后端real server上使用set_real_ip_from 192.168.2.24
server{
                listen 80;
                set_real_ip_from 192.168.2.24;

set_real_ip_from 192.168.2.24 告诉本机的nginx 192.168.2.24 是负载均衡器,不是真正的client

ab压力测试

需要先准备一台机器,用来测试的。不能用负载均衡器或者server服务器

  1. 负载均衡器的作用是在多台服务器之间平衡负载,将请求分配给可用的服务器。它可以帮助提高系统的可靠性和性能。如果你不能使用负载均衡器,可能意味着你需要测试的系统没有多台服务器,或者你不希望在测试期间使用负载均衡功能。

  2. 服务器通常用于托管和处理应用程序或服务。它们提供计算资源和网络连接,使应用程序能够在网络上访问。如果你不能使用服务器,可能是因为你无法获得或设置一台服务器,或者你的测试并不依赖于服务器特定的功能。

ab(ApacheBench)是一个常用的性能测试工具,用于对网站或 Web 服务器进行压力测试。在CentOS 7上安装ab工具非常简单。以下是在CentOS 7上安装和使用ab工具的详细步骤:

  1. 安装Apache的HTTP服务器软件包:

    sudo yum install httpd
    
  2. 安装ab工具:

    sudo yum install httpd-tools
    

    这将安装包含ab工具的httpd-tools软件包。

  3. 验证ab工具是否成功安装:

    ab -V
    

    运行该命令后,你应该能够看到ab工具的版本信息。

  4. 使用ab工具进行压力测试:

    ab -n <请求数量> -c <并发数> 
    
    • -n:指定要发送的请求数量。
    • -c:指定并发请求数量。
    • :要测试的网址或服务器的URL。

    例如,要发送100个请求并发测试一个网址,可以使用以下命令:

    ab -n 100 -c 10 http://example.com/
    

    运行测试后,ab工具将输出关于测试结果的统计信息,包括请求数、失败数、传输速度、请求延迟等。

请注意,压力测试可能会对服务器和网络造成负载,因此在进行测试时应谨慎操作,并确保不会对生产环境造成过大的影响。

ab工具的结果分析主要关注以下几个关键指标:

  1. 请求数(Requests):总共发送的请求数量。

  2. 失败数(Failed requests):请求失败的数量,包括请求超时、连接重置等错误。

  3. 平均请求响应时间(Time per request):每个请求的平均响应时间,以毫秒为单位。

  4. 平均并发请求响应时间(Time per request: across all concurrent requests):所有并发请求的平均响应时间。

  5. 请求吞吐量(Requests per second):每秒处理的请求数量。较高的吞吐量表示服务器处理能力较强。

  6. 传输速度(Transfer rate):服务器响应的数据传输速率,通常以每秒传输的字节数来衡量。

  7. 请求延迟百分比(Percentage of the requests served within a certain time):表示在指定时间内处理的请求占总请求数的百分比。常见的百分比包括50%,90%,95%,99%等。

这些指标可以帮助你评估服务器的性能和稳定性。通常情况下,你希望请求数越高、失败数越低、平均响应时间和并发请求响应时间越短、吞吐量和传输速度越高,以及高百分比的请求在较短的时间内得到处理。

不同负载

四层负载

https://docs.nginx.com/nginx/admin-guide/load-balancer/tcp-udp-load-balancer/官方配置

前提:编译安装的时候需要接--with-stream是在nginx的ngx_stream_core_module模块中。

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}
#4层的负载均衡
stream {
	#负载均衡器的定义web
    upstream scweb {
        server 192.168.2.25:80;
        server 192.168.2.26:80;
      }
	#负载均衡器的定义dns
   upstream dns_servers {
	hash   $remote_addr consistent;
        server 192.168.2.130:80;
        server 192.168.2.131:80;
        }
server {
        listen     80;
        proxy_pass scweb;
    }
}

注意:

网页在nginx不停止重启的时候,画面不会发生变化,我们可以通过查看server服务器的日志知道确实放生了访问。

7层负载

nginx默认使用7层负载

这是7层的nginx.conf配置文件。

[root@ydh conf]# cat nginx_bak.conf 
user  **;
worker_processes  2;

#error_log  logs/error.log;
error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

pid        logs/nginx.pid;

events {
    worker_connections  2048;
}
http {
    include       mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;
	
	autoindex on;
	server_tokens off;
    #gzip  on;
    limit_conn_zone $binary_remote_addr zone=addr:10m;
	limit_req_zone $binary_remote_addr zone=one:10m rate=1r/s;

    server {
        listen       80;
        server_name  www.yan.com;
        access_log  logs/yan.com.access.log  main;
        limit_rate 10k;			#限制每秒10k的速度
		limit_rate_after 100k;	#下载速度达到100k每秒的时候,进行限制
		
		location / {
            root   html/yan;
            index   shouye.html index.html index.htm;
			limit_req zone=one burst=5;
        }
		

		location /download/ {
			limit_conn addr 1;
			autoindex on;
			root	html/yan;
		}
		
		error_page  404              /404.html;
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }
		location = /info{
			stub_status;		#返回nginx的状态的统计信息
			access_log off;
			auth_basic "ydh website";
			auth_basic_user_file htpasswd;
			allow 192.168.1.126;
			deny all;
}
}

    server {
        listen       80; 
        server_name  www.d.com;
        access_log  logs/d.com.access.log  main;
        location / { 
            root   html/d;
            index   shouye.html index.html index.htm;
        }   
        error_page  404              /404.html;
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        } 
}


    server {
        listen       80; 
        server_name  www.hao.com;
        access_log  logs/hao.com.access.log  main;
        location / { 
            root   html/hao;
            index   shouye.html index.html index.htm;
        }   
        error_page  404              /404.html;
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        } 
        
        location /download/ { 
            root   html/hao;
        }   
        location ~/download/sc { 
            root   html/hao;
        }   
        location ~* /DOWNLOAD/ { 
            root   html/hao;
        }   
		
		location ^~/image//a.txt{
			root 	html/hao;
		}
		
		location /user/ {
    proxy_pass http://www.jd.com;
	}

location = /user {
    proxy_pass http://www.taobao.com;
}
}

    # HTTPS server
    server {
       listen       443 ssl;
       server_name  www.**.online;

        ssl_certificate      **e.pem;
       ssl_certificate_key  **.key;

        ssl_session_cache    shared:SSL:1m;
       ssl_session_timeout  5m;

        ssl_ciphers  HIGH:!aNULL:!MD5;
       ssl_prefer_server_ciphers  on;

        location / {
            root   html;
            index  index.html index.htm;
        }
    }

}

4层和7层

在NGINX中,4层负载均衡和7层负载均衡是两种不同的负载均衡方式,它们在处理网络流量和请求分发方面有一些关键的区别。

  1. 4层负载均衡(Transport Layer Load Balancing):
    4层负载均衡是在传输层(Transport Layer)操作,主要基于IP地址和端口号来进行负载均衡。它在收到请求后,将请求转发到后端服务器,但并不理解或修改传输的数据。这种方式适用于处理传输层协议,如TCP和UDP。4层负载均衡不关心请求的内容,只关注网络连接的基本信息。

支持的服务:4层负载均衡适用于基于网络连接的服务,如数据库服务器、SMTP服务器、DNS服务器等。它可以根据IP地址和端口号将请求转发到后端服务器。

  1. 7层负载均衡(Application Layer Load Balancing):
    7层负载均衡是在应用层(Application Layer)操作,对请求进行深入解析和处理。它不仅考虑了IP地址和端口号,还能理解请求的内容,例如HTTP请求头和报文体。通过分析请求的内容,7层负载均衡可以根据更多的信息来进行负载均衡决策,例如根据URL、请求头、会话信息等。

支持的服务:7层负载均衡适用于基于应用层协议的服务,如Web服务器(HTTP/HTTPS)、应用服务器(如Java应用服务器)、消息队列(如MQTT、AMQP)等。它可以根据请求的内容来智能地将请求分发给后端服务器。

总结:
4层负载均衡主要关注网络连接的基本信息,而7层负载均衡则对请求的内容进行深入解析和处理。4层负载均衡适用于基于网络连接的服务,而7层负载均衡适用于基于应用层协议的服务。选择使用哪种负载均衡方式取决于具体的应用场景和需求。

你可能感兴趣的:(linux,nginx,负载均衡,运维)