目录
一、Nginx负载均衡实现原理
1.Nginx 实现负载均衡是通过反向代理实现
2、Nginx配置反向代理主要参数
3、动静分离原理
4、Nginx静态处理优势
5、并发量和吞吐量计算
二:7层反向代理
1、环境准备
2、配置Nginx Server
3、tomcat1 和tomcat2配置
4、 搭建tomcat3
5、设置tomcat1
6、设置tomcat2
7、Nginx进行负载均衡和动静分离设置
8、进行负载均衡和动静分离配置
9、测试效果
三: 四层代理配置
四:Nginx 负载均衡模式
1、rr 轮询 负载均衡模式:
2、least_conn 最少连接:
3、ip_hash 负载均衡模式:
4、fair(第三方)负载均衡模式:
5、url_hash(第三方)负载均衡模式:
Nginx服务器作为前端,Tomcat服务器作为后端,web页面请求由Nginx服务来进行转发。但是不是把所有的web请求转发,而是将静态页面请求Nginx服务器自己来处理,动态页面请求,转发给后端的Tomcat服务器来处理。
反向代理(Reverse Proxy)是指以代理服务器(例:Nginx) 来接受 internet 上的连接请求,然后将请求转发给内部网络上的服务器(例:Tomcat),并将从服务器上得到的结果返回给 internet 上请求连接的客户端,此时代理服务器(例:Nginx)对外就表现为一个反向代理服务器。
我们从客户端的视野来看,实际上客户端并不知道真实的服务提供者是哪台服务器,它只知道它请求了反向代理服务器。因此反向代理这种方式又对外隐藏了真实服务器的地址,从一定程度上降低了安全隐患。
配置后端服务器池,以提供响应数据
upstream 服务器名 {}
配置将访问请求转发给后端服务器池名
proxy_pass http://服务器名
服务端接收来自客户端的请求中,既有静态资源也有动态资源,静态资源由Nginx提供服务,动态资源Nginx转发至后端
并发量:以10分钟有5000万用户平均每人访问2次为例,并发量为每秒(5000w2)/(6010)=16.7万,再double下,就说每秒25万并发量
吞吐量可以理解成带宽流量,以每个请求0.5KB大小,并发每秒25万,0.5/1024MB250000=122MB8bit=977Mbps
主机 | 操作系统 | IP地址 | 所需软件 |
---|---|---|---|
Nginx Server | CentOS7 | 192.168.231.101 | nginx-1.12.0.tar.gz |
Tomcat Server1 | CentOS7 | 192.168.231.100:8080 | apache-tomcat-9.0.16.tar.gz jdk-8u201-linux-x64.rpm |
Tomcat Server2 | CentOS7 | 192.168.231.100:8081 | apache-tomcat-9.0.16.tar.gz jdk-8u201-linux-x64.rpm |
Tomcat Server3 | CentOS7 | 192.168.231.102:8080 | apache-tomcat-9.0.16.tar.gz jdk-8u201-linux-x64.rpm |
实验逻辑图:
systemctl stop firewalld
setenforce 0
yum -y install pcre-devel zlib-devel openssl-devel gcc gcc-c++ make
useradd -M -s /sbin/nologin nginx
cd /opt
tar zxvf nginx-1.12.0.tar.gz -C /opt/
cd nginx-1.12.0/
./configure \
--prefix=/usr/local/nginx \
--user=nginx \
--group=nginx \
--with-file-aio \ #启用文件修改支持
--with-http_stub_status_module \ #启用状态统计
--with-http_gzip_static_module \ #启用 gzip静态压缩
--with-http_flv_module \ #启用 flv模块,提供对 flv 视频的伪流支持
--with-http_ssl_module #启用 SSL模块,提供SSL加密功能
--with-stream #启用 stream模块,提供4层调度
----------------------------------------------------------------------------------------------------------
./configure --prefix=/usr/local/nginx --user=nginx --group=nginx --with-file-aio --with-http_stub_status_module --with-http_gzip_static_module --with-http_flv_module --with-stream
make && make install
ln -s /usr/local/nginx/sbin/nginx /usr/local/sbin/
vim /lib/systemd/system/nginx.service
[Unit]
Description=nginx
After=network.target
[Service]
Type=forking
PIDFile=/usr/local/nginx/logs/nginx.pid
ExecStart=/usr/local/nginx/sbin/nginx
ExecrReload=/bin/kill -s HUP $MAINPID
ExecrStop=/bin/kill -s QUIT $MAINPID
PrivateTmp=true
[Install]
WantedBy=multi-user.target
chmod 754 /lib/systemd/system/nginx.service
systemctl start nginx.service
systemctl enable nginx.service
systemctl stop firewalld
setenforce 0
#软件包的方式安装jdk环境
tar zxvf jdk-8u91-linux-x64.tar.gz -C /usr/local/
vim /etc/profile
export JAVA_HOME=/usr/local/jdk1.8.0_91
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:${JRE_HOME}/bin:$PATH
source /etc/profile
tar zxvf apache-tomcat-8.5.16.tar.gz
mv /opt/apache-tomcat-8.5.16/ /usr/local/tomcat
/usr/local/tomcat/bin/shutdown.sh
/usr/local/tomcat/bin/startup.sh
netstat -ntap | grep 8080
mkdir /usr/local/tomcat/tomcat1/webapps/test /usr/local/tomcat/tomcat2/webapps/test
vim /usr/local/tomcat/tomcat1/webapps/test/index.jsp
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%>
JSP test1 page #指定为 test2 页面
<% out.println("动态页面 1,http://www.test1.com");%>
vim /usr/local/tomcat/tomcat1/conf/server.xml
#删除前面的 HOST 配置
/usr/local/tomcat/tomcat1/bin/shutdown.sh
/usr/local/tomcat/tomcat1/bin/startup.sh
vim /usr/local/tomcat/tomcat2/webapps/test/index.jsp
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%>
JSP test2 page
<% out.println("动态页面 2,http://www.test2.com");%>
vim /usr/local/tomcat/tomcat2/conf/server.xml
#删除前面的 HOST 配置
/usr/local/tomcat/tomcat2/bin/shutdown.sh
/usr/local/tomcat/tomcat2/bin/startup.sh
vim /usr/local/nginx/html/index.html
this is Nginx static test !
vim /usr/local/nginx/conf/nginx.conf
......
http {
......
#gzip on;
#配置负载均衡的服务器列表,weight参数表示权重,权重越高,被分配到的概率越大
upstream tomcat_server {
server 192.168.231.100:8080 weight=1;
server 192.168.231.100:8081 weight=1;
server 192.168.231.102:8080 weight=1;
}
server {
listen 80;
server_name localhost;
charset utf-8;
#access_log logs/host.access.log main;
#配置Nginx处理动态页面请求,将 .jsp文件请求转发到Tomcat 服务器处理
location ~ .*\.jsp$ {
proxy_pass http://tomcat_server;
#设置后端的Web服务器可以获取远程客户端的真实IP
##设定后端的Web服务器接收到的请求访问的主机名(域名或IP、端口),默认HOST的值为proxy_pass指令设置的主机名。如果反向代理服务器不重写该请求头的话,那么后端真实服务器在处理时会认为所有的请求都来自反向代理服务器,如果后端有防攻击策略的话,那么机器就被封掉了。
proxy_set_header HOST $host;
##把$remote_addr赋值给X-Real-IP,来获取源IP
proxy_set_header X-Real-IP $remote_addr;
##在nginx 作为代理服务器时,设置的IP列表,会把经过的机器ip,代理机器ip都记录下来
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
#配置Nginx处理静态图片请求
location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|css)$ {
root /usr/local/nginx/html;
expires 10d;
}
location / {
root html;
index index.html index.htm;
}
......
}
......
}
两台服务器七层代理操作同上,tomcat操作也同上
所有的Nginx服务器配置文件长连接超时设置为0关闭
配置Nginx负载均衡服务器
./configure --with-stream
和http同等级:所以一般只在http上面一段设置,
stream {
upstream appserver {
server 192.168.80.100:8080 weight=1;
server 192.168.80.101:8080 weight=1;
server 192.168.80.101:8081 weight=1;
}
server {
listen 8080;
proxy_pass appserver;
}
}
http {
......
浏览器访问Nginx负载均衡服务器
每个请求按时间顺序逐一分配到不同的后端服务器,如果超过了最大失败次数后(max_fails,默认1),在失效时间内(fail_timeout,默认10秒),该节点失效权重变为0,超过失效时间后,则恢复正常,或者全部节点都为down后,那么将所有节点都恢复为有效继续探测,一般来说rr可以根据权重来进行均匀分配。
优先将客户端请求调度到当前连接最少的服务器。
每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题,但是ip_hash会造成负载不均,有的服务请求接受多,有的服务请求接受少,所以不建议采用ip_hash模式,session 共享问题可用后端服务的 session 共享代替 nginx 的 ip_hash(使用后端服务器自身通过相关机制保持session同步)。
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
基于用户请求的uri做hash。和ip_hash算法类似,是对每个请求按url的hash结果分配,使每个URL定向到同一个后端服务器,但是也会造成分配不均的问题,这种模式后端服务器为缓存时比较好。