Session共享肯定是Tomcat集群必不可少的步骤,而在内存服务器中Redis又是很强势的一个服务器,所以今天特地使用Tomcat+Nginx+Redis做了一个负载均衡的Tomcat集群demo,以供参考。
其中,Tomcat的作用就不必多说了,Nginx作为一个万能的中间件,也是经常可以在真实项目中看到他的身影,nginx可以做静态资源服务器、负载均衡、反向代理等等,在这里我们用到的主要是他的反向代理功能和负载均衡功能;Redis是一个存取速度极快、存储类型多样化、支持集群、还可以用来实现队列功能的内存数据库,有兴趣的话可以多了解一点。
Nginx : http://www.runoob.com/linux/nginx-install-setup.html
Redis : http://www.runoob.com/redis/redis-tutorial.html
Tomcat : http://tomcat.apache.org/
所需jar :https://download.csdn.net/download/w_dongqiang/10875067
jar也可自行下载(上面jar包含):commons-pool2-2.2.jar jedis-2.5.2.jar tomcat-redis-session-manage-tomcat7.jar
另外不同tomcat请下载对应版本的jar,这里测试的为tomcat7
首先安装redis服务端,安装打开redis,解压tomcat并复制出相同的一份,修改tomcat的conf/server.xml配置文件,保证端口不会冲突,(可参考:https://jingyan.baidu.com/article/adc815139b12def722bf7377.html);
修改tomcat下webapp/Root/WEB-INF/web.xml,加上默认欢迎页面,
index.jsp
然后找到webapp/Root下的index.jsp文件,修改为如下内容(用于测试):
<%@ page language="java" contentType="text/html; charset=UTF-8"
pageEncoding="UTF-8"%>
Tomcat02
Session Id : <%= request.getSession().getId() %>
sessionId是tomcat记录用户会话的标识,如果sessionId一致则可以视为同一个会话,另外一个tomcat也执行同样操作。
把需要的jar包全部下载并分别放到两个tomcat的lib下,并向tomcat的conf/context.xml中添加如下代码:
这个实例只是介绍集成方式,如果需要redis集群的话请另行搜索并修改
修改完了以后启动两个tomcat,正常情况下应该会正常启动。
解压下载的Nginx文件,修改该文件下的conf/nginx.conf文件,使两台tomcat用nginx配置的虚拟路径关联到一起,(可参考:https://www.cnblogs.com/lfjjava/p/6092727.html)下面贴上我的nginx.conf配置:
#运行用户
#user nobody;
#启动进程,通常设置成和cpu的数量相等
worker_processes 1;
#全局错误日志及PID文件
#error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
#pid logs/nginx.pid;
#工作模式及连接数上限
events {
#epoll是多路复用IO(I/O Multiplexing)中的一种方式,
#仅用于linux2.6以上内核,可以大大提高nginx的性能
#use epoll;
#单个后台worker process进程的最大并发链接数
worker_connections 1024;
# 并发总数是 worker_processes 和 worker_connections 的乘积
# 即 max_clients = worker_processes * worker_connections
# 在设置了反向代理的情况下,max_clients = worker_processes * worker_connections / 4 为什么
# 为什么上面反向代理要除以4,应该说是一个经验值
# 根据以上条件,正常情况下的Nginx Server可以应付的最大连接数为:4 * 8000 = 32000
# worker_connections 值的设置跟物理内存大小有关
# 因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数
# 而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右
# 我们来看看360M内存的VPS可以打开的文件句柄数是多少:
# $ cat /proc/sys/fs/file-max
# 输出 34336
# 32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内
# 所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置
# 使得并发总数小于操作系统可以打开的最大文件数目
# 其实质也就是根据主机的物理CPU和内存进行配置
# 当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。
# ulimit -SHn 65535
}
http {
#设定mime类型,类型由mime.type文件定义
include mime.types;
default_type application/octet-stream;
#设定日志格式
#log_format main '$remote_addr - $remote_user [$time_local] "$request" '
# '$status $body_bytes_sent "$http_referer" '
# '"$http_user_agent" "$http_x_forwarded_for"';
#设置日志路径
#access_log logs/access.log main;
#sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,
#对于普通应用,必须设为 on,
#如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,
#以平衡磁盘与网络I/O处理速度,降低系统的uptime.
sendfile on;
#tcp_nopush on;
#连接超时时间
#keepalive_timeout 0;
keepalive_timeout 65;
#开启gzip压缩 -- 可以大大压缩传输的内容,但是有一些浏览器不支持,所以根据浏览器不同则不适用压缩传输。
#gzip on;
#gzip_disable "MSIE [1-6]."; #不进行压缩传输的浏览器。
#定义分散并发压力的代理真实服务器ip(访问时访问wgf。com)
#ip_hash;
upstream wgf.com{
server 192.168.7.141:8080 weight=1; #真实服务器A(sxwgf-PC)
server 192.168.7.141:8888 weight=1; #真实服务器B(hzdk-vpc)
}
#设定虚拟主机配置
server {
#服务的端口号
listen 80;
#定义使用 www.nginx.cn访问
server_name localhost;
#设置访问及传输的内容编码格式
#charset koi8-r;
#访问日期
#access_log logs/host.access.log main;
#默认请求
location / {
#定义服务器的默认网站根目录位置
root html;
#默认访问的首页
index index.html index.htm;
proxy_redirect off;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_pass http://wgf.com; #反向代理地址
}
#错误404跳转的页面
#error_page 404 /404.html;
#50x 错误跳转的页面
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
}
}
nginx可以隐藏项目的真实路径,使用一个虚拟路径进行代理,这样不论用户怎么访问展现给用户的都会是同一个地址,而请求压力则会根据配置的权重分配给不同的tomcat,配置完nginx.conf后,点击nginx.exe启动nginx,打开浏览器访问nginx.conf中配置的代理地址,我这里是localhost,效果如下:
从两次请求可以看出我们虽然访问的是同一个地址,但处理请求的却是两个tomcat,虽然处理请求的是两个tomcat,但是用户的session却能保持一致,保证了用户信息的完整性,这个这正是我们所需要的效果。