目录
1、环境准备
2、mod_jk配置
3、测试
4、总结
1、环境准备
准备三台主机,一台提供httpd环境,另两台提供tomcat环境。
主机规划:
主机名:httpd IP地址:192.168.0.200提供httpd服务
主机名:TomcatA IP地址:192.168.0.201提供tomcat服务
主机名:TomcatB IP地址:192.168.0.202提供tomcat服务
jdk与tomcat的安装请参照博文:http://zhaochj.blog.51cto.com/368705/1639740
对tomcat的配置的说明:
以mod_jk的方式来实现反向代理tomcat,并实现负载均衡,httpd与tomcat的连接不再是是http协议,而是采用ajp协议,在httpd与tomcat通信时无法查证是否能像http协议一样能传递“Host ”主机头,如果能,那tomcat就就可以单独配置一个虚拟主机来接收带主机头的请求,这样就不用去更改tomcat的默认主机,如此客户端就可以只通过主机名来访问我们的站点,而不需要加上一个URI。但我在测试时没有测试出ajp协议能传递主机头,所以我修改了tomcat的默认主机指向我们自己部署的站点。
1.1、修改tomcat默认网站主目录及jvmRoute配置:
[root@TomcatA conf]# pwd /usr/local/tomcat/conf [root@TomcatA conf]# vim server.xml#像以上修改后我的站点目录就是在“/tomcat/webapps/test”这个目录。 ......
在集群环境中必须在Engine容器中指定jvmRoute参数:
[root@TomcatA conf]# vim server.xml#在TomcatB主机上也要设定jvmRoute。
1.2、准备我们的应用:
JSP程序的目录结构有其特有的格式,先来看一下默认的站点目录的格式
[root@TomcatA webapps]# pwd /usr/local/tomcat/webapps [root@TomcatA webapps]# tree -L 2 -d . ├── docs │ ├── api │ ├── appdev │ ├── architecture │ ├── config │ ├── elapi │ ├── funcspecs │ ├── p_w_picpaths │ ├── jspapi │ ├── servletapi │ ├── tribes │ ├── WEB-INF │ └── websocketapi ├── examples │ ├── jsp │ ├── servlets │ ├── WEB-INF │ └── websocket ├── host-manager │ ├── p_w_picpaths │ ├── META-INF │ └── WEB-INF ├── manager │ ├── p_w_picpaths │ ├── META-INF │ └── WEB-INF ├── ROOT │ └── WEB-INF └── test
可见每个应用中都有一个WEB-INF这样的一个目录,此目录下有一个web.xml文件,不用修改此文件,把WEB-INF这个目录直接复制到新的应用目录下,再把我们的应用放进来就可以了。
[root@TomcatA conf]# cp -r /usr/local/tomcat/webapps/ROOT/WEB-INF /tomcat/webapps/test/ [root@TomcatA conf]# vim /tomcat/webapps/test/index.jsp #以一个测试文件作为我的项目 <%@ page language="java" %>TomcatA TomcatA
Session ID | <% session.setAttribute("abc","abc"); %><%= session.getId() %> |
Created on | <%= session.getCreationTime() %> |
两台tomcat应用服务器都提供上边同样一个测试项目,只是index.jsp中的"TomcatA"更改成“TomcatB”而已。
2、mod_jk配置
后端的tomcat准备好了,现在来看看前端的httpd中的mod_jk模块的相应配置。
mod_jk是apache的一个单独的项目,centos 6.4中默认yum源中的rpm包中没有编译此模块,所以需要自己编译安装,编译安装也比较简单,请参照:http://zhaochj.blog.51cto.com/368705/1641939
配置mod_jk主要有三个文件,mod_jk.conf、workers.properties、uriworkersmap.properties,这三个文件名字可以自定义。
因httpd的主配置文件启用了“Include conf.d/*.conf”,所以上边的mod_jk.conf会被加载进主配置文件中,这样把功能性的模块配置分隔开,可防止主配置文件过于冗长,以便于管理。
[root@httpd conf.d]# pwd /etc/httpd/conf.d [root@httpd conf.d]# vim mod_jk.conf LoadModule jk_module modules/mod_jk.so JkWorkersFile /etc/httpd/conf.d/workers.properties JkMountFile /etc/httpd/conf.d/uriworkersmap.properties JkLogFile logs/mod_jk.log JkLogLevel warn #在调试时可以把日志级别设置为info或debug #JkMount /* lbcluster1 #JkMount /jkstatus stat #workers.properties与uriworkersmap.properties两个文件分别通过JkorkersFile和JkMonutFile两个指令关联起来,如果不想启用uriworkersmap.properties这个文件,那直接在mod_jk.conf文件加“JkMount”这样的指令即可,这个指使相当于使用proxy_mod模块中的ProxyPass指令一样。
[root@httpd conf.d]# vim workers.properties #tomcata ,这里定义tomcata主机 worker.tomcata.host=192.168.0.201 worker.tomcata.port=8009 worker.tomcata.type=ajp13 worker.tomcata.lbfactor=2 #tomcab ,这里定义tomcatb主机 worker.tomcatb.host=192.168.0.202 worker.tomcatb.port=8009 worker.tomcatb.type=ajp13 worker.tomcatb.lbfactor=2 #定义主机权重 #balance ,定义集群属性 worker.list=lbcluster1,stat worker.lbcluster1.type=lb worker.retries=3 worker.method=R worker.lbcluster1.sticky_session=0 #这里定义session信息的粘滞、绑定,零代表不绑定,1代表绑定 worker.lbcluster1.balance_workers=tomcata,tomcatb #monitor status ,定义状态输出因而 worker.stat.type=status
worker中各参数、属性解释:
workers.properties文件一般由两类指令组成,一是mod_jk可以连接的各worker名称列表,二是每一个worker的属性配置信息。
语法为:
worker.list = < a comma separated list of worker names > 即用逗号分隔的各worker的名称(后端tomcat的JVMRoute名称)
worker.
回想一下mod_jk这个模块能实现哪些功能,能以ajp协议反向代理tomcat,能输出一个监控模块本身工作的监控页面,还能实现负载均衡。所以根据其工作类型不同,worker有不同的工作类型,定义方式为worker.
a)、ajp13,此类型表示当前worker为一个运行着的Tomcat实例
b)、lb,lb即load balancing,专用于负载均衡场景中的woker,此worker并不真正负责处理用户请求,而是将用户请求调度给其它类型为ajp13的worker
c)、status,用于显示分布式环境中各实际worker工作状态的特殊worker,它不处理任何请求,也不关联到任何实际工作的worker实例。
worker其它常见的属性说明:
host:Tomcat 7的worker实例所在的主机;
port:Tomcat 7实例上AJP1.3连接器的端口;
connection_pool_minsize:最少要保存在连接池中的连接的个数;默认为pool_size/2;
connection_pool_timeout:连接池中连接的超时时长;
mount:由当前worker提供的context路径,如果有多个则使用空格格开;此属性可以由JkMount指令替代;
retries:错误发生时的重试次数;
socket_timeout:mod_jk等待worker响应的时长,默认为0,即无限等待;
socket_keepalive:是否启用keep alive的功能,1表示启用,0表示禁用;
lbfactor:worker的权重,可以在负载均衡的应用场景中为worker定义此属性;
另外,在负载均衡模式中,专用的属性还有:
balance_workers:用于负载均衡模式中的各worker的名称列表,需要注意的是,出现在此处的worker名称一定不能在任何worker.list属性列表中定义过,并且worker.list属性中定义的worker名字必须包含负载均衡worker。具体示例请参见后文中的定义。
method:可以设定为R、T或B;默认为R,即根据请求的个数进行调度;T表示根据已经发送给worker的实际流量大小进行调度;B表示根据实际负载情况进行调度。
sticky_session:在将某请求调度至某worker后,源于此址的所有后续请求都将直接调度至此worker,实现将用户session与某worker绑定。默认为值为1,即启用此功能。如果后端的各worker之间支持session复制,则可以将此属性值设为0。
[root@httpd conf.d]# vim uriworkersmap.properties /*=lbcluster1 /jkstatus=stat !/*.jpg=lbcluster1 !/*.gif=lbcluster1 !/*.png=lbcluster1 !/*.bmp=lbcluster1 !/*.html=lbcluster1 !/*.htm=lbcluster1 !/*.css=lbcluster1 !/*.js=lbcluster1 #这个文件里定义了向后转发的规则,访问网站根下的所有资源都交给集群lbcluster1来处理,而一些静态文件就httpd本地处理了。
最后重新启动httpd服务,确认mod_jk模块正确加载:
[root@httpd conf.d]# service httpd restart [root@httpd conf.d]# tail /var/log/httpd/mod_jk.log [Tue May 05 17:02:04.876 2015] [8161:140100989429728] [info] init_jk::mod_jk.c (3383): mod_jk/1.2.40 initialized #先把日志级别设置成info,能看到上边的信息就证明mod_jk模块已正确加载。
3、测试
通过访问httpd(192.168.0.200)主机来测试看能否能访问到我们部署在TomcatA和TomcatB上的项目,
先是访问到了TomcatA主机,再一刷新又访问到了TomcatB主机,这是因为在workers.properties文件中的worker.lbcluster1.sticky_session的值是“0”,表示没有启用session绑定功能,如果我们部署的部署只是供浏览,那没什么问题,如果站点是一个需要用户登陆的站点,那被mod_jk分发到不同的的后端tomcat上时会要求用户重新登陆的,所以在这种场景下应该设置成“1”,启用session绑定功能。
4、总结
利用apache的mod_jk模块实现tomcat的负载均衡时apache与tomcat的通信是采用ajp协议,所以整个环境测试好后,可把后端的两台tomcat服务器的http的connector禁用掉,在负载均衡集群环境下后端的各tomcat服务器在server.xml主配置文件中的Engine容器中一定要加上“jvmRote="集群列表中定义的名称""。