apache+tomcat负载均衡整合文档

1 准备相关软件
1.1 下载安装Apache2.2.4
Apache下载地址:http://archive.apache.org/dist/httpd/binaries/win32/,选择下载windows平台安装包文件apache_2.2.4-win32-x86-no_ssl.msi。

接受安装协议

配置Apache服务器信息

Network Domain设置站点名称,这个不会对实际站点产生影响。
Server Name设置当前服务器名称,这个不会对实际站点产生影响。
Administrator’s Email Address设置站点管理员邮件地址,Apache文档说明当站点出错时的页面底部会出现该地址。

选择安装类型

一般选择典型(Typical)安装

选择安装路径

这里使用默认安装路径,实际安装过程可以选择其他路径。

等待安装过程


安装完毕


1.2 下载Tomcat6.0

1.3 下载Tomcat Connector(jk.1.2.6)
Tomcat Connector下载地址:http://archive.apache.org/dist/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.26/
此处注意一定要下载与Apache版本匹配的jk。jk文件名后半部分名称反应Apache的版本,如:mod_jk-1.2.26-httpd-2.2.4.so其匹配的Apache为2.2.4,与本次安装的Apache版本一致。

2 单台主机单站点集群、负载均衡
2.1 Apache配置
将Tomcat Connector文件mod_jk-1.2.26-httpd-2.2.4.so拷贝到Apache安装目录Apache2.2\modules下。
在Apache安装目录找到conf/httpd.conf文件,在末尾增加一下内容

2.2 Tomcat Connector配置
在Apache配置目录Apache2.2\conf创建workers.properties配置文件,该文件主要用于配置Apache与Tomcat的集成要用到的Tomcat实例和负载均衡分发控制器。
Workers.properties文件放置一下内容;

2.3 Tomcat配置
Tomcat配置文件Service.xml主要注意两个地方,一个是Engine节点需要增加节点标识jvmRoute,一个是将原本注释掉的Session复制节点改为有效。具体如下:

<!-- Define the top level container in our container hierarchy -->
<!--jvmRoute在各个Tomcat配置中不能重复且要与worker.properties文件中的名称一致-->
<Engine name="Catalina" defaultHost=" saas "  jvmRoute=" tomcat1">
<!—每个Tomcat的Hostname必须一样
<Host name="saas" appBase="webapps "
       unpackWARs="true" autoDeploy="true"
       xmlValidation="false" xmlNamespaceAware="false">

这里省略N多注释

将下面的注释变去掉(如果需要做session复制需做以下操作)
<!--
        <Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
    
<Valve className="org.apache.catalina.valves.RequestDumperValve"/>
-->
增加:
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster" 
                 channelSendOptions="8">  
          <Manager className="org.apache.catalina.ha.session.DeltaManager" 
                   expireSessionsOnShutdown="false" 
                   notifyListenersOnReplication="true"/>  
 
          <Channel className="org.apache.catalina.tribes.group.GroupChannel">  
            <Membership className="org.apache.catalina.tribes.membership.McastService" 
                        address="228.0.0.4" 
                        port="45564" 
                        frequency="500" 
                        dropTime="3000"/>  
            <Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver" 
                      address="auto" 
                      port="4000" 
                      autoBind="100" 
                      selectorTimeout="5000" 
                      maxThreads="6"/>  
            <!-- timeout="60000"-->  
            <Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">  
              <Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender" />  
            </Sender>  
            <Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>  
            <Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>  
         <Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/>  
          </Channel>  
 
          <Valve className="org.apache.catalina.ha.tcp.ReplicationValve" 
                 filter=""/>  
          <Valve className="org.apache.catalina.ha.session.JvmRouteBinderValve"/>  
 
          <Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer" 
                    tempDir="/tmp/war-temp/" 
                    deployDir="/tmp/war-deploy/" 
                    watchDir="/tmp/war-listen/" 
                    watchEnabled="false"/>  
 
          <ClusterListener className="org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"/>  
          <ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>  
        </Cluster>


<!—Host节点增加一下内容表示站点根路径-->
        <Context path="/sc" docBase="." privileged="true"/>


我们分别将两个Tomcat配置文件中的jvmRoute设置为tomcat1、tomcat2,Server节点 端口分别配置为8005和9005, Connector节点端口分别配置为8080和9090,AJPConnector端口分别配置为8009和9009,Connector端口配置参照单主机多站点场景。请注意两个Tomcat配置文件Host节点的域名配置必须一样,Server.xml中的jvmRoute名称必须和worker.properties中的tomcat实例名称一致,不然无法实现session_stricky。

Host节点的域名配置方法:修改C:\WINDOWS\system32\drivers\etc 下的 hosts文件增加一行
127.0.0.1       saas

*****************************************************************************
如果需要实现session 复制 需要在web.xml 中加上<distributable/>
<?xml version="1.0" encoding="ISO-8859-1"?>
省略N多代码。。。。。。
    <welcome-file-list>
        <welcome-file>index.html</welcome-file>
        <welcome-file>index.htm</welcome-file>
        <welcome-file>index.jsp</welcome-file>
    </welcome-file-list>
<distributable/>
</web-app>
*****************************************************************************

2.4 常见问题
修改Host文件将bbs.abc.com解析到本机。打开两个IE窗口分别提交session操作,然后在控制台观察效果。
正常情况为;同一个IE窗口的所有请求都分发到同一个Tomcat,当关闭其中一个Tomcat时,IE窗口重新请求会分发到另一个Tomcat并且Session保持同步。

如果没有达到预期效果请检查一下几点;
 Apache配置文件中DirectoryIndex配置的文件是否存在tomcat应用的目录下
 Apache配置文件中JkMount是否分发到负责均衡控制器
 两个Tomcat端口是否有重复,
 Worker.properties中tomcat端口是否和对应server.xmlAJPConnector端口一致
 Server.xml配置文件的Host节点name属性是否一致
 Server.xml配置文件的Engine节点是否配置jvnRoute,并且与worker.properties配置的名称保持一致
 Server.xmlHost节点内的Cluster节点是否设置为有效





3 第二种方法,比较简单
目标:
使用 apache 和 tomcat 配置一个可以应用的 web 网站,要达到以下要求:
1、  Apache 做为 HttpServer ,后面连接多个 tomcat 应用实例,并进行负载均衡。
2、  为系统设定 Session 超时时间,包括 Apache 和 tomcat
3、  为系统屏蔽文件列表,包括 Apache 和 tomcat
注:本例程以一台机器为例子,即同一台机器上装一个apache和4个Tomcat。
一、前期准备工作:安装用的程序(前提保证已安装了JDK1.5以上的版本)
APAHCE 2.2.4
TOMCAT6.0
二、安装过程
APAHCE安装目录:D:\Apache。
四个TOMCAT目录:自行解压到(D:\Tomcat集群服务器\)下。分别为 tomcat6.0,tomcat6.01,tomcat6.02,tomcat6.03
这几个安装过程就不详细说明了。
三、配置
1、Apache配置
1.1、httpd.conf配置
修改APACHE的配置文件D:\Apache \conf\httpd.conf
将以下Module的注释去掉,这里并没有使用mod_jk.so进行apache和tomcat的链接,从2.X以后apache自身已集成了mod_jk.so的功能。只需简单的把下面几行去掉注释,就相当于以前用mod_jk.so比较繁琐的配置了。这里主要采用了代理的方法,就这么简单。 建议直接复制 粘贴到最底部
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_connect_module modules/mod_proxy_connect.so
LoadModule proxy_ftp_module modules/mod_proxy_ftp.so
LoadModule proxy_http_module modules/mod_proxy_http.so
LoadModule proxy_ajp_module modules/mod_proxy_ajp.so
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so

再找到<IfModule dir_module></IfModule>加上index.jsp修改成
<IfModule dir_module>
DirectoryIndex index.html index.jsp
</IfModule>
1.1.1、  在最下面加入
ProxyRequests Off
<proxy balancer://cluster>
BalancerMember ajp://127.0.0.1:8009 loadfactor=1 route=jvm1
BalancerMember ajp:// 127.0.0.1:9009 loadfactor=1 route=jvm2
BalancerMember ajp:// 127.0.0.1:9001 loadfactor=1 route=jvm3
BalancerMember ajp:// 127.0.0.1:9003 loadfactor=1 route=jvm4
</proxy>
上面的四个BalancerMember成员是我们配置的tomcat集群。后面会说明的。
1.2、httpd-vhosts.conf设置
接下来进行虚拟主机的设置。APACHE的虚拟主机设置如下:
首先要修改 conf/httpd.conf找到(#Include conf/extra/httpd-vhosts.conf)
把注释去掉。
# Virtual hosts
Include conf/extra/httpd-vhosts.conf
在文件(extra/httpd-vhosts.conf)最下面加入
<VirtualHost *:80>
         ServerAdmin [email][email protected][/email]
         ServerName localhost
         ServerAlias localhost
         ProxyPass / balancer://cluster/ stickysession=jsessionid nofailover=On
         ProxyPassReverse / balancer://cluster/
</VirtualHost>
其中的域名和路径根据你自己情况设置
然后再设置TOMCAT虚拟主机
2 配置 tomcat
2.1.  配置 server 的关闭
我们需要在一台机器上跑 4 个不同的 tomcat ,需要修改不同的 tomcat 的关闭口,避免出现端口被占用的情况。其中tomcat6.0用默认值,不修改。其他三个修改。在tomcat6.01\conf, tomcat6.02\conf下和tomcat6.03\conf下的 server.xml 中找到 server, 将:
<Server port="8005" shutdown="SHUTDOWN">
改为
<Server port="XXXX" shutdown="SHUTDOWN">
XXXX 在这里表示不同的端口:我的其它三个 tomcat 分别使用 9005,8006 , 9007  
2.2. 配置 Engine
把原来的配置注释掉,把下面一句去掉注释。并标明jvmRoute="jvm2".
<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm2">        
以下是原来的配置。
<!-- <Engine name="Catalina" defaultHost="localhost">  -->
其他(tomcat6.02和tomcat6.03)也要同样 配置。注意:jvmRoute配置不要一样。
<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm3"> 
2.3. 配置 Connector
原来的默认配置。
<!-- Define an AJP 1.3 Connector on port 8009 -->
<Connector port="8009" protocol="AJP/1.3" redirectPort="8443" />
这里是apache和tomcat链接的关键,前台apache就是通过AJP协议与tomcat进行通信的,以完成负载均衡的作用。也可以用HTTP协议。大家注意它们是如何连接通信的,上面的红色部分(port="8009")就是连接的接口了。
把其他三个tomcat的<Connector port="XXX" />port分别改成与上面
注意 此端口 必须与 httpd.Conf 中相对应的 端口相同
BalancerMember ajp://127.0.0.1:8009 loadfactor=1 route=jvm1

2.5.配置Cluster(每个tomcat中都要修改)
原来的配置。
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
修改为以下的代码:<Receiver port=”XX”/>port也要保证唯一性。
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"  channelSendOptions="6">
<Manager className="org.apache.catalina.ha.session.BackupManager"
expireSessionsOnShutdown="false"
notifyListenersOnReplication="true"
mapSendOptions="6"/>
<!--
<Manager className="org.apache.catalina.ha.session.DeltaManager"
expireSessionsOnShutdown="false"
notifyListenersOnReplication="true"/>
-->
<Channel className="org.apache.catalina.tribes.group.GroupChannel">
<Membership className="org.apache.catalina.tribes.membership.McastService"
address="228.0.0.4"
port="45564"
frequency="500"
dropTime="3000"/>
<Receiver className="org.apache.catalina.tribes.transport.nio.NioReceiver"
address="auto"
port="5001"  #端口保持不能重复
selectorTimeout="100"
maxThreads="6"/>
<Sender className="org.apache.catalina.tribes.transport.ReplicationTransmitter">
<Transport className="org.apache.catalina.tribes.transport.nio.PooledParallelSender"/>
</Sender>
<Interceptor className="org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"/>
<Interceptor className="org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"/>
<Interceptor className="org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"/>
</Channel>
<Valve className="org.apache.catalina.ha.tcp.ReplicationValve"
filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>
<Deployer className="org.apache.catalina.ha.deploy.FarmWarDeployer"
tempDir="/tmp/war-temp/"
deployDir="/tmp/war-deploy/"
watchDir="/tmp/war-listen/"
watchEnabled="false"/>
<ClusterListener className="org.apache.catalina.ha.session.ClusterSessionListener"/>
</Cluster>
这个设置是主要用以tomcat的集群。

4 负载均衡及Session绑定的实现
4.1 集群背景介绍
4.1.1 术语定义
  服务软体是b/s或c/s结构的s部分,是为b或c提供服务的服务性软件系统。
  服务硬体指提供计算服务的硬件、比如pc机、pc服务器。
  服务实体通指服务软体和服务硬体。
  客户端指接受服务实体服务的软件或硬件。
4.1.2 两大关键特性
集群是一组协同工作的服务实体,用以提供比单一服务实体更具扩展性与可用性的服务平台。在客户端看来,一个集群就象是一个服务实体,但事实上集群由一组服务实体组成。与单一服务实体相比较,集群提供了以下两个关键特性:

可扩展性--集群的性能不限于单一的服务实体,新的服务实体可以动态地加入到集群,从而增强集群的性能。

高可用性--集群通过服务实体冗余使客户端免于轻易遇到out of service的警告。在集群中,同样的服务可以由多个服务实体提供。如果一个服务实体失败了,另一个服务实体会接管失败的服务实体。集群提供的从一个出错的服务实体恢复到另一个服务实体的功能增强了应用的可用性。
4.1.3 两大能力
为了具有可扩展性和高可用性特点,集群的必须具备以下两大能力:

* 负载均衡--负载均衡能把任务比较均衡地分布到集群环境下的计算和网络资源。
* 错误恢复--由于某种原因,执行某个任务的资源出现故障,另一服务实体中执同一任务的资源接着完成任务。这种由于一个实体中的资源不能工作,另一个实体中的资源透明的继续完成任务的过程叫错误恢复。

负载均衡和错误恢复都要求各服务实体中有执行同一任务的资源存在,而且对于同一任务的各个资源来说,执行任务所需的信息视图(信息上下文)必须是一样的。
4.1.4 两大技术
实现集群务必要有以下两大技术:

* 集群地址--集群由多个服务实体组成,集群客户端通过访问集群的集群地址获取集群内部各服务实体的功能。具有单一集群地址(也叫单一影像)是集群的一个基本特征。维护集群地址的设置被称为负载均衡器。负载均衡器内部负责管理各个服务实体的加入和退出,外部负责集群地址向内部服务实体地址的转换。有的负载均衡器实现真正的负载均衡算法,有的只支持任务的转换。只实现任务转换的负载均衡器适用于支持ACTIVE-STANDBY的集群环境,在那里,集群中只有一个服务实体工作,当正在工作的服务实体发生故障时,负载均衡器把后来的任务转向另外一个服务实体。

* 内部通信--为了能协同工作、实现负载均衡和错误恢复,集群各实体间必须时常通信,比如负载均衡器对服务实体心跳测试信息、服务实体间任务执行上下文信息的通信。

具有同一个集群地址使得客户端能访问集群提供的计算服务,一个集群地址下隐藏了各个服务实体的内部地址,使得客户要求的计算服务能在各个服务实体之间分布。内部通信是集群能正常运转的基础,它使得集群具有均衡负载和错误恢复的能力。
4.2 集群配置

群集配置逻辑图

从上图可知,由服务实体1、服务实体2和负载均衡器组成了一个集群。服务实体1和服务实体2参与对客户端的服务支持工作,均衡负载器为客户端维护集群的单一影像。集群实体间通过内部的通信网交流信息,这种交流机制一般采用组播协议。负载均衡器通过内部通信网探测各服务实体的心跳信息,服务实体间通过内部通信网完成任务资源的传播。可以看出,配置集群主要由配置服务实体和配置负载均衡器两部分组成。
本文使用tomcat 5.5.20、apache 2.2.11配置集群环境。
4.2.1 准备软件
* tomcat是开源服务器,下载地点 http://tomcat.apache.org/download-55.cgi;(本文使用的apache-tomcat-5.5.20.zip)
* apache是开源的www服务器,下载地点 http://httpd.apache.org/download.cgi;(本文使用的apache_2.2.11-win32-x86-no_ssl.msi)
* jk2模块,jk 是mod_jserv的替代者,它是Tomcat-Apache插件,处理Tomcat和Apache之间的通信,在集群配置中充当负载均衡器的作用。JK2是符合apache 2.x系列的新品,下载地址 http://apache.justdn.org/tomcat/tomcat-connectors/jk/binaries/win32/jk-1.2.28/。(本文使用的mod_jk-1.2.28-httpd-2.2.3.so)
4.2.2 配置负载均衡器
在apache下配置负载均衡器分为三步,注意每次修改httpd.conf和workers.properties时不要忘了重新启动apache。
* 第一步,安装和调试apache
  负载均衡器jk2模块是apache www 服务的插件,所以配置负载均衡器就得先安装apache。本文下载的是windows版本 2.2.11,执行msi并回答一些简单问题就可完成apache的任务。值得注意的是,安装并启动apache后如果apache对http://localhost/ 地址没反应,你得修改apache安装路径下htdocs目录下的index.html.xx文件,比如把index.html.en改成index.html。     
  * 第二步,安装jk2
   把下载的 mod_jk-1.2.28-httpd-2.2.3.so 改名为 mod_jk2.so 放到apache的modules目录下,修改apache的conf目录下的httpd.conf,在文件最后加入一行include conf\mod_jk2.conf,在conf目录下创建mod_jk2.conf文件,内容如下:

# Load mod_jk2 module  
LoadModule jk_module modules/mod_jk2.so  
 
 
# Where to find workers.properties  
JkWorkersFile conf/workers.properties  
 
 
# Where to put jk logs  
JkLogFile logs/mod_jk2.log  
 
 
# Set the jk log level [debug/error/info]  
JkLogLevel info  
 
 
# Select the log format  
JkLogStampFormat "[%a %b %d %H:%M:%S %Y] " 
 
 
# JkOptions indicate to send SSL KEY SIZE,  
JkOptions +ForwardKeySize +ForwardURICompat -ForwardDirectories  
 
 
# JkRequestLogFormat set the request format  
JkRequestLogFormat "%w %V %T" 
 
# Send JSPs for context / to worker named loadBalancer  
JkMount /*.jsp loadBalancer 
# Load mod_jk2 module
LoadModule jk_module modules/mod_jk2.so


# Where to find workers.properties
JkWorkersFile conf/workers.properties


# Where to put jk logs
JkLogFile logs/mod_jk2.log


# Set the jk log level [debug/error/info]
JkLogLevel info


# Select the log format
JkLogStampFormat "[%a %b %d %H:%M:%S %Y] "


# JkOptions indicate to send SSL KEY SIZE,
JkOptions +ForwardKeySize +ForwardURICompat -ForwardDirectories


# JkRequestLogFormat set the request format
JkRequestLogFormat "%w %V %T"

# Send JSPs for context / to worker named loadBalancer
JkMount /*.jsp loadBalancer

*第三步,配置jk2
jk2的配置全在一个配置文件中,文件名为workers.properties,和apache 的httpd.conf放在同一个目录下。以下是这个文件的内容:

#  
# workers.properties  
#  
 
# list the workers by name  
 
worker.list=tomcat1, tomcat2, loadBalancer  
 
# ------------------------  
# First tomcat server  
# ------------------------  
worker.tomcat1.port=8009 
worker.tomcat1.host=192.168.0.107 
worker.tomcat1.type=ajp13  
 
# Specify the size of the open connection cache.  
#worker.tomcat1.cachesize  
 
#  
# Specifies the load balance factor when used with  
# a load balancing worker.  
# Note:  
# ----> lbfactor must be > 0 
# ----> Low lbfactor means less work done by the worker.  
worker.tomcat1.lbfactor=100 
 
 
# ------------------------  
# Second tomcat server  
# ------------------------  
worker.tomcat2.port=8009 
worker.tomcat2.host=192.168.0.163 
worker.tomcat2.type=ajp13  
 
# Specify the size of the open connection cache.  
#worker.tomcat2.cachesize  
 
#  
# Specifies the load balance factor when used with  
# a load balancing worker.  
# Note:  
# ----> lbfactor must be > 0 
# ----> Low lbfactor means less work done by the worker.  
worker.tomcat2.lbfactor=100 
 
 
# ------------------------  
# Load Balancer worker  
# ------------------------  
 
#  
# The loadbalancer (type lb) worker performs weighted round-robin  
# load balancing with sticky sessions.  
# Note:  
# ----> If a worker dies, the load balancer will check its state  
# once in a while. Until then all work is redirected to peer  
# worker.  
worker.loadBalancer.type=lb  
worker.loadBalancer.balanced_workers=tomcat1, tomcat2  
 
#  
# END workers.properties  

#
# workers.properties
#

# list the workers by name

worker.list=tomcat1, tomcat2, loadBalancer

# ------------------------
# First tomcat server
# ------------------------
worker.tomcat1.port=8009
worker.tomcat1.host=192.168.0.107
worker.tomcat1.type=ajp13

# Specify the size of the open connection cache.
#worker.tomcat1.cachesize

#
# Specifies the load balance factor when used with
# a load balancing worker.
# Note:
# ----> lbfactor must be > 0
# ----> Low lbfactor means less work done by the worker.
worker.tomcat1.lbfactor=100


# ------------------------
# Second tomcat server
# ------------------------
worker.tomcat2.port=8009
worker.tomcat2.host=192.168.0.163
worker.tomcat2.type=ajp13

# Specify the size of the open connection cache.
#worker.tomcat2.cachesize

#
# Specifies the load balance factor when used with
# a load balancing worker.
# Note:
# ----> lbfactor must be > 0
# ----> Low lbfactor means less work done by the worker.
worker.tomcat2.lbfactor=100


# ------------------------
# Load Balancer worker
# ------------------------

#
# The loadbalancer (type lb) worker performs weighted round-robin
# load balancing with sticky sessions.
# Note:
# ----> If a worker dies, the load balancer will check its state
# once in a while. Until then all work is redirected to peer
# worker.
worker.loadBalancer.type=lb
worker.loadBalancer.balanced_workers=tomcat1, tomcat2

#
# END workers.properties
#
* 对于jk2模块的负载均衡配置可参见相关站点,值得提的是jk2的负载均衡还支持权重分配等优秀功能。
4.2.3 测试
在跑tomcat1实例的机器的 webapps/testGroup 测试项目目录生成如下内容的index.jsp文件:(设置session)

<%   
   System.out.println("===========================");  
   System.out.println(session.getAttribute("test"));  
   session.setAttribute("test","Session");  
%>  
 
<html>  
  <body bgcolor="red">  
    <center>  
    <h1>Tomcat 1</h1>  
  </body>  
</html> 
<%
   System.out.println("===========================");
   System.out.println(session.getAttribute("test"));
   session.setAttribute("test","Session");
%>

<html>
  <body bgcolor="red">
    <center>
    <h1>Tomcat 1</h1>
  </body>
</html>

同理,在跑tomcat2实例的机器的 webapps/testGroup 测试项目目录生成如下内容的index.jsp文件:

<%   
   System.out.println("===========================");  
   System.out.println(session.getAttribute("test"));  
%>  
 
<html>  
  <body bgcolor="blue">  
    <center>  
    <h1>Tomcat 2</h1>  
  </body>  
</html> 
<%
   System.out.println("===========================");
   System.out.println(session.getAttribute("test"));
%>

<html>
  <body bgcolor="blue">
    <center>
    <h1>Tomcat 2</h1>
  </body>
</html>
启动Tomcat1, Tomcat2 和Apache服务
Apache服务器ip:192.168.0.105
Tomcat1服务器ip:192.168.0.107
Tomcat2服务器ip:192.168.0.163
首先验证Apache服务器的静态页面是否正常,访问:http://192.168.0.105/(若局域网内不能访问请检查防火墙设置)
验证tomcat和apache配置提供负载均衡,用不同的终端访问:http://192.168.0.105/testGroup/index.jsp
如果你看到红色的页面,表示为tomcat1 服务器返回的,
如果你看到兰色的页面,表示为tomcat2 服务器返回的。

4.3 配置tomcat(绑定session)
同属于一个集群下的两个服务实体,要求功能的同一性,所以我们可先安装和配置第一个tomcat,接着拷贝形成第二个tomcat,最后配置第二个tomcat。

4.3.1 修改tomcat1, tomcat2的server.xml
4.3.1.1 修改 <Engine /> 标签
在跑第一个tomcat实例的机器上,在大约第120行(去掉注释), 将
<Engine name="Standalone" defaultHost="localhost" debug="0">
替换为:
<Engine jvmRoute="tomcat1" name="Standalone" defaultHost="192.168.0.105" debug="0" />
对跑第二个tomcat实例的机器上,替换为 jvmRoute="tomcat2".

<!-- You should set jvmRoute to support load-balancing via AJP ie :  
<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm1">  
-->   
<Engine jvmRoute="tomcat2" name="Standalone" defaultHost="192.168.0.105" debug="0" />  
     
<!-- You should set jvmRoute to support load-balancing via AJP ie :
<Engine name="Standalone" defaultHost="localhost" jvmRoute="jvm1">
-->
<Engine jvmRoute="tomcat2" name="Standalone" defaultHost="192.168.0.105" debug="0" />

有的文档写得是在配置中加入一行<Engine jvmRoute="tomcat1" name="Standalone" defaultHost="localhost" debug="0"></Engine>,其实是不对的,这样负载均衡是没有问题的,但是不能做session绑定,也就是说同一用户会在两台服务器上跳来跳去。这是由于jvmRoute不正确引起的,因为如果只是加入一行的话,是没有什么作用的,Engine仍然是原来的 Engine,而原来的Engine中jvmRoute是不正确的,所以一定要替换。而且这个jvmRoute一定要跟 workers.properties 中的名称完全匹配,否则也不能实现session绑定。
4.3.1.2 修改 <Cluster /> 标签
将<Cluster />标签注释去掉,代码如下:

<Cluster className="org.apache.catalina.cluster.tcp.SimpleTcpCluster" 
                 managerClassName="org.apache.catalina.cluster.session.DeltaManager" 
                 expireSessionsOnShutdown="false" 
                 useDirtyFlag="true" 
                 notifyListenersOnReplication="true">  
 
            <Membership   
                className="org.apache.catalina.cluster.mcast.McastService" 
                mcastAddr="228.0.0.4" 
                mcastPort="45564" 
                mcastFrequency="500" 
                mcastDropTime="3000"/>  
 
            <Receiver   
                className="org.apache.catalina.cluster.tcp.ReplicationListener" 
                tcpListenAddress="auto" 
                tcpListenPort="4001" 
                tcpSelectorTimeout="100" 
                tcpThreadCount="6"/>  
 
            <Sender  
                className="org.apache.catalina.cluster.tcp.ReplicationTransmitter" 
                replicationMode="pooled" 
                ackTimeout="15000" 
                waitForAck="true"/>  
 
            <Valve className="org.apache.catalina.cluster.tcp.ReplicationValve" 
                   filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>  
                     
            <Deployer className="org.apache.catalina.cluster.deploy.FarmWarDeployer" 
                      tempDir="/tmp/war-temp/" 
                      deployDir="/tmp/war-deploy/" 
                      watchDir="/tmp/war-listen/" 
                      watchEnabled="false"/>  
                        
            <ClusterListener className="org.apache.catalina.cluster.session.ClusterSessionListener"/>  
        </Cluster> 
<Cluster className="org.apache.catalina.cluster.tcp.SimpleTcpCluster"
                 managerClassName="org.apache.catalina.cluster.session.DeltaManager"
                 expireSessionsOnShutdown="false"
                 useDirtyFlag="true"
                 notifyListenersOnReplication="true">

            <Membership
                className="org.apache.catalina.cluster.mcast.McastService"
                mcastAddr="228.0.0.4"
                mcastPort="45564"
                mcastFrequency="500"
                mcastDropTime="3000"/>

            <Receiver
                className="org.apache.catalina.cluster.tcp.ReplicationListener"
                tcpListenAddress="auto"
                tcpListenPort="4001"
                tcpSelectorTimeout="100"
                tcpThreadCount="6"/>

            <Sender
                className="org.apache.catalina.cluster.tcp.ReplicationTransmitter"
                replicationMode="pooled"
                ackTimeout="15000"
                waitForAck="true"/>

            <Valve className="org.apache.catalina.cluster.tcp.ReplicationValve"
                   filter=".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"/>
                  
            <Deployer className="org.apache.catalina.cluster.deploy.FarmWarDeployer"
                      tempDir="/tmp/war-temp/"
                      deployDir="/tmp/war-deploy/"
                      watchDir="/tmp/war-listen/"
                      watchEnabled="false"/>
                     
            <ClusterListener className="org.apache.catalina.cluster.session.ClusterSessionListener"/>
        </Cluster>
4.3.2 修改testGroup测试项目中的web.xml
在web.xml加入 <distributable/>  即可

<?xml version="1.0" encoding="ISO-8859-1"?>  
<web-app xmlns="http://java.sun.com/xml/ns/javaee" 
   xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" 
   xsi:schemaLocation="http://java.sun.com/xml/ns/javaee http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd" 
   version="2.5">   
 
    <display-name>TomcatDemo</display-name>  
    <distributable/>  
      
</web-app> 
<?xml version="1.0" encoding="ISO-8859-1"?>
<web-app xmlns="http://java.sun.com/xml/ns/javaee"
   xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
   xsi:schemaLocation="http://java.sun.com/xml/ns/javaee http://java.sun.com/xml/ns/javaee/web-app_2_5.xsd"
   version="2.5">

<display-name>TomcatDemo</display-name>
<distributable/>

</web-app>

重启apache,tomcat1,tomcat2

用不同的终端访问:http://192.168.0.105/testGroup/index.jsp

可以看到Tomcat终端不再打印null,一方设置session双方都打印出session,实现session共享

注:本文使用本机+2台虚拟机共3台电脑完成集群配置,若只需一台电脑完成集群配置,则只需要更改多个Tomcat中相冲突的端口号即可完成。

你可能感兴趣的:(apache,tomcat,应用服务器,配置管理,IE)