Nginx+Tomcat集群的故障迁移实验

  经过前面的集群实施,已经将Nginx+Tomcat的集群环境给配置起来了,接着继续进行集群的故障转移实验.

  这里的故障转移包括节点关闭情况和节点宕机情况的故障转移.

  首先对于节点关闭或加入的情况,比如某一Tomcat节点关闭或重启的情况,在这种情况下,nginx可以快速识别到已停用或新加入的节点,基本上可以做到无延时的故障转移.所以这里主要实验的是tomcat宕机的情况,比如tomcat运行过程中出现内存溢出或长时间不响应的情况.

  为了实验的需要,在tomcat7080的启动参数中增加内存的配置,设置其最大可用内存为64m:

  

JAVA_OPTS="-Xms32m -Xmx64m"

 

  并在tomcat7080中,使用一段程序不断地往内存中写入数据,以使它出现内存溢出错误,不再处理新的访问请求.

<body>
<%!
static HashMap<String,String> map = new HashMap<String,String>();
public String generateStr(){
	StringBuilder s = new StringBuilder();
	while(s.length()<50){
		s.append(new Random().nextInt());
	}	
	return s.toString();
}
%>
<%
int c = 500000;
try {
	c=Integer.parseInt(request.getParameter("c"));
} catch(Exception e){
	 c = 500000;
}
for(int i = 0; i < c ;i++){
	map.put(String.valueOf(1000000+i),generateStr());
}
%>
</body>

 

  在tomcat7080启动之后,访问这段程序所在的jsp文件,tomcat很快便出现内存溢出错误,成功宕机.

  

  此时通过程序来模拟一个单并发,每秒发出一次请求的客户端:

public static void main(String[] args) {
		for (int i = 0; i < 90; i++) {//测试90次
			try {
				doGet();
				Thread.sleep(1000);
			} catch (Exception e) {
				// e.printStackTrace();
			}
		}
	}

	public static void doGet() throws Exception {
		URL url = new URL("http://localhost/");
		HttpURLConnection conn;
		BufferedReader reader = null;
		conn = (HttpURLConnection) url.openConnection();
		String s;
		int rc = conn.getResponseCode();
		if (rc != 200) {
			System.out.println("WARN: response code:" + rc);
		}
		reader = new BufferedReader(new InputStreamReader(
				conn.getInputStream(), "UTF-8"), 512);
		String line;
		while ((line = reader.readLine()) != null) {
		}
		if (reader != null)
			reader.close();
	}

 

  日志文件中的输出结果为:


Nginx+Tomcat集群的故障迁移实验_第1张图片
 

 

  从日志输出中可以看到,nginx仍然会尝试去请求已经宕机的7080端口,但在等待60秒之后将请求转发给了6080,然后在大约13秒左右的时间内都只会请求6080端口,然后再去尝试请求7080端口,依次循环.

  

  要解释出现这个现象的原因,需要来看一下集群中server的参数以及proxy_connect_timeout, proxy_read_timeout等参数的设置

 

  在nginx中,upstream中的server语法如下:

  (参考http://nginx.org/en/docs/http/ngx_http_upstream_module.html)

  server address [weight=number] [max_fails=number] [fail_timeout=time] [slow_start=time] [backup] [down];

 

  其中max_fails和fail_timeout的默认值分别为1和10s,这两个参数配置起来使用.含义是:在fail_timeout的时间内,nignx与upstream中某个server的连接尝试失败了max_fails次,则nginx会认为该server已经失效。在接下来的 fail_timeout时间内,nginx不再将请求分发给失效的server。所以在默认的情况下,nginx在前一次尝试连接7080端口失败后,在10秒之后才会再次去尝试(这里的实际是大约是13秒,考虑请求转发的原因,基本上可以认为是一个正常值).

  然后是location中的proxy_connect_timeout和proxy_read_timeout设置.这两个参数的含义如下:

  proxy_connect_timeout 

  后端服务器连接的超时时间_发起握手等候响应超时时间(默认为60s,不建议超过75s)

  proxy_read_timeout 

  连接成功后_等候后端服务器响应时间_其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)(默认为60s)

  

  分析我们前面的实验,tomcat7080在内存溢出的情况下,仍然能够与nginx完成握手,但是却不能处理结果,所以等待的一分钟时间是耗费在proxy_read_timeout了.如果能设置一个合适的值,就可以在可接受的时间范围内,完成集群的故障迁移.

  在测试过程中,最终的故障迁移时间配置如下:

 

   

 upstream cluster {
        server localhost:6080 weight=10 fail_timeout=1m;
        server localhost:7080 weight=10 fail_timeout=1m;
  }
  
  
location / {
  proxy_pass http://cluster;
  proxy_set_header Host $host;
     proxy_set_header X-Real-IP $remote_addr;
  proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  proxy_connect_timeout       2s;
  proxy_read_timeout          5s;
  proxy_send_timeout          5s;
}

 即可承受的请求响应时间为5s,在故障被检测到之后,1m内不再向故障节点发起新请求.(实际生产环境中可按需要适当进行调整)

  

你可能感兴趣的:(nginx,tomcat集群,故障迁移)