WIKI:

http://wiki.nginx.org/HttpLimitReqModule

漏桶原理(leaky bucket):

http://en.wikipedia.org/wiki/Leaky_bucket

实例:

?

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
#以用户二进制IP地址,定义三个漏桶,滴落速率1-3req/sec,桶空间1m,1M能保持大约16000个(IP)状态
limit_req_zone $binary_remote_addr zone=qps1:1m  rate=1r/s;
limit_req_zone $binary_remote_addr zone=qps2:1m  rate=2r/s;
limit_req_zone $binary_remote_addr zone=qps3:1m  rate=3r/s;
 
server {
 
#速率qps=1,峰值burst=5,延迟请求
#严格按照漏桶速率qps=1处理每秒请求
#在峰值burst=5以内的并发请求,会被挂起,延迟处理
#超出请求数限制则直接返回503
#客户端只要控制并发在峰值[burst]内,就不会触发limit_req_error_log
# 例1:发起一个并发请求=6,拒绝1个,处理1个,进入延迟队列4个:
#time  request  refuse  sucess  delay
#00:01    6    1    1      4
#00:02    0    0    1      3
#00:03    0    0    1      2
#00:04    0    0    1      1
#00:05    0    0    1      0
location /delay {
   limit_req  zone=qps1 burst=5;
}
 
#速率qps=1,峰值burst=5,不延迟请求
#加了nodelay之后,漏桶控制一段时长内的平均qps = 漏桶速率,允许瞬时的峰值qps > 漏桶qps
#所以峰值时的最高qps=(brust+qps-1)=5
#请求不会被delay,要么处理,要么直接返回503
#客户端需要控制qps每秒请求数,才不会触发limit_req_error_log
# 例2:每隔5秒发起一次达到峰值的并发请求,由于时间段内平均qps=1 所以仍然符合漏桶速率:
#time  request   refuse  sucess
#00:01     5     0     5
#00:05     5     0     5
#00:10     5     0     5
# 例3:连续每秒发起并发请求=5,由于时间段内平均qps>>1,超出的请求被拒绝:
#time  request   refuse   sucess
#00:01     5     0      5
#00:02     5     4      1
#00:03     5     4      1
 
location /nodelay {
   limit_req  zone=qps1 burst=5 nodelay;
}
 
}