一般情况下,nginx 是一个事件处理器,一个从内核获取连接事件并告诉系统如何处理的控制器。实际上,在操作系统做读写数据调度的时候,nginx是协同系统工作的,所以nginx能越快响应越好。
nginx处理的事件可以是 超时通知、socket可读写的通知 或 错误通知。nginx 接收到这些消息后,会逐一进行处理。但是所有处理过程都是在一个简单的线程循环中完成的。nginx 从消息队列中取出一条event后执行,例如 读写socket的event。在大多数情况下这很快,Nginx瞬间就处理完了。
如果有耗时长的操作发生怎么办?整个消息处理的循环都必须等待这个耗时长的操作完成,才能继续处理其他消息。所以,我们说的“阻塞操作”其实意思是长时间占用消息循环的操作。操作系统可能被各种各样的原因阻塞,或者等待资源的访问,例如硬盘、互斥锁、数据库同步操作等。
例如,当nginx 想要读取没有缓存在内存中的文件时,则要从磁盘读取。但磁盘是比较缓慢的,即使是其他后续的事件不需要访问磁盘,他们也得等待本次事件的访问磁盘结束。结果就是延迟增加和系统资源没有被充分利用。
有些操作系统提供了异步读写文件接口,在nginx中可以使用这些接口(http://nginx.org/en/docs/http/ngx_http_core_module.html?&&&_ga=1.197764335.1343221768.1436170723#aio)。例如FreeBSD就是一个较好的例子,但不幸的是,linux提供的一系列异步读文件接口有不少缺陷。其中一个问题是:文件访问和缓冲需要队列,但是Nginx已经很好解决了。但是还有一个更严重的问题:使用异步接口需要对文件描述符设置O_DIRECT标识,这意味着任何对这个文件的访问会跳过缓存直接访问磁盘上的文件。在大多数情况下,这不是访问文件的最佳方法。
为了解决这个问题,Nginx 1.7.11 引入了线程池概念。现在让我们了解一下线程池是怎样工作的。
在nginx中,线程池执行的是分发服务,他由一个任务队列和一些执行任务的线程组成。当一个工作线程在执行一个可能会存在潜在长时间操作的任务时,这个任务会被”卸下“并重新放到任务队列中去,这个被”卸下“的任务可能会被其他线程再执行。
现在,只有2个基础操作会造成“卸下任务”到任务队列:
大多数读写文件操作都需要通过缓慢的磁盘。如果有充足的内存来存储数据,那么操作系统会缓存频繁使用的文件,也就是“页面缓存”(page cache)机制。
由于页面缓存机制,nginx几乎在所有情况下都能体现非常好的性能。通过页面缓存读取数据非常快,并且不会阻塞。另一方面,卸下任务到任务池是有瓶颈的。所以在内存充足并且使用的数据不是非常大的时候,nginx即使不使用线程池也是几乎工作在最佳状态。
卸下写操作到任务池中,是一个适用于特殊场景的处理方案,适用于大量无法使用VM缓存的请求操作。
例如一个高负荷的基于Nginx的视频流服务器。另外FreeBSD的用户不需要担心这些,因为FreeBSD已经有很好的异步读操作接口,无需使用线程池。
如果你确定在你的场景中适合使用线程池,那么一起看看如何配置线程池。准备工作步骤如下:
最简单的例子,添加一个aio线程标识(可以添加到http、server 或 location段中):
1
|
aio
threads
;
|
这是一个最简单的配置例子,等于以下的配置:
1
2
3
4
|
# in the 'main' context
thread_pool
default
threads
=
32
max_queue
=
65536
;
# in the 'http', 'server', or 'location' context
aio
threads
=
default
;
|
以上配置定义了一个叫 default 的线程池,有32个工作线程,任务队列最大存放65536个任务。如果任务队列满了,nginx会抛弃任务并打印以下日志:
1
|
thread
pool
"NAME"
queue
overflow
:
N
tasks
waiting
|
当出现了这个日志,这意为着你可以调大你的任务队列,或者你的系统无法处理这么多任务。所以综上所述,你可以配置你的 线程数,任务队列长度,线程池名称。你也可以设置多个线程池,用在不同的地方:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
# in the 'main' context
thread_pool
one
threads
=
128
max_queue
=
0
;
thread_pool
two
threads
=
32
;
http
{
server
{
location
/
one
{
aio
threads
=
one
;
}
location
/
two
{
aio
threads
=
two
;
}
}
…
}
|
如果max_queue,也就是任务队列长度未指定,那么长度默认为65536.max_queue也可以设置为0,这样线程池只能处理和线程数一样多的任务,不会有任务存储在任务队列中。
现在假设你有一台有3个硬盘的服务器,你希望这台服务器作为缓存代理使用,这是你CDN的一个缓存节点,缓存的数据已经超过了可用内存。在这个场景中最重要的事情就是提高磁盘读写的性能。一个方案就是使用RAID,另一个方案就是使用Nginx:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
|
# We assume that each of the hard drives is mounted on one of these directories:
# /mnt/disk1, /mnt/disk2, or /mnt/disk3
# in the 'main' context
thread_pool
pool_1
threads
=
16
;
thread_pool
pool_2
threads
=
16
;
thread_pool
pool_3
threads
=
16
;
http
{
proxy_cache_path
/
mnt
/
disk1
levels
=
1
:
2
keys_zone
=
cache_1
:
256m
max_size
=
1024G
use_temp_path
=
off
;
proxy_cache_path
/
mnt
/
disk2
levels
=
1
:
2
keys_zone
=
cache_2
:
256m
max_size
=
1024G
use_temp_path
=
off
;
proxy_cache_path
/
mnt
/
disk3
levels
=
1
:
2
keys_zone
=
cache_3
:
256m
max_size
=
1024G
use_temp_path
=
off
;
split_clients
$
request_uri
$
disk
{
33.3
%
1
;
33.3
%
2
;
*
3
;
}
server
{
…
location
/
{
proxy_pass
http
:
//backend;
proxy_cache
_key
$
request_uri
;
proxy_cache
cache_
$
disk
;
aio
threads
=
pool_
$
disk
;
sendfile
on
;
}
}
}
|
在配置中,thread_pool 指令给每个磁盘定义了独立的线程池;proxy_cache_path指令给每个磁盘定义独立的缓存路径、参数;split_clients 模块用于多个缓存(也就是多个磁盘)的负载均衡,这个解决方案很符合该使用场景;proxy_cache_path中的use_temp_path=off参数让nginx存储临时文件到缓存目录,这可以避免更新缓存时的磁盘间数据拷贝。
以上的例子说明可以根据自身硬件灵活调整nginx,通过细微调整,可以让你的软件、操作系统、硬件协同工作在最佳状态,尽可能的利用所有资源。
线程池机制是一个非常好的机制,通过解决大量数据情况下导致的阻塞问题,使得nginx的性能达到一个新的高度。如之前提到的,接下来会有新的接口可能会实现在不损耗性能的情况下实现”卸下“任务机制。注:原文中的一些翻译
(1)offloading 翻译为 卸下,其实就是把一个任务塞回到任务池中;
(2)原文中有提到把任务offloading到thread pool中,但其实是task是存放在task pool中,所以我译为”把任务卸下到任务池中“;
(3)性能测试阶段译文略过,可以参考原帖