原本计划这一篇的内容是配置文件的解析,不过为了连贯性,还是继续nginx初始化的过程。nginx的进程模型与大多数http服务器采用的模型是一样的,都是Master-Worker模型。Master进程负责处理外部信号,同时管理所有的Worker进程。而Worker进程就是用来处理连接的建立、请求和响应,大部分的事件处理都是在worker进程中。
1. ngx_process_t
进程数据结构,用来表示的worker进程。nginx中把所有创建的进程放到ngx_processes数组(os/unix/ngx_process.c)中,其中进程pid不为-1的元素都是存活的进程。ngx_processes数组的大小由NGX_MAX_PROCESSES宏定义,大小是1024,也就是说nginx最多允许1024个进程,这个数字挺大的,一般是用不到这么多的。每个worker进程内部都有ngx_processes数组,用来保存所有worker进程,通过进程的channel就可以实现worker进程的通信。但是之前创建的worker进程是不会保存之后创建的进程的信息,这里需要一种机制来向之前创建的worker进程传递所有后来创建的进程的信息,这部分内容后面会介绍。
typedef struct { /** * 进程id */ ngx_pid_t pid; /** * 进程退出的状态 */ int status; /** * 进程的channel,通过socketpair创建的 */ ngx_socket_t channel[2]; /** * 进程的初始化函数,在每次创建完worker进程时调用 */ ngx_spawn_proc_pt proc; /** * 向进程初始化函数传递的参数 */ void *data; char *name; /** * 进程的状态 */ unsigned respawn:1; unsigned just_spawn:1; unsigned detached:1; unsigned exiting:1; unsigned exited:1; } ngx_process_t;
实际上就是nginx进程通信传递的消息。
typedef struct { /** * 向worker进程发送的命令 */ ngx_uint_t command; /** * 对应进程的id */ ngx_pid_t pid; /** * 对应的进程在ngx_processes数组中的下标 */ ngx_int_t slot; /** * 文件描述符 */ ngx_fd_t fd; } ngx_channel_t;
在nginx启动过程的最后部分工作是进程模型的初始化。
if (ngx_process == NGX_PROCESS_SINGLE) { ngx_single_process_cycle(cycle); } else { ngx_master_process_cycle(cycle); }因为大部分nginx的应用都是多进程模式的,所以我们只研究nginx的多进程模型,这里调用ngx_master_process_cycle函数(os/unix/ngx_process_cycle.c)初始化master进程的主循环,并创建worker进程,下面先来看一下这个函数。
sigemptyset(&set); sigaddset(&set, SIGCHLD); sigaddset(&set, SIGALRM); sigaddset(&set, SIGIO); sigaddset(&set, SIGINT); sigaddset(&set, ngx_signal_value(NGX_RECONFIGURE_SIGNAL)); sigaddset(&set, ngx_signal_value(NGX_REOPEN_SIGNAL)); sigaddset(&set, ngx_signal_value(NGX_NOACCEPT_SIGNAL)); sigaddset(&set, ngx_signal_value(NGX_TERMINATE_SIGNAL)); sigaddset(&set, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); sigaddset(&set, ngx_signal_value(NGX_CHANGEBIN_SIGNAL)); if (sigprocmask(SIG_BLOCK, &set, NULL) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "sigprocmask() failed"); } sigemptyset(&set);一开始初始化信号部分,信号处理函数的注册已经在main函数中调用ngx_init_signals完成。这部分代码的作用是不是阻塞这些信号的接收,防止进程初始化过程被打断?
size = sizeof(master_process); for (i = 0; i < ngx_argc; i++) { size += ngx_strlen(ngx_argv[i]) + 1; } title = ngx_pnalloc(cycle->pool, size); p = ngx_cpymem(title, master_process, sizeof(master_process) - 1); for (i = 0; i < ngx_argc; i++) { *p++ = ' '; p = ngx_cpystrn(p, (u_char *) ngx_argv[i], size); } // 设置进程显示的名称,包括命令行参数 ngx_setproctitle(title);这部分代码完成进程title的设置,这个title就是通过ps显示的进程名,同时会包含启动时的命令行参数。
ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN);接下来,调用调用ngx_start_worker_processes函数初始化并启动worker进程的主循环。继续看一下这个函数。
static void ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type) { ngx_int_t i; ngx_channel_t ch; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes"); // 传递给其他worker进程的命令 ch.command = NGX_CMD_OPEN_CHANNEL; for (i = 0; i < n; i++) { cpu_affinity = ngx_get_cpu_affinity(i); /** * 创建worker进程,ngx_worker_process_cycle是函数指针 * 在创建worker进程后调用,用来初始化worker进程的主循环 */ ngx_spawn_process(cycle, ngx_worker_process_cycle, NULL, "worker process", type); /** * 初始化channel */ ch.pid = ngx_processes[ngx_process_slot].pid; ch.slot = ngx_process_slot; ch.fd = ngx_processes[ngx_process_slot].channel[0]; /** * 向之前创建worker进程传递这个channel,worker进程在接收到之后会更新自己的ngx_processes * 全局进程表。 */ ngx_pass_open_channel(cycle, &ch); } }这个函数调用ngx_spawn_process创建worker_processes(在配置文件中通过worker_processes指定的值)个worker进程,然后调用ngx_pass_open_channel将新创建的进程的channel传递给之前创建的worker进程。ngx_spawn_process函数完成 worker进程fork的工作,并在创建完worker进程后调用ngx_worker_process_cycle回调函数初始化worker进程的主循环,下面看看具体过程。
if (respawn >= 0) { s = respawn; } else { /** * 在全局进程表ngx_processes中查找第一个空的结构,用来存放新创建的进程的信息。 */ for (s = 0; s < ngx_last_process; s++) { if (ngx_processes[s].pid == -1) { break; } } if (s == NGX_MAX_PROCESSES) { ngx_log_error(NGX_LOG_ALERT, cycle->log, 0, "no more than %d processes can be spawned", NGX_MAX_PROCESSES); return NGX_INVALID_PID; } }
在全局进程表中查找一个ngx_process_t结构用来存储新建的进程的信息。
if (respawn != NGX_PROCESS_DETACHED) { /* Solaris 9 still has no AF_LOCAL */ /** * 调用socketpair创建一对相互连接的unix域socket,用于进程间的全双工通信 */ if (socketpair(AF_UNIX, SOCK_STREAM, 0, ngx_processes[s].channel) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "socketpair() failed while spawning \"%s\"", name); return NGX_INVALID_PID; } ngx_log_debug2(NGX_LOG_DEBUG_CORE, cycle->log, 0, "channel %d:%d", ngx_processes[s].channel[0], ngx_processes[s].channel[1]); /** * 将用于进程通信的socket设置成非阻塞的 */ if (ngx_nonblocking(ngx_processes[s].channel[0]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, ngx_nonblocking_n " failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } /** * 将用于进程通信的socket设置成非阻塞的 */ if (ngx_nonblocking(ngx_processes[s].channel[1]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, ngx_nonblocking_n " failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } on = 1; /** * 设置成信号驱动异步io,有io时内核发送SIGIO信号 */ if (ioctl(ngx_processes[s].channel[0], FIOASYNC, &on) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "ioctl(FIOASYNC) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } /** * 设置将接收SIGIO和SIGURG信号的进程id */ if (fcntl(ngx_processes[s].channel[0], F_SETOWN, ngx_pid) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(F_SETOWN) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } /** * 当执行exec时关闭描述符 */ if (fcntl(ngx_processes[s].channel[0], F_SETFD, FD_CLOEXEC) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(FD_CLOEXEC) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } if (fcntl(ngx_processes[s].channel[1], F_SETFD, FD_CLOEXEC) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(FD_CLOEXEC) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 当前的子进程的描述符 ngx_channel = ngx_processes[s].channel[1]; } else { ngx_processes[s].channel[0] = -1; ngx_processes[s].channel[1] = -1; } /** * ngx_process_slot是新创建的进程在ngx_processes数组中的下标 */ ngx_process_slot = s;nginx进程间通信时通过socketpair,也就是一对连接的unix domain socket,这段代码就是创建这个socketpair,并对其初始化,包括设置成非阻塞的、异步io等。
pid = fork(); switch (pid) { case -1: ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fork() failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; case 0: ngx_pid = ngx_getpid(); proc(cycle, data); break; default: break; }接下来就是创建进程的关键步骤,调用fork。在子进程中会调用proc函数,这个就是在调用ngx_spawn_process时传递的worker进程初始化函数,这里就是ngx_worker_process_cycle,用于初始化worker进程相关的信息,并在最后会进入worker进程的主循环。我们先看一下master进程随后的工作,它会继续执行ngx_spawn_process函数的剩余部分。
/** * 将新创建的进程放入master进程的ngx_processes数组中 */ ngx_processes[s].pid = pid; ngx_processes[s].exited = 0; if (respawn >= 0) { return pid; } ngx_processes[s].proc = proc; ngx_processes[s].data = data; ngx_processes[s].name = name; ngx_processes[s].exiting = 0; switch (respawn) { case NGX_PROCESS_NORESPAWN: ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 0; break; case NGX_PROCESS_JUST_SPAWN: ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 1; ngx_processes[s].detached = 0; break; case NGX_PROCESS_RESPAWN: ngx_processes[s].respawn = 1; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 0; break; case NGX_PROCESS_JUST_RESPAWN: ngx_processes[s].respawn = 1; ngx_processes[s].just_spawn = 1; ngx_processes[s].detached = 0; break; case NGX_PROCESS_DETACHED: ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 1; break; } if (s == ngx_last_process) { ngx_last_process++; } return pid;
master进程的剩余工作就是更新全局进程表中,新建的worker进程的一些状态信息。当master进程从ngx_start_worker_processes函数返回后,直接进入master进程的主循环。
/** * master进程的主循环 */ for ( ;; ) { if (delay) { if (ngx_sigalrm) { sigio = 0; delay *= 2; ngx_sigalrm = 0; } ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "termination cycle: %d", delay); itv.it_interval.tv_sec = 0; itv.it_interval.tv_usec = 0; itv.it_value.tv_sec = delay / 1000; itv.it_value.tv_usec = (delay % 1000 ) * 1000; if (setitimer(ITIMER_REAL, &itv, NULL) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "setitimer() failed"); } } ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "sigsuspend"); sigsuspend(&set); ngx_time_update(); ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "wake up, sigio %i", sigio); if (ngx_reap) { ngx_reap = 0; ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "reap children"); live = ngx_reap_children(cycle); } if (!live && (ngx_terminate || ngx_quit)) { ngx_master_process_exit(cycle); } if (ngx_terminate) { if (delay == 0) { delay = 50; } if (sigio) { sigio--; continue; } sigio = ccf->worker_processes + 2 /* cache processes */; if (delay > 1000) { ngx_signal_worker_processes(cycle, SIGKILL); } else { ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_TERMINATE_SIGNAL)); } continue; } if (ngx_quit) { ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); ls = cycle->listening.elts; for (n = 0; n < cycle->listening.nelts; n++) { if (ngx_close_socket(ls[n].fd) == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_socket_errno, ngx_close_socket_n " %V failed", &ls[n].addr_text); } } cycle->listening.nelts = 0; continue; } if (ngx_reconfigure) { ngx_reconfigure = 0; if (ngx_new_binary) { ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN); ngx_start_cache_manager_processes(cycle, 0); ngx_noaccepting = 0; continue; } ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reconfiguring"); cycle = ngx_init_cycle(cycle); if (cycle == NULL) { cycle = (ngx_cycle_t *) ngx_cycle; continue; } ngx_cycle = cycle; ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module); ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_JUST_RESPAWN); ngx_start_cache_manager_processes(cycle, 1); live = 1; ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); } if (ngx_restart) { ngx_restart = 0; ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN); ngx_start_cache_manager_processes(cycle, 0); live = 1; } if (ngx_reopen) { ngx_reopen = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs"); ngx_reopen_files(cycle, ccf->user); ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_REOPEN_SIGNAL)); } if (ngx_change_binary) { ngx_change_binary = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "changing binary"); ngx_new_binary = ngx_exec_new_binary(cycle, ngx_argv); } if (ngx_noaccept) { ngx_noaccept = 0; ngx_noaccepting = 1; ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); } }master进程的主循环中主要是处理外部信号,像ngx_restart、ngx_noaccept和ngx_quit这样的全局变量都是由ngx_signal_handler更新的,这个函数就是master进程的信号处理函数,在接收到信号时会修改相应的变量。master主循环处理的就是在接收到的外部信号时,向所有的worker进程发送相应的信号。在主循环中通过调用sigsuspend(&set);这个函数阻塞进程,直到接收到相应的信号才会被唤醒,这样就避免了不停检查,节省了cpu。master进程的退出是由ngx_master_process_exit函数完成的,这个函数会调用所有模块的exit_master回调函数,然后关闭监听socket,最后调用exit退出。
下面,我们继续跟踪一下worker进程的执行动态,上面说到worker进程会执行ngx_worker_process_cycle函数,下面就看看这个函数的细节。
ngx_process = NGX_PROCESS_WORKER; /** * 初始化worker进程。 * 根据配置文件初始化worker进程,比如配置文件中的cpu亲缘性、priority、work directory等等, * 同时关闭对端的channel。还会调用所有模块的init_process回调函数。最后会调用 * ngx_add_channel_event将channel添加到事件循环中。 */ ngx_worker_process_init(cycle, 1);先是设置ngx_process,这个变量就是当前进程的类型。然后调用ngx_worker_process_init函数初始化worker进程,并且会调用所有模块的init_process回调函数,最后将channel添加到事件循环中,以便可以监听master进程发送消息。重要的工作就是这些,由于代码过长,这里就不贴了。
/* * 设置worker 进程的title */ ngx_setproctitle("worker process");设置worker进程title。接下来进入worker进程的事件循环,
/** * worker进程的事件循环。 */ for ( ;; ) { /** * 处理nginx退出 */ if (ngx_exiting) { c = cycle->connections; for (i = 0; i < cycle->connection_n; i++) { /* THREAD: lock */ if (c[i].fd != -1 && c[i].idle) { c[i].close = 1; c[i].read->handler(c[i].read); } } if (ngx_event_timer_rbtree.root == ngx_event_timer_rbtree.sentinel) { ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting"); /** * worker进程退出,会调用所有模块的exit_process回调函数 * 销毁cycle生命周期的内存池,最后调用exit(0) */ ngx_worker_process_exit(cycle); } } ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "worker cycle"); /** * 网络事件处理函数 */ ngx_process_events_and_timers(cycle); if (ngx_terminate) { ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting"); /** * 同上,退出worker进程 */ ngx_worker_process_exit(cycle); } if (ngx_quit) { ngx_quit = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "gracefully shutting down"); ngx_setproctitle("worker process is shutting down"); if (!ngx_exiting) { /** * 关闭所有的监听socket */ ngx_close_listening_sockets(cycle); ngx_exiting = 1; } } if (ngx_reopen) { ngx_reopen = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs"); ngx_reopen_files(cycle, -1); } }worker主循环内主要是对master进程发送的信号的处理,比如是否退出、重启等。worker进程的退出是通过ngx_worker_process_exit函数完成,这个函数会关闭所有的socket,并调用所有模块的exit_process回调函数,最后调用exit退出。这个主循环处理的网络io事件是由ngx_process_events_and_timers函数完成的,它最终会调用epoll_wait函数阻塞住,一直到有事件发生。具体的事件处理部分会在事件模型一篇文章中介绍。