nginx进程模型
2013-02-26 14:35
295 查看
1.概述
nginx有两类进程,一类称为master进程(相当于管理进程),另一类称为worker进程(实际工作进程)。启动方式有两种:
(1)单进程启动:此时系统中仅有一个进程,该进程既充当master进程的角色,也充当worker进程的角色。
(2)多进程启动:此时系统有且仅有一个master进程,至少有一个worker进程工作。
master进程主要进行一些全局性的初始化工作和管理worker的工作;事件处理是在worker中进行的。
首先简要的浏览一下nginx的启动过程,如下图:
2.实现原理
这里只分析多进程下的工作原理。
nginx的进程启动过程是在ngx_master_process_cycle(src/os/unix/ngx_process_cycle.c)中完成的,在ngx_master_process_cycle中,会根据配置文件的worker_processes值创建多个子进程,即一个master进程和多个worker进程。进程之间、进程与外部之间保持通信。如下图所示:图中w1表示worker进程1,以此类推。虚线表示信号通信,实现表示socketpair通信。
nginx 的进程模型采用的是prefork方式,预先分配的worker子进程数量由配置文件指定,默认为1。master主进程创建监听套接口,fork子进程以后,由worker进程监听客户连接,每个worker子进程独自尝试accept已连接套接口,accept是否上锁可以配置,默认会上锁,如果操作系统支持原子整型,才会使用共享内存实现原子上锁,否则使用文件上锁。如果不使用锁,当多个进程同时accept,当一个连接来的时候多个进程同时被唤起,会导致惊群问题。使用锁的时候,只会有一个worker阻塞在accept上,其他的进程则会不能获取锁而阻塞,这样就解决了惊群的问题。master进程通过socketpair向worker子进程发送命令,终端也可以向master发送各种命令,子进程通过发送信号给master进程的方式与其通信,worker之间通过unix套接口通信。
当master接收到worker发回的SIGCHLD信号时,(worker进程的退出信号),它会逐个检查每一个worker进程,如果发现有worker进程是异常退出,就会重新启动这个worker进程。另外nginx还有两个用于管理cache的进程,一个是cache manager process,另外一个是cache loader process,它们是专门服务于文件cache的进程,也服从master进程的管理,类似于worker进程,后面的分析将略去它们。下面从代码的角度,详细分析实现细节。
master启动的时候,有一些重要的全局数据会被设置,最重要的是进程表ngx_processes,master每创建一个worker都会把一个设置好的ngx_process_t结构变量放入ngx_processes中,新创建的进程存放在ngx_process_slot位置,ngx_last_process是进程表中最后一个存量进程的下一个位置,ngx_process_t是进程在nginx中的抽象:
master进程向worker子进程发送命令是通过socketpair创建的一对socket实现的,之间传输的是ngx_channel_t结构变量:
command是要发送的命令,有5种:
1).首先分析master进程的代码的功能,(Ngx_process_cycle.c中):
main()函数首先做一系列的初始化工作调用各模块的初始化代码(例如创建监听套接口等)然后就会调用ngx_master_process_cycle代码(多进程启动情况下),cycle是一个全局结构体变量,存储有系统运行的所需要的一些信息。在分析进程关系的的时候可以先忽略它。
从代码中可以看书master主进程的逻辑是非常清晰的,如下图:
2)接下来分析worker进程启动的代码ngx_start_worker_processes(),由于使用了socketpair通信,这里也包过了对socket设置的一些代码:
循环体中使用ngx_spawn_process来生成worker进程,这个后面说明。每次创建一个新的worker进程之后,都需要向之前创建的所有worker进程广播新创建的worker进程的信息。
ngx_pass_open_channel()会利用一个循环,将ch信息发送给其他的worker进程的channel[0]的socket上,worker收到以后就会将ch的信息添加到自己的进程表中,这样每个worker进程自己的进程表和master进程的进程表就会保持一致。在子进程创建的过程中,后面会有代码来设置各自的进程表项的ngx_socket_t字段。
3).第2个函数中新建了一个进程以后,然后调用ngx_pass_open_channel(cycle,&ch)将ch数据对其他进程进行广播处理,下面分析它的实现。
从代码中可以看出函数发送给除自己外而且正常工作的worker进程发送自己的进程信息,worker进程收到以后会将它添加到自己的进程表中。
4).接下来分析ngx_pid_t ngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data, char *name, ngx_int_t respawn)函
5)下面分析worker工作进程执行的函数:static voidngx_worker_process_cycle(ngx_cycle_t *cycle, void *data)。
6).接下来分析static void ngx_worker_process_init(ngx_cycle_t *cycle, ngx_uint_t priority),主要做的是work进程创建之前的初始化操作。
可以看出,通过第4步的操作,worker进程就可以再channel[1]上监听事件了,而master进程正好是将命令发往worker进程对应的channel[0]上,因此便实现了socketpair通信。当前worker还可以使用其他进程的channel[0]句柄发送消息,使用很少,但主要是监听channel[1]句柄上的事件消息。
7) ngx_add_channel_event()把句柄ngx_channel(当前worker的channel[1])上建立的连接的可读事件加入事件监控队列,事件处理函数为ngx_channel_hanlder(ngx_event_t *ev)。当有可读事件的时候,ngx_channel_handler负责处理消息,下面分析其实现:
以上分析了nginx进程的通信机制以及工作逻辑模型,下面以图表的形式做个总结:
本文档也是以前研究分析的,难免会有不准确之处,希望大家一起研究探讨。
nginx有两类进程,一类称为master进程(相当于管理进程),另一类称为worker进程(实际工作进程)。启动方式有两种:
(1)单进程启动:此时系统中仅有一个进程,该进程既充当master进程的角色,也充当worker进程的角色。
(2)多进程启动:此时系统有且仅有一个master进程,至少有一个worker进程工作。
master进程主要进行一些全局性的初始化工作和管理worker的工作;事件处理是在worker中进行的。
首先简要的浏览一下nginx的启动过程,如下图:
2.实现原理
这里只分析多进程下的工作原理。
nginx的进程启动过程是在ngx_master_process_cycle(src/os/unix/ngx_process_cycle.c)中完成的,在ngx_master_process_cycle中,会根据配置文件的worker_processes值创建多个子进程,即一个master进程和多个worker进程。进程之间、进程与外部之间保持通信。如下图所示:图中w1表示worker进程1,以此类推。虚线表示信号通信,实现表示socketpair通信。
nginx 的进程模型采用的是prefork方式,预先分配的worker子进程数量由配置文件指定,默认为1。master主进程创建监听套接口,fork子进程以后,由worker进程监听客户连接,每个worker子进程独自尝试accept已连接套接口,accept是否上锁可以配置,默认会上锁,如果操作系统支持原子整型,才会使用共享内存实现原子上锁,否则使用文件上锁。如果不使用锁,当多个进程同时accept,当一个连接来的时候多个进程同时被唤起,会导致惊群问题。使用锁的时候,只会有一个worker阻塞在accept上,其他的进程则会不能获取锁而阻塞,这样就解决了惊群的问题。master进程通过socketpair向worker子进程发送命令,终端也可以向master发送各种命令,子进程通过发送信号给master进程的方式与其通信,worker之间通过unix套接口通信。
当master接收到worker发回的SIGCHLD信号时,(worker进程的退出信号),它会逐个检查每一个worker进程,如果发现有worker进程是异常退出,就会重新启动这个worker进程。另外nginx还有两个用于管理cache的进程,一个是cache manager process,另外一个是cache loader process,它们是专门服务于文件cache的进程,也服从master进程的管理,类似于worker进程,后面的分析将略去它们。下面从代码的角度,详细分析实现细节。
master启动的时候,有一些重要的全局数据会被设置,最重要的是进程表ngx_processes,master每创建一个worker都会把一个设置好的ngx_process_t结构变量放入ngx_processes中,新创建的进程存放在ngx_process_slot位置,ngx_last_process是进程表中最后一个存量进程的下一个位置,ngx_process_t是进程在nginx中的抽象:
typedef struct { ngx_pid_t pid; //进程的ID int status; //进程的退出状态 ngx_socket_t channel[2]; //用于socketpair通信的一对socket句柄 ngx_spawn_proc_pt proc; //进程的执行函数 void *data; //proc的参数 char *name; //进程的title标识 unsigned respawn:1; //进程的状态:重新创建的 unsigned just_spawn:1; //进程的状态: 第一次创建的 unsigned detached:1; //进程的状态: 分离的,独立的 unsigned exiting:1; //进程的状态: 正在退出的 unsigned exited:1; //进程的状态: 已经退出的 } ngx_process_t;(src/os/unix/ngx_process.h)
master进程向worker子进程发送命令是通过socketpair创建的一对socket实现的,之间传输的是ngx_channel_t结构变量:
typedef struct { ngx_uint_t command; //发送的命令 ngx_pid_t pid; //发送方进程的进程id ngx_int_t slot; //发送方进程在进程表中偏移位置 ngx_fd_t fd; //发送给对方的文件句柄 } ngx_channel_t;(src/os/unix/ngx_channel.h)
command是要发送的命令,有5种:
#define NGX_CMD_OPEN_CHANNEL 1 #define NGX_CMD_CLOSE_CHANNEL 2 #define NGX_CMD_QUIT 3 #define NGX_CMD_TERMINATE 4 #define NGX_CMD_REOPEN 5
1).首先分析master进程的代码的功能,(Ngx_process_cycle.c中):
main()函数首先做一系列的初始化工作调用各模块的初始化代码(例如创建监听套接口等)然后就会调用ngx_master_process_cycle代码(多进程启动情况下),cycle是一个全局结构体变量,存储有系统运行的所需要的一些信息。在分析进程关系的的时候可以先忽略它。
void ngx_master_process_cycle(ngx_cycle_t *cycle) { 1.master设置一些需要处理的信号,信号包括: SIGCHLD, //子进程退出时发送给父进程的 SIGALRM, //计时器信号 SIGIO, //描述符上可以进行I/O时发出的信号 SIGINT, //中断信号 NGX_RECONFIGURE_SIGNAL(SIGHUP), //终端线路挂断 NGX_REOPEN_SIGNAL(SIGUSR1), //用户自定义usr1信号 NGX_NOACCEPT_SIGNAL(SIGWINCH), //控制中断大小改变 NGX_TERMINATE_SIGNAL(SIGTERM), //请求终端 NGX_SHUTDOWN_SIGNAL(SIGQUIT), //终端发送的quit信号 NGX_CHANGEBIN_SIGNAL(SIGUSR2);//用户自定义usr1信号 2.调用ngx_setproctilte设置进程标题; 3. 调用ngx_start_worker_processes()启动worker进程; //有些模块需要文件cache,比如fastcgi模块,这些模块会把文件cache路径添加到//cycle->paths中,文件cache管理进程会定期调用这些模块的文件cache处理钩子处//理一下文件cache,其实一共会启动两个进程,这些进程的detached会被设置为1 4.调用ngx_start_cache_manager_processes()启动文件cache管理进程; 5.master循环处理信号量。 ngx_new_binary = 0; delay = 0; live = 1; for ( ;; ) { // delay用来设置等待worker退出的时间,master接收了退出信号后首先发送 //退出信号给worker,而worker退出需要一些时间 if (delay) { delay *= 2; ngx_log_debug1(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "temination cycle: %d", delay); itv.it_interval.tv_sec = 0; itv.it_interval.tv_usec = 0; itv.it_value.tv_sec = delay / 1000; itv.it_value.tv_usec = (delay % 1000 ) * 1000; // 设置定时器 if (setitimer(ITIMER_REAL, &itv, NULL) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "setitimer() failed"); } } ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "sigsuspend"); // 挂起信号量,等待定时器 sigsuspend(&set); ngx_time_update(0, 0); ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "wake up"); // 收到了SIGCHLD信号,有worker退出(ngx_reap==1) if (ngx_reap) { ngx_reap = 0; ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "reap children"); // 处理所有worker,如果有worker异常退出则重启这个worker,如果所有 // worker都退出,返回0赋值给live live = ngx_reap_children(cycle); } // 如果worker都已经退出,并且收到了NGX_CMD_TERMINATE命令或者 //SIGTERM信号或者SIGINT信号(ngx_terminate=1) // 或者NGX_CMD_QUIT命令或者SIGQUIT信号(ngx_quit=1),则master退出 if (!live && (ngx_terminate || ngx_quit)) { ngx_master_process_exit(cycle); } // 收到了NGX_CMD_TERMINATE命令或者SIGTERM信号或者SIGINT信号, // 通知所有worker退出,并且等待worker退出 if (ngx_terminate) { if (delay == 0) { delay = 50; } // 给所有worker发送SIGTERM,通知worker退出 if (delay > 1000) { ngx_signal_worker_processes(cycle, SIGKILL); } else { ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_TERMINATE_SIGNAL)); } continue; } // 收到了NGX_CMD_QUIT命令或者SIGQUIT信号 if (ngx_quit) { // 给所有worker发送SIGQUIT信号 ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); // 关闭所有监听的socket ls = cycle->listening.elts; for (n = 0; n < cycle->listening.nelts; n++) { if (ngx_close_socket(ls .fd) == -1) { ngx_log_error(NGX_LOG_EMERG, cycle->log, ngx_socket_errno, ngx_close_socket_n " %V failed", &ls .addr_text); } } cycle->listening.nelts = 0; continue; } // 收到了SIGHUP信号 if (ngx_reconfigure) { ngx_reconfigure = 0; // 代码已经被替换,重启worker,不需要重新初始化配置 if (ngx_new_binary) { ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN); ngx_start_cache_manager_processes(cycle, 0); ngx_noaccepting = 0; continue; } ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reconfiguring"); // 重新初始化配置 cycle = ngx_init_cycle(cycle); if (cycle == NULL) { cycle = (ngx_cycle_t *) ngx_cycle; continue; } // 重启worker ngx_cycle = cycle; ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module); ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_JUST_RESPAWN); ngx_start_cache_manager_processes(cycle, 1); live = 1; ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); } // 当ngx_noaccepting=1的时候会把ngx_restart设为1,重启worker if (ngx_restart) { ngx_restart = 0; ngx_start_worker_processes(cycle, ccf->worker_processes, NGX_PROCESS_RESPAWN); ngx_start_cache_manager_processes(cycle, 0); live = 1; } // 收到SIGUSR1信号,重新打开log文件 if (ngx_reopen) { ngx_reopen = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs"); ngx_reopen_files(cycle, ccf->user); ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_REOPEN_SIGNAL)); } // 收到SIGUSR2信号,热代码替换 if (ngx_change_binary) { ngx_change_binary = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "changing binary"); // 调用execve执行新的代码 ngx_new_binary = ngx_exec_new_binary(cycle, ngx_argv); } // 收到SIGWINCH信号,不再接收请求,worker退出,master不退出 if (ngx_noaccept) { ngx_noaccept = 0; ngx_noaccepting = 1; ngx_signal_worker_processes(cycle, ngx_signal_value(NGX_SHUTDOWN_SIGNAL)); } } }
从代码中可以看书master主进程的逻辑是非常清晰的,如下图:
2)接下来分析worker进程启动的代码ngx_start_worker_processes(),由于使用了socketpair通信,这里也包过了对socket设置的一些代码:
static void ngx_start_worker_processes(ngx_cycle_t *cycle, ngx_int_t n, ngx_int_t type) { ngx_int_t i; ngx_channel_t ch;//用于socketpair通信的数据 ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start worker processes"); // 传递给其他worker子进程的命令:打开通信管道 ch.command = NGX_CMD_OPEN_CHANNEL; for (i = 0; i < n; i++) { cpu_affinity = ngx_get_cpu_affinity(i); ngx_spawn_process(cycle, ngx_worker_process_cycle, NULL, "worker process", type); // 向之前已经创建的所有worker广播当前创建的worker进程的信息 ch.pid = ngx_processes[ngx_process_slot].pid;//当前进程的pid ch.slot = ngx_process_slot; //当前进程在进程表中的位置 //fd是发送给对方的句柄 ch.fd = ngx_processes[ngx_process_slot].channel[0]; ngx_pass_open_channel(cycle, &ch); } }
循环体中使用ngx_spawn_process来生成worker进程,这个后面说明。每次创建一个新的worker进程之后,都需要向之前创建的所有worker进程广播新创建的worker进程的信息。
ngx_pass_open_channel()会利用一个循环,将ch信息发送给其他的worker进程的channel[0]的socket上,worker收到以后就会将ch的信息添加到自己的进程表中,这样每个worker进程自己的进程表和master进程的进程表就会保持一致。在子进程创建的过程中,后面会有代码来设置各自的进程表项的ngx_socket_t字段。
3).第2个函数中新建了一个进程以后,然后调用ngx_pass_open_channel(cycle,&ch)将ch数据对其他进程进行广播处理,下面分析它的实现。
static void ngx_pass_open_channel(ngx_cycle_t *cycle, ngx_channel_t *ch) { //ch是要向其他的worker进程广播的消息 ngx_int_t i; //逐个遍历所有的worker进程关联的ngx_process for (i = 0; i < ngx_last_process; i++) { // 跳过自己和异常的进程 if (i == ngx_process_slot|| ngx_processes[i].pid == -1 || ngx_processes[i].channel[0] == -1) { continue; } ngx_log_debug6(NGX_LOG_DEBUG_CORE, cycle->log, 0, "pass channel s:%d pid:%P fd:%d to s:%i pid:%P fd:%d", ch->slot, ch->pid, ch->fd, i, ngx_processes[i].pid, ngx_processes[i].channel[0]); /* TODO: NGX_AGAIN */ // 发送消息给其他的worker,发送到每个进程的 //ngx_processes[i].channel[0]的socket上 ngx_write_channel(ngx_processes[i].channel[0], ch, sizeof(ngx_channel_t), cycle->log); } }
从代码中可以看出函数发送给除自己外而且正常工作的worker进程发送自己的进程信息,worker进程收到以后会将它添加到自己的进程表中。
4).接下来分析ngx_pid_t ngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data, char *name, ngx_int_t respawn)函
ngx_pid_t ngx_spawn_process(ngx_cycle_t *cycle, ngx_spawn_proc_pt proc, void *data,char *name, ngx_int_t respawn) { //proc是子进程的执行函数,data是其参数,name是子进程的名字 u_long on; ngx_pid_t pid; ngx_int_t s; //将要创建的子进程在进程表中的位置 if (respawn >= 0) { // 替换进程ngx_processes[respawn],可安全重用该进程表项 s = respawn; } else { // 先找到一个被回收的进程表项 for (s = 0; s < ngx_last_process; s++) { if (ngx_processes[s].pid == -1) { break; } } // 进程表已满 if (s == NGX_MAX_PROCESSES) { ngx_log_error(NGX_LOG_ALERT, cycle->log, 0, "no more than %d processes can be spawned", NGX_MAX_PROCESSES); return NGX_INVALID_PID; } } // 不是分离的子进程,指的就是worker进程,cache进程是分离出去的进程 //cache进程不等同于worker进程,系统把它看成额外的独立进程 if (respawn != NGX_PROCESS_DETACHED) { /* Solaris 9 still has no AF_LOCAL */ // 创建一对已经连接的无名socket,用于socketpair通信的 if (socketpair(AF_UNIX, SOCK_STREAM, 0, ngx_processes[s].channel) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "socketpair() failed while spawning \"%s\"", name); return NGX_INVALID_PID; } ngx_log_debug2(NGX_LOG_DEBUG_CORE, cycle->log, 0, "channel %d:%d", ngx_processes[s].channel[0], ngx_processes[s].channel[1]); // 设置socket为非阻塞模式 if (ngx_nonblocking(ngx_processes[s].channel[0]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, ngx_nonblocking_n " failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 设置socket为非阻塞模式 if (ngx_nonblocking(ngx_processes[s].channel[1]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, ngx_nonblocking_n " failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 设置channel[0]的信号驱动异步I/O 标志 on = 1; if (ioctl(ngx_processes[s].channel[0], FIOASYNC, &on) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "ioctl(FIOASYNC) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 设置channel[0]的属主,控制channel[0]的SIGIO信号只发给master进程,//ngx_pid为全局变量,指的是master主进程,因为master与worker进程通//信时通过将数据发送到进程的channel[0]上通知的,因此channel[0]的属主是//manster进程 if (fcntl(ngx_processes[s].channel[0], F_SETOWN, ngx_pid) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(F_SETOWN) failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 设置channel[0]的close-on-exec标识,失败则关闭channel if (fcntl(ngx_processes[s].channel[0], F_SETFD, FD_CLOEXEC) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(FD_CLOEXEC) failed while spawning \"%s\"",name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 设置channel[1]的close-on-exec标识,失败则关闭channel if (fcntl(ngx_processes[s].channel[1], F_SETFD, FD_CLOEXEC) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fcntl(FD_CLOEXEC) failed while spawning \"%s\"",name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; } // 用于监听可读事件的socket,ngx_channel是全局变量 ngx_channel = ngx_processes[s].channel[1]; } else { //说明是分离的独立进程,则不需要socket进行通信,都设置成无效的 ngx_processes[s].channel[0] = -1; ngx_processes[s].channel[1] = -1; } //新建进程在进程表中的实际位置 ngx_process_slot = s; pid = fork(); switch (pid) { case -1: ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "fork() failed while spawning \"%s\"", name); ngx_close_channel(ngx_processes[s].channel, cycle->log); return NGX_INVALID_PID; case 0: //子进程在这里运行 ngx_pid = ngx_getpid(); //调用子进程需要执行的函数,即ngx_worker_process_cycle proc(cycle, data); break; default: break; } ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "start %s %P", name, pid); ngx_processes[s].pid = pid;//设置子进程的pid ngx_processes[s].exited = 0;//子进程没有退出 // 如果替换进程ngx_processes[respawn],不用设置其他进程表项字段了 if (respawn >= 0) { return pid; } // 设置其他的进程表项字段 ngx_processes[s].proc = proc; ngx_processes[s].data = data; ngx_processes[s].name = name; ngx_processes[s].exiting = 0; // 设置进程表项的一些状态字段 switch (respawn) { case NGX_PROCESS_NORESPAWN: ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 0; break; case NGX_PROCESS_JUST_SPAWN: ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 1; ngx_processes[s].detached = 0; break; case NGX_PROCESS_RESPAWN: ngx_processes[s].respawn = 1; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 0; break; case NGX_PROCESS_JUST_RESPAWN: ngx_processes[s].respawn = 1; ngx_processes[s].just_spawn = 1; ngx_processes[s].detached = 0; break; case NGX_PROCESS_DETACHED:// ngx_processes[s].respawn = 0; ngx_processes[s].just_spawn = 0; ngx_processes[s].detached = 1; break; } //检查是否需要更新ngx_last_process if (s == ngx_last_process) { ngx_last_process++; } return pid; }
5)下面分析worker工作进程执行的函数:static voidngx_worker_process_cycle(ngx_cycle_t *cycle, void *data)。
static void ngx_worker_process_cycle(ngx_cycle_t *cycle, void *data) { ngx_uint_t i; ngx_connection_t *c;//用于连接的 ngx_process = NGX_PROCESS_WORKER; //初始化工作,这个工作很重要,后面会详细说明它 ngx_worker_process_init(cycle, 1); //设置进程标题 ngx_setproctitle("worker process"); //使用线程时,则会执行的代码,线程相关的代码不影响分析系统的进程结构,主//要是做一些创建线程之前的初始化和准备,然后创建线程,执行线程函数,处理//用户请求 #if (NGX_THREADS) { ngx_int_t n; ngx_err_t err; ngx_core_conf_t *ccf; ccf = (ngx_core_conf_t *) ngx_get_conf(cycle->conf_ctx, ngx_core_module); if (ngx_threads_n) if (ngx_init_threads(ngx_threads_n, ccf->thread_stack_size, cycle) == NGX_ERROR) { /* fatal */ exit(2); } err = ngx_thread_key_create(&ngx_core_tls_key); if (err != 0) { ngx_log_error(NGX_LOG_ALERT, cycle->log, err, ngx_thread_key_create_n " failed"); /* fatal */ exit(2); } for (n = 0; n < ngx_threads_n; n++) { ngx_threads .cv = ngx_cond_init(cycle->log); if (ngx_threads .cv == NULL) { /* fatal */ exit(2); } if (ngx_create_thread((ngx_tid_t *) &ngx_threads .tid, ngx_worker_thread_cycle, (void *) &ngx_threads , cycle->log) != 0) { /* fatal */ exit(2); } } } } #endif //worker进程工作的主循环 for ( ;; ) { // 如果退出状态已设置,关闭所有连接 if (ngx_exiting) { c = cycle->connections; for (i = 0; i < cycle->connection_n; i++) { /* THREAD: lock */ //链接存在,而且连接是空闲的,就将它关闭 if (c[i].fd != -1 && c[i].idle) { c[i].close = 1; c[i].read->handler(c[i].read); } } if (ngx_event_timer_rbtree.root == ngx_event_timer_rbtree.sentinel) { ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting"); ngx_worker_process_exit(cycle); } } ngx_log_debug0(NGX_LOG_DEBUG_EVENT, cycle->log, 0, "worker cycle"); // 处理事件和计时 ngx_process_events_and_timers(cycle); // 收到NGX_CMD_TERMINATE命令 if (ngx_terminate) { ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "exiting"); // 清理后进程退出,会调用所有模块的钩子exit_process ngx_worker_process_exit(cycle); } // 收到NGX_CMD_QUIT命令 if (ngx_quit) { ngx_quit = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "gracefully shutting down"); ngx_setproctitle("worker process is shutting down"); if (!ngx_exiting) { // 关闭监听socket,设置退出状态 ngx_close_listening_sockets(cycle); ngx_exiting = 1; } } // 收到NGX_CMD_REOPEN命令,重新打开log if (ngx_reopen) { ngx_reopen = 0; ngx_log_error(NGX_LOG_NOTICE, cycle->log, 0, "reopening logs"); ngx_reopen_files(cycle, -1); } } }
6).接下来分析static void ngx_worker_process_init(ngx_cycle_t *cycle, ngx_uint_t priority),主要做的是work进程创建之前的初始化操作。
static void ngx_worker_process_init(ngx_cycle_t *cycle, ngx_uint_t priority) { 1、设置ngx_process = NGX_PROCESS_WORKER,在master进程中这个变量被设置为NGX_PROCESS_MASTER; 2、全局性的设置,根据全局的配置信息设置执行环境、优先级、限制、setgid、setuid、信号初始化等; 3、调用所有模块的钩子init_process; 4、关闭不使用的socket,关闭当前worker的channel[0]句柄和其他worker的channel[1]句柄,当前worker会使用其他worker的channel[0]句柄发送消息,使用当前worker的channel[1]句柄监听可读事件: for (n = 0; n < ngx_last_process; n++) { //跳过无效进程 if (ngx_processes .pid == -1) { continue; } //跳过自己 if (n == ngx_process_slot) { continue; } //跳过独立的进程,因为独立的进程的channel句柄别设置为-1, //或者是关闭channel的进程 if (ngx_processes .channel[1] == -1) { continue; } //关闭其他进程的channel[1]句柄 if (close(ngx_processes .channel[1]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "close() channel failed"); } } //关闭自己进程的channel[0]句柄 if (close(ngx_processes[ngx_process_slot].channel[0]) == -1) { ngx_log_error(NGX_LOG_ALERT, cycle->log, ngx_errno, "close() channel failed"); } 5、在当前worker的channel[1]句柄监听可读事件: if (ngx_add_channel_event(cycle, ngx_channel, NGX_READ_EVENT, ngx_channel_handler) == NGX_ERROR) { exit(2); } }
可以看出,通过第4步的操作,worker进程就可以再channel[1]上监听事件了,而master进程正好是将命令发往worker进程对应的channel[0]上,因此便实现了socketpair通信。当前worker还可以使用其他进程的channel[0]句柄发送消息,使用很少,但主要是监听channel[1]句柄上的事件消息。
7) ngx_add_channel_event()把句柄ngx_channel(当前worker的channel[1])上建立的连接的可读事件加入事件监控队列,事件处理函数为ngx_channel_hanlder(ngx_event_t *ev)。当有可读事件的时候,ngx_channel_handler负责处理消息,下面分析其实现:
static voidngx_channel_handler(ngx_event_t *ev) { ngx_int_t n; ngx_channel_t ch; ngx_connection_t *c; if (ev->timedout) { ev->timedout = 0; return; } c = ev->data; ngx_log_debug0(NGX_LOG_DEBUG_CORE, ev->log, 0, "channel handler"); for ( ;; ) { //从channel[1]中读取消息 n = ngx_read_channel(c->fd, &ch, sizeof(ngx_channel_t), ev->log); ngx_log_debug1(NGX_LOG_DEBUG_CORE, ev->log, 0, "channel: %i", n); if (n == NGX_ERROR) { if (ngx_event_flags & NGX_USE_EPOLL_EVENT) { ngx_del_conn(c, 0); } ngx_close_connection(c); return; } if (ngx_event_flags & NGX_USE_EVENTPORT_EVENT) { if (ngx_add_event(ev, NGX_READ_EVENT, 0) == NGX_ERROR) { return; } } if (n == NGX_AGAIN) { return; } ngx_log_debug1(NGX_LOG_DEBUG_CORE, ev->log, 0, "channel command: %d", ch.command); //处理消息命令 switch (ch.command) { case NGX_CMD_QUIT: ngx_quit = 1; break; case NGX_CMD_TERMINATE: ngx_terminate = 1; break; case NGX_CMD_REOPEN: ngx_reopen = 1; break; case NGX_CMD_OPEN_CHANNEL: ngx_log_debug3(NGX_LOG_DEBUG_CORE, ev->log, 0, "get channel s:%i pid:%P fd:%d", ch.slot, ch.pid, ch.fd); ngx_processes[ch.slot].pid = ch.pid; ngx_processes[ch.slot].channel[0] = ch.fd; break; case NGX_CMD_CLOSE_CHANNEL: ngx_log_debug4(NGX_LOG_DEBUG_CORE, ev->log, 0, "close channel s:%i pid:%P our:%P fd:%d", ch.slot, ch.pid, ngx_processes[ch.slot].pid, ngx_processes[ch.slot].channel[0]); if (close(ngx_processes[ch.slot].channel[0]) == -1) { ngx_log_error(NGX_LOG_ALERT, ev->log, ngx_errno, "close() channel failed"); } ngx_processes[ch.slot].channel[0] = -1; break; } } }
以上分析了nginx进程的通信机制以及工作逻辑模型,下面以图表的形式做个总结:
本文档也是以前研究分析的,难免会有不准确之处,希望大家一起研究探讨。
相关文章推荐
- Nginx 多进程模型是如何实现高并发的?
- Nginx进程模型(一)master进程
- memcached多线程模型 & nginx 多进程模型
- nginx源码分析--框架设计 & master-worker进程模型
- 从nginx角度看服务器多进程模型设计(一)
- Nginx 进程模型
- nginx源码分析(3)——进程模型
- Nginx 之三:nginx服务器模块、web请求处理机制及事件驱动模型、进程功能和进程间通信
- nginx的进程模型
- 从nginx角度看服务器多进程模型设计(二)
- nginx多进程模型之热部署
- Nginx学习之六-nginx核心进程模型
- nginx源码分析--master和worker进程模型
- nginx架构-进程模型事件模型
- nginx进程模型
- nginx多进程模型之配置热加载
- nginx多进程模型之热代码平滑升级
- nginx源码分析(3)——进程模型
- 图解Nginx-Nginx进程模型3
- Nginx学习之六-nginx核心进程模型