UNIX网络编程2 理解select、poll、epoll原理

三者实现原理对比分析
select, poll, epoll都是IO多路复用的机制,上文中提到的多路复用主要是以select为例,select和poll大同小异,因为select和poll的实现有明显的缺点,所以在Linux2.5.44中引入了 新的处理大批量句柄的API——epoll,被公认为Linux2.6下性能最好的多路I/O就绪通知方法。这里还是要强调,I/O多路复用机制的目的是应对大量的描述符,并不是所有情况下性能都是最好的(相比于直接的blocking、non-blocking、asynchronous),select、poll、epoll本质上都是同步I/O,因为它们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的(上文也得出了这个结论,epoll使用mmap机制省去了内核空间到用户空间的数据拷贝,似乎可以认为是异步的)。
select和poll的实现比较相似,重点还是以select为例,epoll可以说是select和poll的增强版,优化了几个方面的性能。
1. select实现原理
1)使用copy_from_user从用户空间拷贝fd_set到内核空间
2)注册回调函数__pollwait
3)遍历所有fd,调用其对应的poll方法(对于socket这个poll方法是sock_poll,sock_poll根据情况会调用到tcp_poll、udp_poll或者datagram_poll)
4)以tcp_poll为例,其核心实现就是__pollwait,也就是上面注册的回调函数
5)__pollwait的主要工作就是把current(当前进程)挂到设备的等待队列中,不同的设备有不同的等待队列,对于tcp_poll来说,其等待队列是sk->sk_sleep(把进程挂到等待队列中并不代表进程已经睡眠)。在设备收到一条消息或填写完文件数据后,会唤醒设备等待队列上的进程,这时current便被唤醒了
6)poll方法返回时会返回一个描述读写操作是否就绪的掩码,根据这个掩码给fd_set赋值
7)如果遍历完所有的fd,还没有返回一个可读写的掩码,则会调用schedule_timeout使调用select的进程(也就是current)进入睡眠。当设备驱动发现自身资源可读写后,会唤醒其等待队列上睡眠的进程。如果超过一定的超时时间(schedule_timeout指定)还是没被唤醒,则调用select的进程会重新被唤醒获得CPU,进而重新遍历fd,判断有没有就绪的fd
8)把fd_set从内核空间拷贝到用户空间
select 的几个缺点:
1)每次调用select,都需要把fd集合从用户空间拷贝到内核空间,这个开销在fd很多时会很大
2)每次调用select都需要在内核遍历传递进来的所有fd,这个开销在fd很多时也会很大
3)select支持的文件描述符数量太小了,默认是1024

2. poll的实现
和select非常相似,只是描述fd集合的方式不同,poll使用pollfd结构而不是select的fd_set结构。其他差不多。

select回调机制,把current加入fd对应的设备等待队列时使用的代码:
  1. static void __pollwait(struct file *filp, wait_queue_head_t *wait_address,  
  2.                 poll_table *p)  
  3. {  
  4.     struct poll_table_entry *entry = poll_get_entry(p);  
  5.     if (!entry)  
  6.         return;  
  7.     get_file(filp);  
  8.     entry->filp = filp;  
  9.     entry->wait_address = wait_address;  
  10.     //设置等待的进程为current,回调函数为default_wake_function
  11.     init_waitqueue_entry(&entry->wait, current);  
  12.     //添加到等待队列中
  13.     add_wait_queue(wait_address, &entry->wait);  
  14. }  

其中init_waitqueue_entry实现如下:

  1. static inline void init_waitqueue_entry(wait_queue_t *q, struct task_struct *p)  
  2. {  
  3.     q->flags = 0;  
  4.     q->private = p;  
  5.     q->func = default_wake_function;  
  6. }  
上面的代码是说建立一个poll_table_entry结构entry,首先把current设置为entry->wait的private成员,同时把default_wake_function设为entry->wait的func成员,然后把entry->wait链入到wait_address中(这个wait_address就是设备的等待队列,在tcp_poll中就是sk_sleep)。

3. epoll实现
我们重点看一下epoll是克服select/poll的三个明显缺点的。
在调用接口上,select和poll都只提供了一个函数——select或者poll函数。而epoll提供了三个函数:epoll_create、epoll_ctl和epoll_wait。epoll_create是创建一个epoll句柄,epoll_ctl是注册要监听的事件类型,epoll_wait是等待事件的产生。
对于第一个缺点,epoll的解决方案在epoll_ctl函数中。 每次注册新的事件到epoll句柄中时(在epoll_ctl中指定EPOLL_CTL_ADD),会把所有的fd拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll保证了每个fd在整个过程中只会拷贝一次
对于第二个缺点,epoll的解决方案不像select或poll一样每次都把current轮流加入fd对应的设备等待队列中,而只在epoll_ctl时把current挂一遍,并为每个fd指定一个回调函数,当设备就绪,唤醒等待队列上的等待者,就会调用这个回调函数,而这个 回调函数会把就绪的fd加入一个就绪链表。epoll_wait的工作实际上就是在这个就绪链表中查看有没有就绪的fd(就绪链表是否为空)
对于第三个缺点,epoll没有这个限制,它所 支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,具体可以cat /proc/sys/fs/file-max查看,在1GB内存的机器上大约是10万左右。

epoll回调机制:
  1. /* 
  2.  * This is the callback that is used to add our wait queue to the 
  3.  * target file wakeup lists. 
  4.  */  
  5. static void ep_ptable_queue_proc(struct file *file, wait_queue_head_t *whead,  
  6.                  poll_table *pt)  
  7. {  
  8.     struct epitem *epi = ep_item_from_epqueue(pt);  
  9.     struct eppoll_entry *pwq;  
  10.   
  11.     if (epi->nwait >= 0 && (pwq = kmem_cache_alloc(pwq_cache, GFP_KERNEL))) {  
  12.         init_waitqueue_func_entry(&pwq->wait, ep_poll_callback);  
  13.         pwq->whead = whead;  
  14.         pwq->base = epi;  
  15.         add_wait_queue(whead, &pwq->wait);  
  16.         list_add_tail(&pwq->llink, &epi->pwqlist);  
  17.         epi->nwait++;  
  18.     } else {  
  19.         /* We have to signal that an error occurred */  
  20.         epi->nwait = -1;  
  21.     }  
  22. }  

其中init_waitqueue_func_entry的实现如下:

  1. static inline void init_waitqueue_func_entry(wait_queue_t *q,  
  2.                     wait_queue_func_t func)  
  3. {  
  4.     q->flags = 0;  
  5.     q->private = NULL;  
  6.     q->func = func;  
  7. }  
可以看到,总体上和select实现是类似的,只不过它是创建了一个epoll_entry结构pwq,pwq->wait的func成员被设置成了回调函数ep_poll_callback(而不是default_wake_function,所以这里并不会有唤醒操作而只是执行回调函数),private成员被设置成了NULL。最后把pwq->wait链入到whead中(也就是设备等待队列中)。这样,当设备等待队列中的进程被唤醒时,就会调用ep_poll_callback了。
重新梳理一下epoll的流程:
当epoll_wait时,它会判断就绪链表中有没有就绪的fd,如果没有,则把current进程加入到一个等待队列(file->private_data->wq)中,并在一个while(1)循环中判断就绪队列是否为空,并结合schedule_timeout实现睡一会。如果current进程在睡眠中,设备就绪了,就会调用回调函数。在回调函数中,会把就绪的fd放到就绪链表,并唤醒等待队列(file->private_data->wq)中的current进程,这样epoll_wait又能继续执行下去了。
总结:
1)epoll调用epoll_wait轮询就绪链表,不像select、poll一样要轮询所有fd集合。在epoll中,设备就绪时,调用回调函数,就把就绪fd放入就绪链表中,并唤醒在epoll_wait中进入睡眠的进程。虽然都要睡眠和唤醒交替,但select和poll在醒着的时候要遍历整个fd集合,而epoll在醒着的时候只要判断一下就绪链表是否为空就行了,节省了大量的CPU时间,这就是回调机制带来的性能提升。
2)select、poll每次调用都要把fd集合从用户空间往内核空间拷贝一次,并且要把current往设备等待队列中挂一次,而epoll只要一次拷贝,而且把current往等待队列上挂也只是挂一次(在epoll_wait的开始,注意这里的等待队列并不是设备等待队列,只是一个epoll内部定义的等待队列)。这也能节省不少的开销。

参考资料:
http://www.linuxidc.com/Linux/2012-05/59873.htm
http://blog.csdn.net/lingfengtengfei/article/details/12398299


你可能感兴趣的:(unix,epoll,网络编程,select,poll)