文章参考自:http://blog.csdn.net/tennysonsky/article/details/45745887(秋叶原 — Mike VS 麦克《Linux系统编程——I/O多路复用select、poll、epoll的区别使用》)
此外,还有一篇好文:epoll机制:epoll_create、epoll_ctl、epoll_wait、close(鱼思故渊的专栏)
在上一篇中,我简单学习了 IO多路复用的基本概念,这里我将初学其三种实现手段:select,poll,epoll。
I/O 多路复用是为了解决进程或线程阻塞到某个 I/O 系统调用而出现的技术,使进程或线程不阻塞于某个特定的 I/O 系统调用。
select(),poll(),epoll()都是I/O多路复用的机制。I/O多路复用通过一种机制,可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪,就是这个文件描述符进行读写操作之前),能够通知程序进行相应的读写操作。但select(),poll(),epoll()本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。
与多线程(TPC(Thread Per Connection)模型)和多进程(典型的Apache模型(Process Per Connection,简称PPC))相比,I/O 多路复用的最大优势是系统开销小,系统不需要建立新的进程或者线程,也不必维护这些线程和进程。
所需头文件:
#include
函数原型:
int select(int nfds, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
监视并等待多个文件描述符的属性变化(可读、可写或错误异常)。select()函数监视的文件描述符分 3 类,分别是writefds、readfds、和 exceptfds。调用后 select() 函数会阻塞,直到有描述符就绪(有数据可读、可写、或者有错误异常),或者超时( timeout 指定等待时间),函数才返回。当 select()函数返回后,可以通过遍历 fdset,来找到就绪的描述符。
nfds: 要监视的文件描述符的范围,一般取监视的描述符数的最大值+1,如这里写 10, 这样的话,描述符 0,1, 2 …… 9 都会被监视,在 Linux 上最大值一般为1024。
readfd: 监视的可读描述符集合,只要有文件描述符读操作准备就绪,这个文件描述符就存储到这。
writefds: 监视的可写描述符集合。
exceptfds: 监视的错误异常描述符集合。
三个参数 readfds、writefds 和 exceptfds 指定我们要让内核监测读、写和异常条件的描述字。如果不需要使用某一个的条件,就可以把它设为NULL 。
几个较为重要的宏:
//清空集合
void FD_ZERO(fd_set *fdset);
//将一个给定的文件描述符加入集合之中
void FD_SET(int fd, fd_set *fdset);
//将一个给定的文件描述符从集合中删除
void FD_CLR(int fd, fd_set *fdset);
//检查集合中指定的文件描述符是否可以读写
int FD_ISSET(int fd, fd_set *fdset);
timeout: 超时时间,它告知内核等待所指定描述字中的任何一个就绪可花多少时间。其 timeval 结构用于指定这段时间的秒数和微秒数。
struct timeval
{
time_t tv_sec; /* 秒 */
suseconds_t tv_usec; /* 微秒 */
};
三种可能的函数返回情况:
1)永远等待下去:timeout 设置为空指针 NULL,且没有一个描述符准备好。
2)等待固定时间:timeout 设置为某个固定时间,在有一个描述符准备好时返回,如果时间到了,就算没有文件描述符准备就绪,这个函数也会返回 0。
3)不等待(不阻塞):检查描述字后立即返回,这称为轮询。为此,struct timeval变量的时间值指定为 0 秒 0 微秒,文件描述符属性无变化返回 0,有变化返回准备好的描述符数量。
函数返回值:
成功:就绪描述符的数目(同时修改readfds、writefds 和 exceptfds 三个参数),超时返回 0;
出错:-1。
下面用 Socket 举例,两个客户端,其中一个每隔 5s 发一个固定的字符串到服务器,另一个采集终端的键盘输入,将其发给服务器,一个服务器,使用 IO 多路复用处理这两个客户端。代码如下:
服务器:
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
const int BUFFER_SIZE = 4096;
const int SERVER_PORT = 2222;
inline int max(int a, int b){ return (a > b ? : a, b);}
int main()
{
int server_socket;
char buff1[BUFFER_SIZE];
char buff2[BUFFER_SIZE];
fd_set rfds;
struct timeval tv;
int ret;
int n;
server_socket = socket(AF_INET, SOCK_STREAM, 0);
assert(server_socket != -1);
struct sockaddr_in server_addr;
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
assert(bind(server_socket, (struct sockaddr *)&server_addr, sizeof(server_addr)) != -1);
assert(listen(server_socket, 5) != -1);
struct sockaddr_in client_addr1, client_addr2;
socklen_t client_addr_len = sizeof(struct sockaddr_in);
printf("waiting...\n");
//此处先建立两个 TCP 连接
int connfd1 = accept(server_socket, (struct sockaddr*)&client_addr1, &client_addr_len);
assert(connfd1 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr1.sin_addr), ntohs(client_addr1.sin_port));
int connfd2 = accept(server_socket, (struct sockaddr*)&client_addr2, &client_addr_len);
assert(connfd2 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr2.sin_addr), ntohs(client_addr2.sin_port));
while(1)
{
FD_ZERO(&rfds);
FD_SET(connfd1, &rfds);
FD_SET(connfd2, &rfds);
tv.tv_sec = 10;
tv.tv_usec = 0;
printf("select...\n");
ret = select(max(connfd1, connfd2) + 1, &rfds, NULL, NULL, NULL);
//ret = select(max(connfd1, connfd2) + 1, &rfds, NULL, NULL, &tv);
if(ret == -1)
perror("select()");
else if(ret > 0)
{
if(FD_ISSET(connfd1, &rfds))
{
n = recv(connfd1, buff1, BUFFER_SIZE, 0);
buff1[n] = '\0'; //注意手动添加字符串结束符
printf("connfd1: %s\n", buff1);
}
if(FD_ISSET(connfd2, &rfds))
{
n = recv(connfd2, buff2, BUFFER_SIZE, 0);
buff2[n] = '\0'; //注意手动添加字符串结束符
printf("connfd2: %s\n", buff2);
}
}
else
printf("time out\n");
}
return 0;
}
客户端1:
#include
#include
#include
#include
#include
#include
#include
#include
#include
const int BUFFER_SIZE = 4096;
const int SERVER_PORT = 2222;
int main()
{
int client_socket;
const char *server_ip = "127.0.0.1";
char buffSend[BUFFER_SIZE] = "I'm from d.cpp";
client_socket = socket(AF_INET, SOCK_STREAM, 0);
assert(client_socket != -1);
struct sockaddr_in server_addr;
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = inet_addr(server_ip);
assert(connect(client_socket, (struct sockaddr *)&server_addr, sizeof(server_addr)) != -1);
while(1)
{
assert(send(client_socket, buffSend, strlen(buffSend), 0) != -1);
sleep(5);
}
close(client_socket);
return 0;
}
客户端2:
#include
#include
#include
#include
#include
#include
#include
#include
#include
const int BUFFER_SIZE = 4096;
const int SERVER_PORT = 2222;
int main()
{
int client_socket;
const char *server_ip = "127.0.0.1";
char buffSend[BUFFER_SIZE];
client_socket = socket(AF_INET, SOCK_STREAM, 0);
assert(client_socket != -1);
struct sockaddr_in server_addr;
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = inet_addr(server_ip);
assert(connect(client_socket, (struct sockaddr *)&server_addr, sizeof(server_addr)) != -1);
while(1)
{
fgets(buffSend, BUFFER_SIZE, stdin);
assert(send(client_socket, buffSend, strlen(buffSend), 0) != -1);
}
close(client_socket);
return 0;
}
以上三份代码有缺陷,代码没有很好的结束方式,都是 while(1) 死循环,运行的结束需要用 Ctrl + c ⊙﹏⊙
select() 和 poll() 系统调用的本质一样,前者在 BSD UNIX 中引入的,后者在 System V 中引入的。poll() 的机制与 select() 类似,与 select() 在本质上没有多大差别,管理多个描述符也是进行轮询,根据描述符的状态进行处理,但是 poll() 没有最大文件描述符数量的限制(但是数量过大后性能也是会下降)。poll() 和 select() 同样存在一个缺点就是,包含大量文件描述符的数组被整体复制于用户态和内核的地址空间之间,而不论这些文件描述符是否就绪,它的开销随着文件描述符数量的增加而线性增大。
所需头文件:
#include
int poll(struct pollfd *fds, nfds_t nfds, int timeout);
监视并等待多个文件描述符的属性变化。
函数参数:
1)fds:与 select() 使用三个 fd_set 的方式不同,poll() 使用一个 pollfd 的指针实现。一个 pollfd 结构体数组,其中包括了你想监视的文件描述符和事件, 事件由结构中事件域 events 来确定,调用后实际发生的事件将被填写在结构体的 revents 域。
struct pollfd{
int fd; /* 文件描述符 */
short events; /* 等待的事件 */
short revents; /* 实际发生了的事件 */
};
_1、fd:每一个 pollfd 结构体指定了一个被监视的文件描述符,可以传递多个结构体,指示 poll() 监视多个文件描述符。
_2、events:每个结构体的 events 域是监视该文件描述符的事件掩码,由用户来设置这个域。
_3、revents:revents 域是文件描述符的操作结果事件掩码,内核在调用返回时设置这个域。events 域中请求的任何事件都可能在 revents 域中返回。
事件的掩码取值如下:
POLLIN | POLLPRI 等价于 select() 的读事件,POLLOUT | POLLWRBAND 等价于 select() 的写事件。POLLIN 等价于 POLLRDNORM | POLLRDBAND,而 POLLOUT 则等价于 POLLWRNORM 。例如,要同时监视一个文件描述符是否可读和可写,我们可以设置 events 为 POLLIN | POLLOUT。
每个结构体的 events 域是由用户来设置,告诉内核我们关注的是什么,而 revents 域是返回时内核设置的,以说明对该描述符发生了什么事件。
2)nfds:用来指定第一个参数数组元素个数。
3)timeout: 指定等待的毫秒数,无论 I/O 是否准备好,poll() 都会返回。
函数返回值:
成功时,poll() 返回结构体中 revents 域不为 0 的文件描述符个数,如果在超时前没有任何事件发生,poll()返回 0;
失败时,poll() 返回 -1。
此处我们将上面的例子用 poll() 重新实现如下,只用修改服务器端代码:
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
const int BUFFER_SIZE = 4096;
const int SERVER_PORT = 2222;
int main()
{
int server_socket;
char buff1[BUFFER_SIZE];
char buff2[BUFFER_SIZE];
struct timeval tv;
int ret;
int n;
server_socket = socket(AF_INET, SOCK_STREAM, 0);
assert(server_socket != -1);
struct sockaddr_in server_addr;
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
assert(bind(server_socket, (struct sockaddr *)&server_addr, sizeof(server_addr)) != -1);
assert(listen(server_socket, 5) != -1);
struct sockaddr_in client_addr1, client_addr2;
socklen_t client_addr_len = sizeof(struct sockaddr_in);
printf("waiting...\n");
int connfd1 = accept(server_socket, (struct sockaddr*)&client_addr1, &client_addr_len);
assert(connfd1 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr1.sin_addr), ntohs(client_addr1.sin_port));
int connfd2 = accept(server_socket, (struct sockaddr*)&client_addr2, &client_addr_len);
assert(connfd2 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr2.sin_addr), ntohs(client_addr2.sin_port));
struct pollfd rfds[2];
rfds[0].fd = connfd1;
rfds[0].events = POLLIN;
rfds[1].fd = connfd2;
rfds[1].events = POLLIN;
tv.tv_sec = 10;
tv.tv_usec = 0;
while(1)
{
printf("poll...\n");
ret = poll(rfds, 2, -1);
if(ret == -1)
perror("poll()");
else if(ret > 0)
{
if((rfds[0].revents & POLLIN) == POLLIN)
{
n = recv(connfd1, buff1, BUFFER_SIZE, 0);
buff1[n] = '\0';
printf("connfd1: %s\n", buff1);
}
if((rfds[1].revents & POLLIN) == POLLIN)
{
n = recv(connfd2, buff2, BUFFER_SIZE, 0);
buff2[n] = '\0';
printf("connfd2: %s\n", buff2);
}
}
else
printf("time out\n");
}
return 0;
}
epoll 是在内核 2.6 中提出的,是之前的 select() 和 poll() 的增强版本。相对于 select() 和 poll() 来说,epoll 更加灵活,没有描述符限制。epoll 使用一个文件描述符管理多个描述符,将用户关心的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的 copy 只需一次。
epoll 操作过程需要三个接口,分别如下:
#include
int epoll_create(int size);
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
功能:
该函数生成一个 epoll 专用的文件描述符。
参数:
size: 用来告诉内核这个监听的数目一共有多大,参数 size 并不是限制了 epoll 所能监听的描述符最大个数,只是对内核初始分配内部数据结构的一个建议。自从 linux 2.6.8 之后,size 参数是被忽略的,也就是说可以填只有大于 0 的任意值。
返回值:
成功:epoll 专用的文件描述符
失败:-1
int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
功能:
epoll 的事件注册函数,它不同于 select() 是在监听事件时告诉内核要监听什么类型的事件,而是在这里先注册要监听的事件类型。
参数:
epfd: epoll 专用的文件描述符,epoll_create()的返回值
op: 表示动作,用三个宏来表示:
EPOLL_CTL_ADD:注册新的 fd 到 epfd 中;
EPOLL_CTL_MOD:修改已经注册的fd的监听事件;
EPOLL_CTL_DEL:从 epfd 中删除一个 fd;
fd: 需要监听的文件描述符
event: 告诉内核要监听什么事件,struct epoll_event 结构如:
// 保存触发事件的某个文件描述符相关的数据(与具体使用方式有关) typedef union epoll_data { void *ptr; int fd; __uint32_t u32; __uint64_t u64; } epoll_data_t; // 感兴趣的事件和被触发的事件 struct epoll_event { __uint32_t events; /* Epoll events */ epoll_data_t data; /* User data variable */ };
events 可以是以下几个宏的集合:
EPOLLIN :表示对应的文件描述符可以读(包括对端 SOCKET 正常关闭);
EPOLLOUT:表示对应的文件描述符可以写;
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);
EPOLLERR:表示对应的文件描述符发生错误;
EPOLLHUP:表示对应的文件描述符被挂断;
EPOLLET :将 EPOLL 设为边缘触发(Edge Trigger)模式,这是相对于水平触发(Level Trigger)来说的。
EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个 socket 的话,需要再次把这个 socket 加入到 EPOLL 队列里
返回值:
成功:0
失败:-1
int epoll_wait( int epfd, struct epoll_event * events, int maxevents, int timeout );
功能:
等待事件的产生,收集在 epoll 监控的事件中已经发送的事件,类似于 select() 调用。
参数:
epfd: epoll 专用的文件描述符,epoll_create()的返回值
events: 分配好的 epoll_event 结构体数组,epoll 将会把发生的事件赋值到events 数组中(events 不可以是空指针,内核只负责把数据复制到这个 events 数组中,不会去帮助我们在用户态中分配内存)。
maxevents: maxevents 告之内核这个 events 有多少个 。
timeout: 超时时间,单位为毫秒,为 -1 时,函数为阻塞。
返回值:
成功:返回需要处理的事件数目,如返回 0 表示已超时
epoll 对文件描述符的操作有两种模式:LT(level trigger)和 ET(edge trigger)。LT 模式是默认模式,LT 模式与 ET 模式的区别如下:失败:-1
LT 模式:支持block和no-block socket。当 epoll_wait 检测到描述符事件发生并将此事件通知应用程序,应用程序可以不立即处理该事件。下次调用 epoll_wait 时,会再次响应应用程序并通知此事件。效率会低于ET触发,尤其在大并发,大流量的情况下。但是LT对代码编写要求比较低,不容易出现问题。LT模式服务编写上的表现是:只要有数据没有被获取,内核就不断通知你,因此不用担心事件丢失的情况。
ET 模式:只支持no-block socket。当 epoll_wait 检测到描述符事件发生并将此事件通知应用程序,应用程序必须立即处理该事件。如果不处理,下次调用 epoll_wait 时,不会再次响应应用程序并通知此事件。该模式效率非常高,尤其在高并发,大流量的情况下,会比LT少很多epoll的系统调用。但是对编程要求高,需要细致的处理每个请求,否则容易发生丢失事件的情况。
接下来,我们将上面的例子,改为用 epoll 实现:
#include
#include
#include
#include
#include
#include
#include
#include
#include
#include
const int BUFFER_SIZE = 4096;
const int SERVER_PORT = 2222;
int main()
{
int server_socket;
char buff1[BUFFER_SIZE];
char buff2[BUFFER_SIZE];
struct timeval tv;
int ret;
int n, i;
server_socket = socket(AF_INET, SOCK_STREAM, 0);
assert(server_socket != -1);
struct sockaddr_in server_addr;
memset(&server_addr, 0, sizeof(server_addr));
server_addr.sin_family = AF_INET;
server_addr.sin_port = htons(SERVER_PORT);
server_addr.sin_addr.s_addr = htonl(INADDR_ANY);
assert(bind(server_socket, (struct sockaddr *)&server_addr, sizeof(server_addr)) != -1);
assert(listen(server_socket, 5) != -1);
struct sockaddr_in client_addr1, client_addr2;
socklen_t client_addr_len = sizeof(struct sockaddr_in);
printf("waiting...\n");
int connfd1 = accept(server_socket, (struct sockaddr*)&client_addr1, &client_addr_len);
assert(connfd1 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr1.sin_addr), ntohs(client_addr1.sin_port));
int connfd2 = accept(server_socket, (struct sockaddr*)&client_addr2, &client_addr_len);
assert(connfd2 != -1);
printf("connect from %s:%d\n", inet_ntoa(client_addr2.sin_addr), ntohs(client_addr2.sin_port));
tv.tv_sec = 10;
tv.tv_usec = 0;
struct epoll_event event;
struct epoll_event wait_event[2];
int epfd = epoll_create(10);
assert(epfd != -1);
event.data.fd = connfd1;
event.events = EPOLLIN;
assert(epoll_ctl(epfd, EPOLL_CTL_ADD, connfd1, &event) != -1);
event.data.fd = connfd2;
event.events = EPOLLIN;
assert(epoll_ctl(epfd, EPOLL_CTL_ADD, connfd2, &event) != -1);
while(1)
{
printf("epoll...\n");
ret = epoll_wait(epfd, wait_event, 2, -1);
if(ret == -1)
perror("epoll()");
else if(ret > 0)
{
for(i = 0; i < ret; ++i)
{
if(wait_event[i].data.fd == connfd1 && (wait_event[i].events & EPOLLIN) == EPOLLIN)
{
n = recv(connfd1, buff1, BUFFER_SIZE, 0);
buff1[n] = '\0';
printf("connfd1: %s\n", buff1);
}
else if(wait_event[i].data.fd == connfd2 && (wait_event[i].events & EPOLLIN) == EPOLLIN)
{
n = recv(connfd2, buff2, BUFFER_SIZE, 0);
buff2[n] = '\0';
printf("connfd2: %s\n", buff2);
}
}
}
else
printf("time out\n");
}
return 0;
}
下面分析 select、poll、epoll之间的优缺点:
select:
缺点:
1)每次调用select,都存在 fd 集合在用户态与内核态之间的拷贝,I/O 的效率会随着监视 fd 的数量的增长而线性下降。
2)select()调用的内部,需要用轮询的方式去完整遍历每一个 fd,如果遍历完所有 fd 后没有发现就绪 fd,则挂起当前进程,直到有 fd 就绪或者主动超时(使用 schedule_timeout 实现睡一会儿,判断一次(被定时器唤醒,注意与 select() 函数里面的 timeout 参数区分作用)的效果),被唤醒后它又要再次遍历 fd (直到有 fd 就绪或 select() 函数超时)。这个过程经历了多次无谓的遍历。CPU的消耗会随着监视 fd 的数量的增长而线性增加。
步骤总结如下:
1)先把全部fd扫一遍;
2)如果发现有可用的fd,跳到5;
3)如果没有,当前进程去睡觉xx秒(schedule_timeout机制);
4)xx秒后自己醒了,或者状态变化的fd唤醒了自己,跳到1;
5)结束循环体,返回。(注意函数的返回也可能是 timeout 的超时)
3)select支持的文件描述符数量太小了,默认是1024。
4)由于 select 参数输入和输出使用同样的 fd_set ,导致每次 select() 之前都要重新初始化要监视的 fd_set,开销也会比较大。
poll:
poll 的实现和 select 非常相似,它同样存在 fd 集合在用户态和内核态间的拷贝,且在函数内部需要轮询整个 fd 集合。区别于select 的只是描述fd集合的方式不同,poll使用pollfd数组而不是select的fd_set结构,所以poll克服了select文件描述符数量的限制,此外,poll 的 polldf 结构体中分别用 events 和 revents 来存储输入和输出,较之 select() 不用每次调用 poll() 之前都要重新初始化需要监视的事件。
epoll:
epoll是一种 Reactor 模式,提供了三个函数,epoll_create(),epoll_ctl() 和 epoll_wait()。
优点:
1)对于上面的第一个缺点,epoll 的解决方案在 epoll_ctl() 函数中。每次注册新的事件到 epoll 描述符中时,会把该 fd 拷贝进内核,而不是在epoll_wait的时候重复拷贝。epoll 保证了每个fd在整个过程中只会拷贝一次。
2)对于第二个缺点,epoll 的解决方案不像 select 或 poll 一样轮询 fd,而只在 epoll_ctl 时把要监控的 fd 挂一遍,并为每个 fd 指定一个回调函数,当设备就绪,这个回调函数把就绪的 fd 加入一个就绪链表。epoll_wait 的工作实际上就是在这个就绪链表中查看有没有就绪的 fd,也即 epoll_wait 只关心“活跃”的描述符,而不用像 select() 和 poll() 需要遍历所有 fd,它需要不断轮询就绪链表,期间也可能多次睡眠和唤醒(类似与 select, poll),但终究它的轮询只用判断就续表是否为空即可,其CPU的消耗不会随着监视 fd 的数量的增长而线性增加,这就是回调机制的优势,也正是 epoll 的魅力所在。
同理,select() 和 poll() 函数返回后, 处理就绪 fd 的方法还是轮询,如下:
int res = select(maxfd+1, &readfds, NULL, NULL, 120);
if (res > 0)
{
for (int i = 0; i < MAX_CONNECTION; i++)
{
if (FD_ISSET(allConnection[i], &readfds))
{
handleEvent(allConnection[i]);
}
}
}
// if(res == 0) handle timeout, res < 0 handle error
而 epoll() 只需要从就绪链表中处理就绪的 fd:
int res = epoll_wait(epfd, events, 20, -1);
for (int i = 0; i < res;i++)
{
handleEvent(events[n]);
}
3)对于第三个缺点,epoll没有这个限制,它所支持的FD上限是最大可以打开文件的数目,这个和系统限制有关,linux里面可以用ulimit查看文件打开数限制。
缺点:epoll是 linux 特有的,而 select 和 poll 是在 POSIX 中规定的,跨平台支持更好。
综上:
select 、poll、epoll 的使用要根据具体的使用场合,并不是 epoll 的性能就一定好,因为回调函数也是有消耗的,当 socket 连接较少时或者是即使 socket 连接很多,但是连接基本都是活跃的情况下,select / poll 的性能与 epoll 是差不多的。即如果没有大量的 idle-connection 或者 dead-connection,epoll 的效率并不会比 select/poll 高很多,但是当遇到大量的 idle-connection,就会发现epoll 的效率大大高于 select/poll。