三种IO多路复用模型-select、poll、epoll

IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,它就通知该进程。

IO多路复用适用如下场合:

1.当客户处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用。

2.当一个客户同时处理多个套接口时,而这种情况是可能的,但很少出现。

3.如果一个TCP服务器既要处理监听套接口,又要处理已连接套接口,一般也要用到I/O复用。

4.如果一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用。

5.如果一个服务器要处理多个服务或多个协议,一般要使用I/O复用。

目前支持I/O多路复用的系统调用有 select,pselect,poll,epoll,I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作但select,pselect,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

其中epoll是Linux所特有,而select则应该是POSIX所规定,一般操作系统均有实现。

一、select

1.基本原理

select 函数监视的文件描述符分3类,分别是writefds、readfds、和exceptfds。调用后select函数会阻塞,直到有描述符就绪(有数据 可读、可写、或者有except),或者超时(timeout指定等待时间,如果立即返回设为null即可),函数返回。当select函数返回后,可以通过遍历fdset,来找到就绪的描述符。

2.基本流程

三种IO多路复用模型-select、poll、epoll_第1张图片

首先创建一个socket,可以接收多个客户端的连接,每个连接就是一个文件描述符。文件描述符集合fds[]中每一个元素其实是一个随机的数字,代表这个文件描述符的编号,max用来保存其中最大的一个数字。

select(max+1,&rset,NULL,NULL,NULL)
  • 第一个参数max+1,表示从起始到最大文件描述符的下一个数字。
  • rset是一个1024位的bitmap,它用来表示哪个文件描述符是被监听的。(例如文件描述符有1,3,4,7,那么在bitmap中表示就是01011001…0,如果这个位置被监听了就置为1)
  • 第三个参数表示读文件描述符集合
  • 第四个参数表示写文件描述符集合
  • 第五个参数表示异常文件描述符集合

三种IO多路复用模型-select、poll、epoll_第2张图片

select执行步骤:

将rset拷贝一份到内核中,由内核判断哪个fd中有数据,如果一个或多个有数据就将其标记一下(修改bitmap)然后返回,用户进程通过遍历文件描述符集合得到数据。(由于bitmap会被修改,所以rset每次都会被重置)

select本质上是通过设置或者检查存放fd标志位的数据结构来进行下一步处理。

3.缺点

  • select最大的缺陷就是单个进程所打开的FD是有一定限制的,它由FD_SETSIZE设置,默认值是1024。

可以通过修改宏定义甚至重新编译内核的方式提升这一限制,但是这样也会造成效率的降低。

  • 对socket进行扫描时是线性扫描,即采用轮询的方法,效率较低。

当套接字比较多的时候,每次select()都要通过遍历FD_SETSIZE个Socket来完成调度,不管哪个Socket是活跃的,都遍历一遍。这会浪费很多CPU时间。如果能给套接字注册某个回调函数,当他们活跃时,自动完成相关操作,那就避免了轮询,这正是epoll做的。

  • 需要维护一个用来存放大量fd的数据结构(bitmap),会使得用户空间和内核空间在传递该结构时复制开销大。

二、poll

1.基本原理

poll本质上和select没有区别,它将用户传入的数组拷贝到内核空间,然后查询每个fd对应的设备状态,如果设备就绪则在设备等待队列中加入一项并继续遍历,如果遍历完所有fd后没有发现就绪设备,则挂起当前进程,直到设备就绪或者主动超时,被唤醒后它又要再次遍历fd。这个过程经历了多次无谓的遍历。

它没有最大连接数的限制,原因是它使用了pollfd结构体poll还有一个特点是“水平触发”,如果报告了fd后,没有被处理,那么下次poll时会再次报告该fd。

三种IO多路复用模型-select、poll、epoll_第3张图片

具体来说,poll没有再使用bitmap记录文件描述符fd的状态,而是将文件描述符fd转为新的结构pollfd,用其中的revents标记是否有数据。这样每次只用将revents重置就好了,可以节省一些性能,但是每次遍历文件描述符得到数据的时间复杂度仍是O(n)。

2.缺点

  • 大量的fd的数组被整体复制于用户态和内核地址空间之间,而不管这样的复制是不是有意义。
  • select和poll都需要在返回后,通过遍历文件描述符来获取已经就绪的socket。事实上,同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的描述符数量的增长,其效率也会线性下降。

三、epoll

1.基本原理

epoll中维护了一个注册表(位于用户态和内核态的共享内存中),通过epoll_ctl将文件描述符fd注册到表中。epoll使用“事件”的就绪通知方式一旦该fd就绪,内核就会采用类似callback的回调机制来激活该fd,epoll_wait便可以收到通知。

epoll支持水平触发和边缘触发,最大的特点在于边缘触发,它只告诉进程哪些fd刚刚变为就绪态,并且只会通知一次

三种IO多路复用模型-select、poll、epoll_第4张图片

epoll会将准备好的fd排到前面(方便获取),并返回一个数值,数值的大小就是准备好的fd数量。

2.水平/边缘触发

epoll对文件描述符的操作有两种模式:LT(level trigger)和ET(edge trigger)

(1)LT模式

LT是缺省的工作方式,并且同时支持block和no-block socket。在这种做法中,内核告诉你一个文件描述符是否就绪了,然后你可以对这个就绪的fd进行IO操作。如果你不作任何操作,内核还是会继续通知你的

(2)ET模式

ET是高速工作方式,只支持no-block socket。在这种模式下,当描述符从未就绪变为就绪时,内核通过epoll告诉你。然后它会假设你知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到你做了某些操作导致那个文件描述符不再为就绪状态了(比如你在发送,接收或者接收请求,或者发送接收的数据少于一定量时导致了一个EWOULDBLOCK 错误)。但是请注意,如果一直不对这个fd作IO操作(从而导致它再次变成未就绪),内核不会发送更多的通知(only once)

ET模式在很大程度上减少了epoll事件被重复触发的次数,因此效率要比LT模式高。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。

LT模式是默认模式,LT模式与ET模式的区别如下:

LT模式:当epoll_wait检测到描述符事件发生并将此事件通知应用程序,应用程序可以不立即处理该事件。下次调用epoll_wait时,会再次响应应用程序并通知此事件。

ET模式:当epoll_wait检测到描述符事件发生并将此事件通知应用程序,应用程序必须立即处理该事件。如果不处理,下次调用epoll_wait时,不会再次响应应用程序并通知此事件。

3.优点

  • 没有最大并发连接的限制,能打开的FD的上限远大于1024(1G的内存上能监听约10万个端口)。
  • 效率提升,不是轮询的方式,不会随着FD数目的增加效率下降。只有活跃可用的FD才会调用callback函数;即Epoll最大的优点就在于它只管你“活跃”的连接,而跟连接总数无关,因此在实际的网络环境中,Epoll的效率就会远远高于select和poll。
  • 通过共享内存,减少数据拷贝的开销。

推荐一个B站up的讲解free-coder。

你可能感兴趣的:(Linux,网络,tcp/ip,网络协议,linux)