IO模型(同步,异步,阻塞,非阻塞)

最近看到一篇文章讲IO模型,联系之前在网络编程卷1中所见,现总结如下,一些直接复制自这篇文章里。

http://blog.csdn.net/historyasamirror/article/details/5778378

这个问题在不同的背景之下讨论的结果不一致,本文讨论的背景是Linux环境下的network IO。

参考unix网络编程卷1第6.2节I/O模型,作者在这节中详细说明了各种IO的特点和区别。

 

在文章中一共比较了五种IO Model:
    blocking IO              阻塞IO
    nonblocking IO       非阻塞IO
    IO multiplexing       IO复用 
    signal driven IO      信号驱动式
    asynchronous IO    异步IO
由于信号驱动式在实际中并不常用,所以我这只提及剩下的四种IO Model。

对于一个network IO (这里我们以read举例),它会涉及到两个系统对象,一个是调用这个IO的进程,另一个就是系统内核。一个输入(read)操作通常包含两个不同的阶段:
 1 等待数据准备
 2 从内核向进程复制数据
记住这两点很重要,因为这些IO Model的区别就是在两个阶段上各有不同的情况。对于一个套接字的输入操作,第一步涉及等待数据从网络中到达,第二步涉及把数据从内核缓冲区复制到应用程序进程缓冲区。

 

阻塞IO
在linux中最流行的IO模型,默认情况下所有的socket都是阻塞的,一个典型的读操作流程大概是这样:

IO模型(同步,异步,阻塞,非阻塞)_第1张图片

当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据。对于network io来说,很多时候数据在一开始还没有到达(比如,还没有收到一个完整的UDP包),这个时候kernel就要等待足够的数据到来。而在用户进程这边,整个进程会被阻塞。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来。
所以,blocking IO的特点就是在IO执行的两个阶段都被block了。

 

非阻塞IO

linux下,可以通过设置socket使其变为非阻塞。当对非阻塞执行读操作时,流程是这个样子:


从图中可以看出,当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲 ,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是它可以再次发送read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它马上就将数据拷贝到了用户内存,然后返回。
所以,用户进程其实是需要不断的主动询问kernel数据好了没有。

非阻塞IO这么不断轮询会耗费大量的CPU时间,因为不断的系统调用以及返回错误会使得进程在用户空间和内核空间来回切换,但是这种IO模型偶尔也会遇到。

 

IO复用

IO复用这个词可能有点陌生,但是如果我说select,epoll,大概就都能明白了。有些地方也称这种IO方式为event driven IO。我们都知道,select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select/epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。它的流程如图:


当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。
这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。(多说一句。所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)
在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

 

异步IO

linux下的asynchronous IO其实用得很少。先看一下它的流程:

IO模型(同步,异步,阻塞,非阻塞)_第2张图片

用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。


到目前为止,已经将四个IO Model都介绍完了。现在回过头来回答最初的那几个问题:blocking和non-blocking的区别在哪,synchronous IO和asynchronous IO的区别在哪。
先回答最简单的这个:blocking vs non-blocking。前面的介绍中其实已经很明确的说明了这两者的区别。调用blocking IO会一直block住对应的进程直到操作完成,而non-blocking IO在kernel还准备数据的情况下会立刻返回。

在说明synchronous IO和asynchronous IO的区别之前,需要先给出两者的定义。Stevens给出的定义(其实是POSIX的定义)是这样子的:
    A synchronous I/O operation causes the requesting process to be blocked until that I/O operationcompletes;

同步IO操作导致请求进程阻塞,直到IO操作完成。
    An asynchronous I/O operation does not cause the requesting process to be blocked;

异步操作不导致请求进程阻塞。 
两者的区别就在于synchronous IO做”IO operation”的时候会将process阻塞。按照这个定义,之前所述的阻塞IO,非阻塞IO,IO复用都属于同步IO(包括信号驱动式IO)。有人可能会说,non-blocking IO并没有被block啊。这里有个非常“狡猾”的地方,定义中所指的”IO operation”是指真实的IO操作,就是例子中的recvfrom这个system call。non-blocking IO在执行recvfrom这个system call的时候,如果kernel的数据没有准备好,这时候不会block进程。但是,当kernel中数据准备好的时候,recvfrom会将数据从kernel拷贝到用户内存中,这个时候进程是被block了,在这段时间内,进程是被block的。而asynchronous IO则不一样,当进程发起IO 操作之后,就直接返回再也不理睬了,直到kernel发送一个信号,告诉进程说IO完成。在这整个过程中,进程完全没有被block。

各个IO Model的比较如图所示:

IO模型(同步,异步,阻塞,非阻塞)_第3张图片

经过上面的介绍,会发现non-blocking IO和asynchronous IO的区别还是很明显的。在non-blocking IO中,虽然进程大部分时间都不会被block,但是它仍然要求进程去主动的check,并且当数据准备完成以后,也需要进程主动的再次调用recvfrom来将数据拷贝到用户内存。而asynchronous IO则完全不同。它就像是用户进程将整个IO操作交给了他人(kernel)完成,然后他人做完后发信号通知。在此期间,用户进程不需要去检查IO操作的状态,也不需要主动的去拷贝数据。

你可能感兴趣的:(unix,IO,异步,网络编程)