从今天开始我们来聊聊Netty的那些事儿,我们都知道Netty是一个高性能异步事件驱动的网络框架。
它的设计异常优雅简洁,扩展性高,稳定性强。拥有非常详细完整的用户文档。
同时内置了很多非常有用的模块基本上做到了开箱即用,用户只需要编写短短几行代码,就可以快速构建出一个具有高吞吐
,低延时
,更少的资源消耗
,高性能(非必要的内存拷贝最小化)
等特征的高并发网络应用程序。
本文我们来探讨下支持Netty具有高吞吐
,低延时
特征的基石----netty的网络IO模型
。
由Netty的网络IO模型
开始,我们来正式揭开本系列Netty源码解析的序幕:
网络包接收流程
- 当
网络数据帧
通过网络传输到达网卡时,网卡会将网络数据帧通过DMA的方式
放到环形缓冲区RingBuffer
中。
RingBuffer
是网卡在启动的时候分配和初始化
的环形缓冲队列
。当RingBuffer满
的时候,新来的数据包就会被丢弃
。我们可以通过ifconfig
命令查看网卡收发数据包的情况。其中overruns
数据项表示当RingBuffer满
时,被丢弃的数据包
。如果发现出现丢包情况,可以通过ethtool命令
来增大RingBuffer长度。
- 当
DMA操作完成
时,网卡会向CPU发起一个硬中断
,告诉CPU
有网络数据到达。CPU调用网卡驱动注册的硬中断响应程序
。网卡硬中断响应程序会为网络数据帧创建内核数据结构sk_buffer
,并将网络数据帧拷贝
到sk_buffer
中。然后发起软中断请求
,通知内核
有新的网络数据帧到达。
sk_buff
缓冲区,是一个维护网络帧结构的双向链表
,链表中的每一个元素都是一个网络帧
。虽然 TCP/IP 协议栈分了好几层,但上下不同层之间的传递,实际上只需要操作这个数据结构中的指针,而无需进行数据复制
。
- 内核线程
ksoftirqd
发现有软中断请求到来,随后调用网卡驱动注册的poll函数
,poll函数
将sk_buffer
中的网络数据包
送到内核协议栈中注册的ip_rcv函数
中。
每个CPU
会绑定一个ksoftirqd
内核线程专门
用来处理软中断响应
。2个 CPU 时,就会有ksoftirqd/0
和ksoftirqd/1
这两个内核线程。这里有个事情需要注意下: 网卡接收到数据后,当
DMA拷贝完成
时,向CPU发出硬中断
,这时哪个CPU
上响应了这个硬中断
,那么在网卡硬中断响应程序
中发出的软中断请求
也会在这个CPU绑定的ksoftirqd线程
中响应。所以如果发现Linux软中断,CPU消耗都集中在一个核上
的话,那么就需要调整硬中断的CPU亲和性
,来将硬中断打散
到不通的CPU核
上去。
- 在
ip_rcv函数
中也就是上图中的网络层
,取出
数据包的IP头
,判断该数据包下一跳的走向,如果数据包是发送给本机的,则取出传输层的协议类型(TCP
或者UDP
),并去掉
数据包的IP头
,将数据包交给上图中得传输层
处理。
传输层的处理函数:TCP协议
对应内核协议栈中注册的tcp_rcv函数
,UDP协议
对应内核协议栈中注册的udp_rcv函数
。
- 当我们采用的是
TCP协议
时,数据包到达传输层时,会在内核协议栈中的tcp_rcv函数
处理,在tcp_rcv函数中去掉
TCP头,根据四元组(源IP,源端口,目的IP,目的端口)
查找对应的Socket
,如果找到对应的Socket则将网络数据包中的传输数据拷贝到Socket
中的接收缓冲区
中。如果没有找到,则发送一个目标不可达
的icmp
包。 - 内核在接收网络数据包时所做的工作我们就介绍完了,现在我们把视角放到应用层,当我们程序通过系统调用
read
读取Socket接收缓冲区
中的数据时,如果接收缓冲区中没有数据
,那么应用程序就会在系统调用上阻塞
,直到Socket接收缓冲区有数据
,然后CPU
将内核空间
(Socket接收缓冲区)的数据拷贝
到用户空间
,最后系统调用read返回
,应用程序读取
数据。
性能开销
从内核处理网络数据包接收的整个过程来看,内核帮我们做了非常之多的工作,最终我们的应用程序才能读取到网络数据。
随着而来的也带来了很多的性能开销,结合前面介绍的网络数据包接收过程我们来看下网络数据包接收的过程中都有哪些性能开销:
- 应用程序通过
系统调用
从用户态
转为内核态
的开销以及系统调用返回
时从内核态
转为用户态
的开销。 - 网络数据从
内核空间
通过CPU拷贝
到用户空间
的开销。 - 内核线程
ksoftirqd
响应软中断
的开销。 CPU
响应硬中断
的开销。DMA拷贝
网络数据包到内存
中的开销。
网络包发送流程
- 当我们在应用程序中调用
send
系统调用发送数据时,由于是系统调用所以线程会发生一次用户态到内核态的转换,在内核中首先根据fd
将真正的Socket找出,这个Socket对象中记录着各种协议栈的函数地址,然后构造struct msghdr
对象,将用户需要发送的数据全部封装在这个struct msghdr
结构体中。 调用内核协议栈函数
inet_sendmsg
,发送流程进入内核协议栈处理。在进入到内核协议栈之后,内核会找到Socket上的具体协议的发送函数。比如:我们使用的是
TCP协议
,对应的TCP协议
发送函数是tcp_sendmsg
,如果是UDP协议
的话,对应的发送函数为udp_sendmsg
。在
TCP协议
的发送函数tcp_sendmsg
中,创建内核数据结构sk_buffer
,将struct msghdr
结构体中的发送数据拷贝
到sk_buffer
中。调用tcp_write_queue_tail
函数获取Socket
发送队列中的队尾元素,将新创建的sk_buffer
添加到Socket
发送队列的尾部。Socket
的发送队列是由sk_buffer
组成的一个双向链表
。
发送流程走到这里,用户要发送的数据总算是从用户空间
拷贝到了内核
中,这时虽然发送数据已经拷贝
到了内核Socket
中的发送队列
中,但并不代表内核会开始发送,因为TCP协议
的流量控制
和拥塞控制
,用户要发送的数据包并不一定
会立马被发送出去,需要符合TCP协议
的发送条件。如果没有达到发送条件
,那么本次send
系统调用就会直接返回。
- 如果符合发送条件,则开始调用
tcp_write_xmit
内核函数。在这个函数中,会循环获取Socket
发送队列中待发送的sk_buffer
,然后进行拥塞控制
以及滑动窗口的管理
。 将从
Socket
发送队列中获取到的sk_buffer
重新拷贝一份
,设置sk_buffer副本
中的TCP HEADER
。sk_buffer
内部其实包含了网络协议中所有的header
。在设置TCP HEADER
的时候,只是把指针指向sk_buffer
的合适位置。后面再设置IP HEADER
的时候,在把指针移动一下就行,避免频繁的内存申请和拷贝,效率很高。
为什么不直接使用Socket
发送队列中的sk_buffer
而是需要拷贝一份呢?
因为TCP协议
是支持丢包重传
的,在没有收到对端的ACK
之前,这个sk_buffer
是不能删除的。内核每次调用网卡发送数据的时候,实际上传递的是sk_buffer
的拷贝副本
,当网卡把数据发送出去后,sk_buffer
拷贝副本会被释放。当收到对端的ACK
之后,Socket
发送队列中的sk_buffer
才会被真正删除。
当设置完
TCP头
后,内核协议栈传输层
的事情就做完了,下面通过调用ip_queue_xmit
内核函数,正式来到内核协议栈网络层
的处理。检查
Socket
中是否有缓存路由表,如果没有的话,则查找路由项,并缓存到Socket
中。接着在把路由表设置到sk_buffer
中。通过
route
命令可以查看本机路由配置。- 将
sk_buffer
中的指针移动到IP头
位置上,设置IP头
。 执行
netfilters
过滤。过滤通过之后,如果数据大于MTU
的话,则执行分片。如果你使用
iptables
配置了一些规则,那么这里将检测是否命中
规则。 如果你设置了非常复杂的 netfilter 规则
,在这个函数里将会导致你的线程CPU 开销
会极大增加
。
- 内核协议栈
网络层
的事情处理完后,现在发送流程进入了到了邻居子系统
,邻居子系统
位于内核协议栈中的网络层
和网络接口层
之间,用于发送ARP请求
获取MAC地址
,然后将sk_buffer
中的指针移动到MAC头
位置,填充MAC头
。 经过
邻居子系统
的处理,现在sk_buffer
中已经封装了一个完整的数据帧
,随后内核将sk_buffer
交给网络设备子系统
进行处理。网络设备子系统
主要做以下几项事情:- 选择发送队列(
RingBuffer
)。因为网卡拥有多个发送队列,所以在发送前需要选择一个发送队列。 - 将
sk_buffer
添加到发送队列中。 - 循环从发送队列(
RingBuffer
)中取出sk_buffer
,调用内核函数sch_direct_xmit
发送数据,其中会调用网卡驱动程序
来发送数据。
- 选择发送队列(
以上过程全部是用户线程的内核态在执行,占用的CPU时间是系统态时间(
sy
),当分配给用户线程的CPU quota
用完的时候,会触发NET_TX_SOFTIRQ
类型的软中断,内核线程ksoftirqd
会响应这个软中断,并执行NET_TX_SOFTIRQ
类型的软中断注册的回调函数net_tx_action
,在回调函数中会执行到驱动程序函数dev_hard_start_xmit
来发送数据。注意:当触发
NET_TX_SOFTIRQ
软中断来发送数据时,后边消耗的 CPU 就都显示在si
这里了,不会消耗用户进程的系统态时间(sy
)了。从这里可以看到网络包的发送过程和接受过程是不同的,在介绍网络包的接受过程时,我们提到是通过触发
NET_RX_SOFTIRQ
类型的软中断在内核线程ksoftirqd
中执行内核网络协议栈
接受数据。而在网络数据包的发送过程中是用户线程的内核态
在执行内核网络协议栈
,只有当线程的CPU quota
用尽时,才触发NET_TX_SOFTIRQ
软中断来发送数据。在整个网络包的发送和接受过程中,
NET_TX_SOFTIRQ
类型的软中断只会在发送网络包时并且当用户线程的CPU quota
用尽时,才会触发。剩下的接受过程中触发的软中断类型以及发送完数据触发的软中断类型均为NET_RX_SOFTIRQ
。
所以这就是你在服务器上查看/proc/softirqs
,一般NET_RX
都要比NET_TX
大很多的的原因。
- 现在发送流程终于到了网卡真实发送数据的阶段,前边我们讲到无论是用户线程的内核态还是触发
NET_TX_SOFTIRQ
类型的软中断在发送数据的时候最终会调用到网卡的驱动程序函数dev_hard_start_xmit
来发送数据。在网卡驱动程序函数dev_hard_start_xmit
中会将sk_buffer
映射到网卡可访问的内存 DMA 区域
,最终网卡驱动程序通过DMA
的方式将数据帧
通过物理网卡发送出去。 - 当数据发送完毕后,还有最后一项重要的工作,就是清理工作。数据发送完毕后,网卡设备会向
CPU
发送一个硬中断,CPU
调用网卡驱动程序注册的硬中断响应程序
,在硬中断响应中触发NET_RX_SOFTIRQ
类型的软中断,在软中断的回调函数igb_poll
中清理释放sk_buffer
,清理网卡
发送队列(RingBuffer
),解除 DMA 映射。
无论
硬中断
是因为有数据要接收
,还是说发送完成通知
,从硬中断触发的软中断都是NET_RX_SOFTIRQ
。这里释放清理的只是
sk_buffer
的副本,真正的sk_buffer
现在还是存放在Socket
的发送队列中。前面在传输层
处理的时候我们提到过,因为传输层需要保证可靠性
,所以sk_buffer
其实还没有删除。它得等收到对方的 ACK 之后才会真正删除。
性能开销
前边我们提到了在网络包接收过程中涉及到的性能开销,现在介绍完了网络包的发送过程,我们来看下在数据包发送过程中的性能开销:
- 和接收数据一样,应用程序在调用
系统调用send
的时候会从用户态
转为内核态
以及发送完数据后,系统调用
返回时从内核态
转为用户态
的开销。 - 用户线程内核态
CPU quota
用尽时触发NET_TX_SOFTIRQ
类型软中断,内核响应软中断的开销。 - 网卡发送完数据,向
CPU
发送硬中断,CPU
响应硬中断的开销。以及在硬中断中发送NET_RX_SOFTIRQ
软中断执行具体的内存清理动作。内核响应软中断的开销。 内存拷贝的开销。我们来回顾下在数据包发送的过程中都发生了哪些内存拷贝:
- 在内核协议栈的传输层中,
TCP协议
对应的发送函数tcp_sendmsg
会申请sk_buffer
,将用户要发送的数据拷贝
到sk_buffer
中。 - 在发送流程从传输层到网络层的时候,会
拷贝
一个sk_buffer副本
出来,将这个sk_buffer副本
向下传递。原始sk_buffer
保留在Socket
发送队列中,等待网络对端ACK
,对端ACK
后删除Socket
发送队列中的sk_buffer
。对端没有发送ACK
,则重新从Socket
发送队列中发送,实现TCP协议
的可靠传输。 - 在网络层,如果发现要发送的数据大于
MTU
,则会进行分片操作,申请额外的sk_buffer
,并将原来的sk_buffer拷贝
到多个小的sk_buffer中。
- 在内核协议栈的传输层中,
再谈(阻塞,非阻塞)与(同步,异步)
在我们聊完网络数据的接收和发送过程后,我们来谈下IO中特别容易混淆的概念:阻塞与同步
,非阻塞与异步
。
网上各种博文还有各种书籍中有大量的关于这两个概念的解释,但是笔者觉得还是不够形象化,只是对概念的生硬解释,如果硬套概念的话,其实感觉阻塞与同步
,非阻塞与异步
还是没啥区别,时间长了,还是比较模糊容易混淆。
所以笔者在这里尝试换一种更加形象化,更加容易理解记忆的方式来清晰地解释下什么是阻塞与非阻塞
,什么是同步与异步
。
经过前边对网络数据包接收流程的介绍,在这里我们可以将整个流程总结为两个阶段:
- 数据准备阶段: 在这个阶段,网络数据包到达网卡,通过
DMA
的方式将数据包拷贝到内存中,然后经过硬中断,软中断,接着通过内核线程ksoftirqd
经过内核协议栈的处理,最终将数据发送到内核Socket
的接收缓冲区中。 - 数据拷贝阶段: 当数据到达
内核Socket
的接收缓冲区中时,此时数据存在于内核空间
中,需要将数据拷贝
到用户空间
中,才能够被应用程序读取。
阻塞与非阻塞
阻塞与非阻塞的区别主要发生在第一阶段:数据准备阶段
。
当应用程序发起系统调用read
时,线程从用户态转为内核态,读取内核Socket
的接收缓冲区中的网络数据。
阻塞
如果这时内核Socket
的接收缓冲区没有数据,那么线程就会一直等待
,直到Socket
接收缓冲区有数据为止。随后将数据从内核空间拷贝到用户空间,系统调用read
返回。
从图中我们可以看出:阻塞的特点是在第一阶段和第二阶段都会等待
。
非阻塞
阻塞
和非阻塞
主要的区分是在第一阶段:数据准备阶段
。
- 在第一阶段,当
Socket
的接收缓冲区中没有数据的时候,阻塞模式下
应用线程会一直等待。非阻塞模式下
应用线程不会等待,系统调用
直接返回错误标志EWOULDBLOCK
。 - 当
Socket
的接收缓冲区中有数据的时候,阻塞
和非阻塞
的表现是一样的,都会进入第二阶段等待
数据从内核空间
拷贝到用户空间
,然后系统调用返回
。
从上图中,我们可以看出:非阻塞的特点是第一阶段不会等待
,但是在第二阶段还是会等待
。
同步与异步
同步
与异步
主要的区别发生在第二阶段:数据拷贝阶段
。
前边我们提到在数据拷贝阶段
主要是将数据从内核空间
拷贝到用户空间
。然后应用程序才可以读取数据。
当内核Socket
的接收缓冲区有数据到达时,进入第二阶段。
同步
同步模式
在数据准备好后,是由用户线程
的内核态
来执行第二阶段
。所以应用程序会在第二阶段发生阻塞
,直到数据从内核空间
拷贝到用户空间
,系统调用才会返回。
Linux下的 epoll
和Mac 下的 kqueue
都属于同步 IO
。
异步
异步模式
下是由内核
来执行第二阶段的数据拷贝操作,当内核
执行完第二阶段,会通知用户线程IO操作已经完成,并将数据回调给用户线程。所以在异步模式
下 数据准备阶段
和数据拷贝阶段
均是由内核
来完成,不会对应用程序造成任何阻塞。
基于以上特征,我们可以看到异步模式
需要内核的支持,比较依赖操作系统底层的支持。
在目前流行的操作系统中,只有Windows 中的 IOCP
才真正属于异步 IO,实现的也非常成熟。但Windows很少用来作为服务器使用。
而常用来作为服务器使用的Linux,异步IO机制
实现的不够成熟,与NIO相比性能提升的也不够明显。
但Linux kernel 在5.1版本由Facebook的大神Jens Axboe引入了新的异步IO库io_uring
改善了原来Linux native AIO的一些性能问题。性能相比Epoll
以及之前原生的AIO
提高了不少,值得关注。
IO模型
在进行网络IO操作时,用什么样的IO模型来读写数据将在很大程度上决定了网络框架的IO性能。所以IO模型的选择是构建一个高性能网络框架的基础。
在《UNIX 网络编程》一书中介绍了五种IO模型:阻塞IO
,非阻塞IO
,IO多路复用
,信号驱动IO
,异步IO
,每一种IO模型的出现都是对前一种的升级优化。
下面我们就来分别介绍下这五种IO模型各自都解决了什么问题,适用于哪些场景,各自的优缺点是什么?
阻塞IO(BIO)
经过前一小节对阻塞
这个概念的介绍,相信大家可以很容易理解阻塞IO
的概念和过程。
既然这小节我们谈的是IO
,那么下边我们来看下在阻塞IO
模型下,网络数据的读写过程。
阻塞读
当用户线程发起read
系统调用,用户线程从用户态切换到内核态,在内核中去查看Socket
接收缓冲区是否有数据到来。
Socket
接收缓冲区中有数据
,则用户线程在内核态将内核空间中的数据拷贝到用户空间,系统IO调用返回。Socket
接收缓冲区中无数据
,则用户线程让出CPU,进入阻塞状态
。当数据到达Socket
接收缓冲区后,内核唤醒阻塞状态
中的用户线程进入就绪状态
,随后经过CPU的调度获取到CPU quota
进入运行状态
,将内核空间的数据拷贝到用户空间,随后系统调用返回。
阻塞写
当用户线程发起send
系统调用时,用户线程从用户态切换到内核态,将发送数据从用户空间拷贝到内核空间中的Socket
发送缓冲区中。
- 当
Socket
发送缓冲区能够容纳下发送数据时,用户线程会将全部的发送数据写入Socket
缓冲区,然后执行在《网络包发送流程》这小节介绍的后续流程,然后返回。 - 当
Socket
发送缓冲区空间不够,无法容纳下全部发送数据时,用户线程让出CPU,进入阻塞状态
,直到Socket
发送缓冲区能够容纳下全部发送数据时,内核唤醒用户线程,执行后续发送流程。
阻塞IO
模型下的写操作做事风格比较硬刚,非得要把全部的发送数据写入发送缓冲区才肯善罢甘休。
阻塞IO模型
由于阻塞IO
的读写特点,所以导致在阻塞IO
模型下,每个请求都需要被一个独立的线程处理。一个线程在同一时刻只能与一个连接绑定。来一个请求,服务端就需要创建一个线程用来处理请求。
当客户端请求的并发量突然增大时,服务端在一瞬间就会创建出大量的线程,而创建线程是需要系统资源开销的,这样一来就会一瞬间占用大量的系统资源。
如果客户端创建好连接后,但是一直不发数据,通常大部分情况下,网络连接也并不
总是有数据可读,那么在空闲的这段时间内,服务端线程就会一直处于阻塞状态
,无法干其他的事情。CPU也无法得到充分的发挥
,同时还会导致大量线程切换的开销
。
适用场景
基于以上阻塞IO模型
的特点,该模型只适用于连接数少
,并发度低
的业务场景。
比如公司内部的一些管理系统,通常请求数在100个左右,使用阻塞IO模型
还是非常适合的。而且性能还不输NIO。
该模型在C10K之前,是普遍被采用的一种IO模型。
非阻塞IO(NIO)
阻塞IO模型
最大的问题就是一个线程只能处理一个连接,如果这个连接上没有数据的话,那么这个线程就只能阻塞在系统IO调用上,不能干其他的事情。这对系统资源来说,是一种极大的浪费。同时大量的线程上下文切换,也是一个巨大的系统开销。
所以为了解决这个问题,我们就需要用尽可能少的线程去处理更多的连接。,网络IO模型的演变
也是根据这个需求来一步一步演进的。
基于这个需求,第一种解决方案非阻塞IO
就出现了。我们在上一小节中介绍了非阻塞
的概念,现在我们来看下网络读写操作在非阻塞IO
下的特点:
非阻塞读
当用户线程发起非阻塞read
系统调用时,用户线程从用户态
转为内核态
,在内核中去查看Socket
接收缓冲区是否有数据到来。
Socket
接收缓冲区中无数据
,系统调用立马返回,并带有一个EWOULDBLOCK
或EAGAIN
错误,这个阶段用户线程不会阻塞
,也不会让出CPU
,而是会继续轮训
直到Socket
接收缓冲区中有数据为止。Socket
接收缓冲区中有数据
,用户线程在内核态
会将内核空间
中的数据拷贝到用户空间
,注意这个数据拷贝阶段,应用程序是阻塞的
,当数据拷贝完成,系统调用返回。
非阻塞写
前边我们在介绍阻塞写
的时候提到阻塞写
的风格特别的硬朗,头比较铁非要把全部发送数据一次性都写到Socket
的发送缓冲区中才返回,如果发送缓冲区中没有足够的空间容纳,那么就一直阻塞死等,特别的刚。
相比较而言非阻塞写
的特点就比较佛系,当发送缓冲区中没有足够的空间容纳全部发送数据时,非阻塞写
的特点是能写多少写多少
,写不下了,就立即返回。并将写入到发送缓冲区的字节数返回给应用程序,方便用户线程不断的轮训
尝试将剩下的数据
写入发送缓冲区中。
非阻塞IO模型
基于以上非阻塞IO
的特点,我们就不必像阻塞IO
那样为每个请求分配一个线程去处理连接上的读写了。
我们可以利用一个线程或者很少的线程,去不断地轮询
每个Socket
的接收缓冲区是否有数据到达,如果没有数据,不必阻塞
线程,而是接着去轮询
下一个Socket
接收缓冲区,直到轮询到数据后,处理连接上的读写,或者交给业务线程池去处理,轮询线程则继续轮询
其他的Socket
接收缓冲区。
这样一个非阻塞IO模型
就实现了我们在本小节开始提出的需求:我们需要用尽可能少的线程去处理更多的连接
适用场景
虽然非阻塞IO模型
与阻塞IO模型
相比,减少了很大一部分的资源消耗和系统开销。
但是它仍然有很大的性能问题,因为在非阻塞IO模型
下,需要用户线程去不断地
发起系统调用
去轮训Socket
接收缓冲区,这就需要用户线程不断地从用户态
切换到内核态
,内核态
切换到用户态
。随着并发量的增大,这个上下文切换的开销也是巨大的。
所以单纯的非阻塞IO
模型还是无法适用于高并发的场景。只能适用于C10K
以下的场景。
IO多路复用
在非阻塞IO
这一小节的开头,我们提到网络IO模型
的演变都是围绕着---如何用尽可能少的线程去处理更多的连接这个核心需求开始展开的。
本小节我们来谈谈IO多路复用模型
,那么什么是多路
?,什么又是复用
呢?
我们还是以这个核心需求来对这两个概念展开阐述:
- 多路:我们的核心需求是要用尽可能少的线程来处理尽可能多的连接,这里的
多路
指的就是我们需要处理的众多连接。 - 复用:核心需求要求我们使用
尽可能少的线程
,尽可能少的系统开销
去处理尽可能多
的连接(多路
),那么这里的复用
指的就是用有限的资源
,比如用一个线程或者固定数量的线程去处理众多连接上的读写事件。换句话说,在阻塞IO模型
中一个连接就需要分配一个独立的线程去专门处理这个连接上的读写,到了IO多路复用模型
中,多个连接可以复用
这一个独立的线程去处理这多个连接上的读写。
好了,IO多路复用模型
的概念解释清楚了,那么问题的关键是我们如何去实现这个复用
,也就是如何让一个独立的线程去处理众多连接上的读写事件呢?
这个问题其实在非阻塞IO模型
中已经给出了它的答案,在非阻塞IO模型
中,利用非阻塞
的系统IO调用去不断的轮询众多连接的Socket
接收缓冲区看是否有数据到来,如果有则处理,如果没有则继续轮询下一个Socket
。这样就达到了用一个线程去处理众多连接上的读写事件了。
但是非阻塞IO模型
最大的问题就是需要不断的发起系统调用
去轮询各个Socket
中的接收缓冲区是否有数据到来,频繁
的系统调用
随之带来了大量的上下文切换开销。随着并发量的提升,这样也会导致非常严重的性能问题。
那么如何避免频繁的系统调用同时又可以实现我们的核心需求呢?
这就需要操作系统的内核来支持这样的操作,我们可以把频繁的轮询操作交给操作系统内核来替我们完成,这样就避免了在用户空间
频繁的去使用系统调用来轮询所带来的性能开销。
正如我们所想,操作系统内核也确实为我们提供了这样的功能实现,下面我们来一起看下操作系统对IO多路复用模型
的实现。
select
select
是操作系统内核提供给我们使用的一个系统调用
,它解决了在非阻塞IO模型
中需要不断的发起系统IO调用
去轮询各个连接上的Socket
接收缓冲区所带来的用户空间
与内核空间
不断切换的系统开销
。
select
系统调用将轮询
的操作交给了内核
来帮助我们完成,从而避免了在用户空间
不断的发起轮询所带来的的系统性能开销。
- 首先用户线程在发起
select
系统调用的时候会阻塞
在select
系统调用上。此时,用户线程从用户态
切换到了内核态
完成了一次上下文切换
- 用户线程将需要监听的
Socket
对应的文件描述符fd
数组通过select
系统调用传递给内核。此时,用户线程将用户空间
中的文件描述符fd
数组拷贝
到内核空间
。
这里的文件描述符数组其实是一个BitMap
,BitMap
下标为文件描述符fd
,下标对应的值为:1
表示该fd
上有读写事件,0
表示该fd
上没有读写事件。
文件描述符fd其实就是一个整数值
,在Linux中一切皆文件,Socket
也是一个文件。描述进程所有信息的数据结构task_struct
中有一个属性struct files_struct *files
,它最终指向了一个数组,数组里存放了进程打开的所有文件列表,文件信息封装在struct file
结构体中,这个数组存放的类型就是struct file
结构体,数组的下标
则是我们常说的文件描述符fd
。
- 当用户线程调用完
select
后开始进入阻塞状态
,内核
开始轮询遍历fd
数组,查看fd
对应的Socket
接收缓冲区中是否有数据到来。如果有数据到来,则将fd
对应BitMap
的值设置为1
。如果没有数据到来,则保持值为0
。
注意这里内核会修改原始的
fd
数组!!
- 内核遍历一遍
fd
数组后,如果发现有些fd
上有IO数据到来,则将修改后的fd
数组返回给用户线程。此时,会将fd
数组从内核空间
拷贝到用户空间
。 - 当内核将修改后的
fd
数组返回给用户线程后,用户线程解除阻塞
,由用户线程开始遍历fd
数组然后找出fd
数组中值为1
的Socket
文件描述符。最后对这些Socket
发起系统调用读取数据。
select
不会告诉用户线程具体哪些fd
上有IO数据到来,只是在IO活跃
的fd
上打上标记,将打好标记的完整fd
数组返回给用户线程,所以用户线程还需要遍历fd
数组找出具体哪些fd
上有IO数据
到来。
- 由于内核在遍历的过程中已经修改了
fd
数组,所以在用户线程遍历完fd
数组后获取到IO就绪
的Socket
后,就需要重置
fd数组,并重新调用select
传入重置后的fd
数组,让内核发起新的一轮遍历轮询。
API介绍
当我们熟悉了select
的原理后,就很容易理解内核给我们提供的select API
了。
int select(int maxfdp1,fd_set *readset,fd_set *writeset,fd_set *exceptset,const struct timeval *timeout)
从select API
中我们可以看到,select
系统调用是在规定的超时时间内
,监听(轮询
)用户感兴趣的文件描述符集合上的可读
,可写
,异常
三类事件。
maxfdp1 :
select传递给内核监听的文件描述符集合中数值最大的文件描述符+1
,目的是用于限定内核遍历范围。比如:select
监听的文件描述符集合为{0,1,2,3,4}
,那么maxfdp1
的值为5
。fd_set *readset:
对可读事件
感兴趣的文件描述符集合。fd_set *writeset:
对可写事件
感兴趣的文件描述符集合。fd_set *exceptset:
对可写事件
感兴趣的文件描述符集合。
这里的fd_set
就是我们前边提到的文件描述符数组
,是一个BitMap
结构。
const struct timeval *timeout:
select系统调用超时时间,在这段时间内,内核如果没有发现有IO就绪
的文件描述符,就直接返回。
上小节提到,在内核
遍历完fd
数组后,发现有IO就绪
的fd
,则会将该fd
对应的BitMap
中的值设置为1
,并将修改后的fd
数组,返回给用户线程。
在用户线程中需要重新遍历fd
数组,找出IO就绪
的fd
出来,然后发起真正的读写调用。
下面介绍下在用户线程中重新遍历fd
数组的过程中,我们需要用到的API
:
void FD_ZERO(fd_set *fdset):
清空指定的文件描述符集合,即让fd_set
中不在包含任何文件描述符。void FD_SET(int fd, fd_set *fdset):
将一个给定的文件描述符加入集合之中。
每次调用select
之前都要通过FD_ZERO
和FD_SET
重新设置文件描述符,因为文件描述符集合会在内核
中被修改
。
int FD_ISSET(int fd, fd_set *fdset):
检查集合中指定的文件描述符是否可以读写。用户线程遍历
文件描述符集合,调用该方法检查相应的文件描述符是否IO就绪
。void FD_CLR(int fd, fd_set *fdset):
将一个给定的文件描述符从集合中删除
性能开销
虽然select
解决了非阻塞IO模型
中频繁发起系统调用
的问题,但是在整个select
工作过程中,我们还是看出了select
有些不足的地方。
- 在发起
select
系统调用以及返回时,用户线程各发生了一次用户态
到内核态
以及内核态
到用户态
的上下文切换开销。发生2次上下文切换
- 在发起
select
系统调用以及返回时,用户线程在内核态
需要将文件描述符集合
从用户空间拷贝
到内核空间。以及在内核修改完文件描述符集合
后,又要将它从内核空间拷贝
到用户空间。发生2次文件描述符集合的拷贝
- 虽然由原来在
用户空间
发起轮询优化成了
在内核空间
发起轮询但select
不会告诉用户线程到底是哪些Socket
上发生了IO就绪
事件,只是对IO就绪
的Socket
作了标记,用户线程依然要遍历
文件描述符集合去查找具体IO就绪
的Socket
。时间复杂度依然为O(n)
。
大部分情况下,网络连接并不总是活跃的,如果
select
监听了大量的客户端连接,只有少数的连接活跃,然而使用轮询的这种方式会随着连接数的增大,效率会越来越低。
内核
会对原始的文件描述符集合
进行修改。导致每次在用户空间重新发起select
调用时,都需要对文件描述符集合
进行重置
。BitMap
结构的文件描述符集合,长度为固定的1024
,所以只能监听0~1023
的文件描述符。select
系统调用 不是线程安全的。
以上select
的不足所产生的性能开销
都会随着并发量的增大而线性增长
。
很明显select
也不能解决C10K
问题,只适用于1000
个左右的并发连接场景。
poll
poll
相当于是改进版的select
,但是工作原理基本和select
没有本质的区别。
int poll(struct pollfd *fds, unsigned int nfds, int timeout)
struct pollfd {
int fd; /* 文件描述符 */
short events; /* 需要监听的事件 */
short revents; /* 实际发生的事件 由内核修改设置 */
};
select
中使用的文件描述符集合是采用的固定长度为1024的BitMap
结构的fd_set
,而poll
换成了一个pollfd
结构没有固定长度的数组,这样就没有了最大描述符数量的限制(当然还会受到系统文件描述符限制)
poll
只是改进了select
只能监听1024
个文件描述符的数量限制,但是并没有在性能方面做出改进。和select
上本质并没有多大差别。
- 同样需要在
内核空间
和用户空间
中对文件描述符集合进行轮询
,查找出IO就绪
的Socket
的时间复杂度依然为O(n)
。 - 同样需要将
包含大量文件描述符的集合
整体在用户空间
和内核空间
之间来回复制
,无论这些文件描述符是否就绪。他们的开销都会随着文件描述符数量的增加而线性增大。 select,poll
在每次新增,删除需要监听的socket时,都需要将整个新的socket
集合全量传至内核
。
poll
同样不适用高并发的场景。依然无法解决C10K
问题。
epoll
通过上边对select,poll
核心原理的介绍,我们看到select,poll
的性能瓶颈主要体现在下面三个地方:
- 因为内核不会保存我们要监听的
socket
集合,所以在每次调用select,poll
的时候都需要传入,传出全量的socket
文件描述符集合。这导致了大量的文件描述符在用户空间
和内核空间
频繁的来回复制。 - 由于内核不会通知具体
IO就绪
的socket
,只是在这些IO就绪
的socket上打好标记,所以当select
系统调用返回时,在用户空间
还是需要完整遍历
一遍socket
文件描述符集合来获取具体IO就绪
的socket
。 - 在
内核空间
中也是通过遍历的方式来得到IO就绪
的socket
。
下面我们来看下epoll
是如何解决这些问题的。在介绍epoll
的核心原理之前,我们需要介绍下理解epoll
工作过程所需要的一些核心基础知识。
Socket的创建
服务端线程调用accept
系统调用后开始阻塞
,当有客户端连接上来并完成TCP三次握手
后,内核
会创建一个对应的Socket
作为服务端与客户端通信的内核
接口。
在Linux内核的角度看来,一切皆是文件,Socket
也不例外,当内核创建出Socket
之后,会将这个Socket
放到当前进程所打开的文件列表中管理起来。
下面我们来看下进程管理这些打开的文件列表相关的内核数据结构是什么样的?在了解完这些数据结构后,我们会更加清晰的理解Socket
在内核中所发挥的作用。并且对后面我们理解epoll
的创建过程有很大的帮助。
进程中管理文件列表结构
struct tast_struct
是内核中用来表示进程的一个数据结构,它包含了进程的所有信息。本小节我们只列出和文件管理相关的属性。
其中进程内打开的所有文件是通过一个数组fd_array
来进行组织管理,数组的下标即为我们常提到的文件描述符
,数组中存放的是对应的文件数据结构struct file
。每打开一个文件,内核都会创建一个struct file
与之对应,并在fd_array
中找到一个空闲位置分配给它,数组中对应的下标,就是我们在用户空间
用到的文件描述符
。
对于任何一个进程,默认情况下,文件描述符0
表示stdin 标准输入
,文件描述符1
表示stdout 标准输出
,文件描述符2
表示stderr 标准错误输出
。
进程中打开的文件列表fd_array
定义在内核数据结构struct files_struct
中,在struct fdtable
结构中有一个指针struct fd **fd
指向fd_array
。
由于本小节讨论的是内核网络系统部分的数据结构,所以这里拿Socket
文件类型来举例说明:
用于封装文件元信息的内核数据结构struct file
中的private_data
指针指向具体的Socket
结构。
struct file
中的file_operations
属性定义了文件的操作函数,不同的文件类型,对应的file_operations
是不同的,针对Socket
文件类型,这里的file_operations
指向socket_file_ops
。
我们在用户空间
对Socket
发起的读写等系统调用,进入内核首先会调用的是Socket
对应的struct file
中指向的socket_file_ops
。
比如:对Socket
发起write
写操作,在内核中首先被调用的就是socket_file_ops
中定义的sock_write_iter
。Socket
发起read
读操作内核中对应的则是sock_read_iter
。
static const struct file_operations socket_file_ops = {
.owner = THIS_MODULE,
.llseek = no_llseek,
.read_iter = sock_read_iter,
.write_iter = sock_write_iter,
.poll = sock_poll,
.unlocked_ioctl = sock_ioctl,
.mmap = sock_mmap,
.release = sock_close,
.fasync = sock_fasync,
.sendpage = sock_sendpage,
.splice_write = generic_splice_sendpage,
.splice_read = sock_splice_read,
};
Socket内核结构
在我们进行网络程序的编写时会首先创建一个Socket
,然后基于这个Socket
进行bind
,listen
,我们先将这个Socket
称作为监听Socket
。
- 当我们调用
accept
后,内核会基于监听Socket
创建出来一个新的Socket
专门用于与客户端之间的网络通信。并将监听Socket
中的Socket操作函数集合
(inet_stream_ops
)ops
赋值到新的Socket
的ops
属性中。
const struct proto_ops inet_stream_ops = {
.bind = inet_bind,
.connect = inet_stream_connect,
.accept = inet_accept,
.poll = tcp_poll,
.listen = inet_listen,
.sendmsg = inet_sendmsg,
.recvmsg = inet_recvmsg,
......
}
这里需要注意的是,监听的 socket
和真正用来网络通信的Socket
,是两个 Socket,一个叫作监听 Socket
,一个叫作已连接的Socket
。
- 接着内核会为
已连接的Socket
创建struct file
并初始化,并把Socket文件操作函数集合(socket_file_ops
)赋值给struct file
中的f_ops
指针。然后将struct socket
中的file
指针指向这个新分配申请的struct file
结构体。
内核会维护两个队列:
- 一个是已经完成
TCP三次握手
,连接状态处于established
的连接队列。内核中为icsk_accept_queue
。- 一个是还没有完成
TCP三次握手
,连接状态处于syn_rcvd
的半连接队列。
- 然后调用
socket->ops->accept
,从Socket内核结构图
中我们可以看到其实调用的是inet_accept
,该函数会在icsk_accept_queue
中查找是否有已经建立好的连接,如果有的话,直接从icsk_accept_queue
中获取已经创建好的struct sock
。并将这个struct sock
对象赋值给struct socket
中的sock
指针。
struct sock
在struct socket
中是一个非常核心的内核对象,正是在这里定义了我们在介绍网络包的接收发送流程
中提到的接收队列
,发送队列
,等待队列
,数据就绪回调函数指针
,内核协议栈操作函数集合
- 根据创建
Socket
时发起的系统调用sock_create
中的protocol
参数(对于TCP协议
这里的参数值为SOCK_STREAM
)查找到对于 tcp 定义的操作方法实现集合inet_stream_ops
和tcp_prot
。并把它们分别设置到socket->ops
和sock->sk_prot
上。
这里可以回看下本小节开头的《Socket内核结构图》捋一下他们之间的关系。
socket
相关的操作接口定义在inet_stream_ops
函数集合中,负责对上给用户提供接口。而socket
与内核协议栈之间的操作接口定义在struct sock
中的sk_prot
指针上,这里指向tcp_prot
协议操作函数集合。
struct proto tcp_prot = {
.name = "TCP",
.owner = THIS_MODULE,
.close = tcp_close,
.connect = tcp_v4_connect,
.disconnect = tcp_disconnect,
.accept = inet_csk_accept,
.keepalive = tcp_set_keepalive,
.recvmsg = tcp_recvmsg,
.sendmsg = tcp_sendmsg,
.backlog_rcv = tcp_v4_do_rcv,
......
}
之前提到的对Socket
发起的系统IO调用,在内核中首先会调用Socket
的文件结构struct file
中的file_operations
文件操作集合,然后调用struct socket
中的ops
指向的inet_stream_ops
socket操作函数,最终调用到struct sock
中sk_prot
指针指向的tcp_prot
内核协议栈操作函数接口集合。
- 将
struct sock
对象中的sk_data_ready
函数指针设置为sock_def_readable
,在Socket
数据就绪的时候内核会回调该函数。 struct sock
中的等待队列
中存放的是系统IO调用发生阻塞的进程fd
,以及相应的回调函数
。记住这个地方,后边介绍epoll的时候我们还会提到!
- 当
struct file
,struct socket
,struct sock
这些核心的内核对象创建好之后,最后就是把socket
对象对应的struct file
放到进程打开的文件列表fd_array
中。随后系统调用accept
返回socket
的文件描述符fd
给用户程序。
阻塞IO中用户进程阻塞以及唤醒原理
在前边小节我们介绍阻塞IO
的时候提到,当用户进程发起系统IO调用时,这里我们拿read
举例,用户进程会在内核态
查看对应Socket
接收缓冲区是否有数据到来。
Socket
接收缓冲区有数据,则拷贝数据到用户空间
,系统调用返回。Socket
接收缓冲区没有数据,则用户进程让出CPU
进入阻塞状态
,当数据到达接收缓冲区时,用户进程会被唤醒,从阻塞状态
进入就绪状态
,等待CPU调度。
本小节我们就来看下用户进程是如何阻塞
在Socket
上,又是如何在Socket
上被唤醒的。理解这个过程很重要,对我们理解epoll的事件通知过程很有帮助
- 首先我们在用户进程中对
Socket
进行read
系统调用时,用户进程会从用户态
转为内核态
。 - 在进程的
struct task_struct
结构找到fd_array
,并根据Socket
的文件描述符fd
找到对应的struct file
,调用struct file
中的文件操作函数结合file_operations
,read
系统调用对应的是sock_read_iter
。 - 在
sock_read_iter
函数中找到struct file
指向的struct socket
,并调用socket->ops->recvmsg
,这里我们知道调用的是inet_stream_ops
集合中定义的inet_recvmsg
。 在
inet_recvmsg
中会找到struct sock
,并调用sock->skprot->recvmsg
,这里调用的是tcp_prot
集合中定义的tcp_recvmsg
函数。整个调用过程可以参考上边的《系统IO调用结构图》
熟悉了内核函数调用栈后,我们来看下系统IO调用在tcp_recvmsg
内核函数中是如何将用户进程给阻塞掉的
int tcp_recvmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg,
size_t len, int nonblock, int flags, int *addr_len)
{
.................省略非核心代码...............
//访问sock对象中定义的接收队列
skb_queue_walk(&sk->sk_receive_queue, skb) {
.................省略非核心代码...............
//没有收到足够数据,调用sk_wait_data 阻塞当前进程
sk_wait_data(sk, &timeo);
}
int sk_wait_data(struct sock *sk, long *timeo)
{
//创建struct sock中等待队列上的元素wait_queue_t
//将进程描述符和回调函数autoremove_wake_function关联到wait_queue_t中
DEFINE_WAIT(wait);
// 调用 sk_sleep 获取 sock 对象下的等待队列的头指针wait_queue_head_t
// 调用prepare_to_wait将新创建的等待项wait_queue_t插入到等待队列中,并将进程状态设置为可打断 INTERRUPTIBLE
prepare_to_wait(sk_sleep(sk), &wait, TASK_INTERRUPTIBLE);
set_bit(SOCK_ASYNC_WAITDATA, &sk->sk_socket->flags);
// 通过调用schedule_timeout让出CPU,然后进行睡眠,导致一次上下文切换
rc = sk_wait_event(sk, timeo, !skb_queue_empty(&sk->sk_receive_queue));
...
首先会在
DEFINE_WAIT
中创建struct sock
中等待队列上的等待类型wait_queue_t
。#define DEFINE_WAIT(name) DEFINE_WAIT_FUNC(name, autoremove_wake_function) #define DEFINE_WAIT_FUNC(name, function) \ wait_queue_t name = { \ .private = current, \ .func = function, \ .task_list = LIST_HEAD_INIT((name).task_list), \ }
等待类型
wait_queue_t
中的private
用来关联阻塞
在当前socket
上的用户进程fd
。func
用来关联等待项上注册的回调函数。这里注册的是autoremove_wake_function
。- 调用
sk_sleep(sk)
获取struct sock
对象中的等待队列头指针wait_queue_head_t
。 - 调用
prepare_to_wait
将新创建的等待项wait_queue_t
插入到等待队列中,并将进程设置为可打断INTERRUPTIBL
。 - 调用
sk_wait_event
让出CPU,进程进入睡眠状态。
用户进程的阻塞过程
我们就介绍完了,关键是要理解记住struct sock
中定义的等待队列上的等待类型wait_queue_t
的结构。后面epoll
的介绍中我们还会用到它。
下面我们接着介绍当数据就绪后,用户进程是如何被唤醒的
在本文开始介绍《网络包接收过程》这一小节中我们提到:
- 当网络数据包到达网卡时,网卡通过
DMA
的方式将数据放到RingBuffer
中。 - 然后向CPU发起硬中断,在硬中断响应程序中创建
sk_buffer
,并将网络数据拷贝至sk_buffer
中。 - 随后发起软中断,内核线程
ksoftirqd
响应软中断,调用poll函数
将sk_buffer
送往内核协议栈做层层协议处理。 - 在传输层
tcp_rcv 函数
中,去掉TCP头,根据四元组(源IP,源端口,目的IP,目的端口)
查找对应的Socket
。 - 最后将
sk_buffer
放到Socket
中的接收队列里。
上边这些过程是内核接收网络数据的完整过程,下边我们来看下,当数据包接收完毕后,用户进程是如何被唤醒的。
- 当软中断将
sk_buffer
放到Socket
的接收队列上时,接着就会调用数据就绪函数回调指针sk_data_ready
,前边我们提到,这个函数指针在初始化的时候指向了sock_def_readable
函数。 在
sock_def_readable
函数中会去获取socket->sock->sk_wq
等待队列。在wake_up_common
函数中从等待队列sk_wq
中找出一个
等待项wait_queue_t
,回调注册在该等待项上的func
回调函数(wait_queue_t->func
),创建等待项wait_queue_t
是我们提到,这里注册的回调函数是autoremove_wake_function
。即使是有多个进程都阻塞在同一个 socket 上,也只唤醒 1 个进程。其作用是为了避免惊群。
- 在
autoremove_wake_function
函数中,根据等待项wait_queue_t
上的private
关联的阻塞进程fd
调用try_to_wake_up
唤醒阻塞在该Socket
上的进程。
记住wait_queue_t
中的func
函数指针,在epoll
中这里会注册epoll
的回调函数。
现在理解epoll
所需要的基础知识我们就介绍完了,唠叨了这么多,下面终于正式进入本小节的主题epoll
了。
epoll_create创建epoll对象
epoll_create
是内核提供给我们创建epoll
对象的一个系统调用,当我们在用户进程中调用epoll_create
时,内核会为我们创建一个struct eventpoll
对象,并且也有相应的struct file
与之关联,同样需要把这个struct eventpoll
对象所关联的struct file
放入进程打开的文件列表fd_array
中管理。
熟悉了
Socket
的创建逻辑,epoll
的创建逻辑也就不难理解了。
struct eventpoll
对象关联的struct file
中的file_operations 指针
指向的是eventpoll_fops
操作函数集合。
static const struct file_operations eventpoll_fops = {
.release = ep_eventpoll_release;
.poll = ep_eventpoll_poll,
}
struct eventpoll {
//等待队列,阻塞在epoll上的进程会放在这里
wait_queue_head_t wq;
//就绪队列,IO就绪的socket连接会放在这里
struct list_head rdllist;
//红黑树用来管理所有监听的socket连接
struct rb_root rbr;
......
}
wait_queue_head_t wq:
epoll中的等待队列,队列里存放的是阻塞
在epoll
上的用户进程。在IO就绪
的时候epoll
可以通过这个队列找到这些阻塞
的进程并唤醒它们,从而执行IO调用
读写Socket
上的数据。
这里注意与
Socket
中的等待队列区分!!!
struct list_head rdllist:
epoll中的就绪队列,队列里存放的是都是IO就绪
的Socket
,被唤醒的用户进程可以直接读取这个队列获取IO活跃
的Socket
。无需再次遍历整个Socket
集合。
这里正是epoll
比select ,poll
高效之处,select ,poll
返回的是全部的socket
连接,我们需要在用户空间
再次遍历找出真正IO活跃
的Socket
连接。
而epoll
只是返回IO活跃
的Socket
连接。用户进程可以直接进行IO操作。
struct rb_root rbr :
由于红黑树在查找
,插入
,删除
等综合性能方面是最优的,所以epoll内部使用一颗红黑树来管理海量的Socket
连接。
select
用数组
管理连接,poll
用链表
管理连接。
epoll_ctl向epoll对象中添加监听的Socket
当我们调用epoll_create
在内核中创建出epoll
对象struct eventpoll
后,我们就可以利用epoll_ctl
向epoll
中添加我们需要管理的Socket
连接了。
- 首先要在epoll内核中创建一个表示
Socket连接
的数据结构struct epitem
,而在epoll
中为了综合性能的考虑,采用一颗红黑树来管理这些海量socket连接
。所以struct epitem
是一个红黑树节点。
struct epitem
{
//指向所属epoll对象
struct eventpoll *ep;
//注册的感兴趣的事件,也就是用户空间的epoll_event
struct epoll_event event;
//指向epoll对象中的就绪队列
struct list_head rdllink;
//指向epoll中对应的红黑树节点
struct rb_node rbn;
//指向epitem所表示的socket->file结构以及对应的fd
struct epoll_filefd ffd;
}
这里重点记住struct epitem
结构中的rdllink
以及epoll_filefd
成员,后面我们会用到。
- 在内核中创建完表示
Socket连接
的数据结构struct epitem
后,我们就需要在Socket
中的等待队列上创建等待项wait_queue_t
并且注册epoll的回调函数ep_poll_callback
。
通过《阻塞IO中用户进程阻塞以及唤醒原理》
小节的铺垫,我想大家已经猜到这一步的意义所在了吧!当时在等待项wait_queue_t
中注册的是autoremove_wake_function
回调函数。还记得吗?
epoll的回调函数ep_poll_callback
正是epoll
同步IO事件通知机制的核心所在,也是区别于select,poll
采用内核轮询方式的根本性能差异所在。
这里又出现了一个新的数据结构struct eppoll_entry
,那它的作用是干什么的呢?大家可以结合上图先猜测下它的作用!
我们知道socket->sock->sk_wq
等待队列中的类型是wait_queue_t
,我们需要在struct epitem
所表示的socket
的等待队列上注册epoll
回调函数ep_poll_callback
。
这样当数据到达socket
中的接收队列时,内核会回调sk_data_ready
,在阻塞IO中用户进程阻塞以及唤醒原理
这一小节中,我们知道这个sk_data_ready
函数指针会指向sk_def_readable
函数,在sk_def_readable
中会回调注册在等待队列里的等待项wait_queue_t -> func
回调函数ep_poll_callback
。在ep_poll_callback
中需要找到epitem
,将IO就绪
的epitem
放入epoll
中的就绪队列中。
而socket
等待队列中类型是wait_queue_t
无法关联到epitem
。所以就出现了struct eppoll_entry
结构体,它的作用就是关联Socket
等待队列中的等待项wait_queue_t
和epitem
。
struct eppoll_entry {
//指向关联的epitem
struct epitem *base;
// 关联监听socket中等待队列中的等待项 (private = null func = ep_poll_callback)
wait_queue_t wait;
// 监听socket中等待队列头指针
wait_queue_head_t *whead;
.........
};
这样在ep_poll_callback
回调函数中就可以根据Socket
等待队列中的等待项wait
,通过container_of宏
找到eppoll_entry
,继而找到epitem
了。
container_of
在Linux内核中是一个常用的宏,用于从包含在某个结构中的指针获得结构本身的指针,通俗地讲就是通过结构体变量中某个成员的首地址进而获得整个结构体变量的首地址。这里需要注意下这次等待项
wait_queue_t
中的private
设置的是null
,因为这里Socket
是交给epoll
来管理的,阻塞在Socket
上的进程是也由epoll
来唤醒。在等待项wait_queue_t
注册的func
是ep_poll_callback
而不是autoremove_wake_function
,阻塞进程
并不需要autoremove_wake_function
来唤醒,所以这里设置private
为null
- 当在
Socket
的等待队列中创建好等待项wait_queue_t
并且注册了epoll
的回调函数ep_poll_callback
,然后又通过eppoll_entry
关联了epitem
后。
剩下要做的就是将epitem
插入到epoll
中的红黑树struct rb_root rbr
中。
这里可以看到epoll
另一个优化的地方,epoll
将所有的socket
连接通过内核中的红黑树来集中管理。每次添加或者删除socket连接
都是增量添加删除,而不是像select,poll
那样每次调用都是全量socket连接
集合传入内核。避免了频繁大量
的内存拷贝
。
epoll_wait同步阻塞获取IO就绪的Socket
- 用户程序调用
epoll_wait
后,内核首先会查找epoll中的就绪队列eventpoll->rdllist
是否有IO就绪
的epitem
。epitem
里封装了socket
的信息。如果就绪队列中有就绪的epitem
,就将就绪的socket
信息封装到epoll_event
返回。 - 如果
eventpoll->rdllist
就绪队列中没有IO就绪
的epitem
,则会创建等待项wait_queue_t
,将用户进程的fd
关联到wait_queue_t->private
上,并在等待项wait_queue_t->func
上注册回调函数default_wake_function
。最后将等待项添加到epoll
中的等待队列中。用户进程让出CPU,进入阻塞状态
。
这里和阻塞IO模型
中的阻塞原理是一样的,只不过在阻塞IO模型
中注册到等待项wait_queue_t->func
上的是autoremove_wake_function
,并将等待项添加到socket
中的等待队列中。这里注册的是default_wake_function
,将等待项添加到epoll
中的等待队列上。
- 前边做了那么多的知识铺垫,下面终于到了
epoll
的整个工作流程了:
- 当网络数据包在软中断中经过内核协议栈的处理到达
socket
的接收缓冲区时,紧接着会调用socket的数据就绪回调指针sk_data_ready
,回调函数为sock_def_readable
。在socket
的等待队列中找出等待项,其中等待项中注册的回调函数为ep_poll_callback
。 - 在回调函数
ep_poll_callback
中,根据struct eppoll_entry
中的struct wait_queue_t wait
通过container_of宏
找到eppoll_entry
对象并通过它的base
指针找到封装socket
的数据结构struct epitem
,并将它加入到epoll
中的就绪队列rdllist
中。 - 随后查看
epoll
中的等待队列中是否有等待项,也就是说查看是否有进程阻塞在epoll_wait
上等待IO就绪
的socket
。如果没有等待项,则软中断处理完成。 - 如果有等待项,则回到注册在等待项中的回调函数
default_wake_function
,在回调函数中唤醒阻塞进程
,并将就绪队列rdllist
中的epitem
的IO就绪
socket信息封装到struct epoll_event
中返回。 - 用户进程拿到
epoll_event
获取IO就绪
的socket,发起系统IO调用读取数据。
再谈水平触发和边缘触发
网上有大量的关于这两种模式的讲解,大部分讲的比较模糊,感觉只是强行从概念上进行描述,看完让人难以理解。所以在这里,笔者想结合上边epoll
的工作过程,再次对这两种模式做下自己的解读,力求清晰的解释出这两种工作模式的异同。
经过上边对epoll
工作过程的详细解读,我们知道,当我们监听的socket
上有数据到来时,软中断会执行epoll
的回调函数ep_poll_callback
,在回调函数中会将epoll
中描述socket信息
的数据结构epitem
插入到epoll
中的就绪队列rdllist
中。随后用户进程从epoll
的等待队列中被唤醒,epoll_wait
将IO就绪
的socket
返回给用户进程,随即epoll_wait
会清空rdllist
。
水平触发和边缘触发最关键的区别就在于当socket
中的接收缓冲区还有数据可读时。epoll_wait
是否会清空rdllist
。
- 水平触发:在这种模式下,用户线程调用
epoll_wait
获取到IO就绪
的socket后,对Socket
进行系统IO调用读取数据,假设socket
中的数据只读了一部分没有全部读完,这时再次调用epoll_wait
,epoll_wait
会检查这些Socket
中的接收缓冲区是否还有数据可读,如果还有数据可读,就将socket
重新放回rdllist
。所以当socket
上的IO没有被处理完时,再次调用epoll_wait
依然可以获得这些socket
,用户进程可以接着处理socket
上的IO事件。 - 边缘触发: 在这种模式下,
epoll_wait
就会直接清空rdllist
,不管socket
上是否还有数据可读。所以在边缘触发模式下,当你没有来得及处理socket
接收缓冲区的剩下可读数据时,再次调用epoll_wait
,因为这时rdlist
已经被清空了,socket
不会再次从epoll_wait
中返回,所以用户进程就不会再次获得这个socket
了,也就无法在对它进行IO处理了。除非,这个socket
上有新的IO数据到达,根据epoll
的工作过程,该socket
会被再次放入rdllist
中。
如果你在边缘触发模式
下,处理了部分socket
上的数据,那么想要处理剩下部分的数据,就只能等到这个socket
上再次有网络数据到达。
在Netty
中实现的EpollSocketChannel
默认的就是边缘触发
模式。JDK
的NIO
默认是水平触发
模式。
epoll对select,poll的优化总结
epoll
在内核中通过红黑树
管理海量的连接,所以在调用epoll_wait
获取IO就绪
的socket时,不需要传入监听的socket文件描述符。从而避免了海量的文件描述符集合在用户空间
和内核空间
中来回复制。select,poll
每次调用时都需要传递全量的文件描述符集合,导致大量频繁的拷贝操作。epoll
仅会通知IO就绪
的socket。避免了在用户空间遍历的开销。
select,poll
只会在IO就绪
的socket上打好标记,依然是全量返回,所以在用户空间还需要用户程序在一次遍历全量集合找出具体IO就绪
的socket。
epoll
通过在socket
的等待队列上注册回调函数ep_poll_callback
通知用户程序IO就绪
的socket。避免了在内核中轮询的开销。
大部分情况下socket
上并不总是IO活跃
的,在面对海量连接的情况下,select,poll
采用内核轮询的方式获取IO活跃
的socket,无疑是性能低下的核心原因。
根据以上epoll
的性能优势,它是目前为止各大主流网络框架,以及反向代理中间件使用到的网络IO模型。
利用epoll
多路复用IO模型可以轻松的解决C10K
问题。
C100k
的解决方案也还是基于 C10K
的方案,通过epoll
配合线程池,再加上 CPU、内存和网络接口的性能和容量提升。大部分情况下,C100K
很自然就可以达到。
甚至C1000K
的解决方法,本质上还是构建在 epoll
的多路复用 I/O 模型
上。只不过,除了 I/O 模型之外,还需要从应用程序到 Linux 内核、再到 CPU、内存和网络等各个层次的深度优化,特别是需要借助硬件,来卸载那些原来通过软件处理的大量功能(去掉大量的中断响应开销
,以及内核协议栈处理的开销
)。
信号驱动IO
大家对这个装备肯定不会陌生,当我们去一些美食城吃饭的时候,点完餐付了钱,老板会给我们一个信号器。然后我们带着这个信号器可以去找餐桌,或者干些其他的事情。当信号器亮了的时候,这时代表饭餐已经做好,我们可以去窗口取餐了。
这个典型的生活场景和我们要介绍的信号驱动IO模型
就很像。
在信号驱动IO模型
下,用户进程操作通过系统调用 sigaction 函数
发起一个 IO 请求,在对应的socket
注册一个信号回调
,此时不阻塞
用户进程,进程会继续工作。当内核数据就绪时,内核就为该进程生成一个 SIGIO 信号
,通过信号回调通知进程进行相关 IO 操作。
这里需要注意的是:
信号驱动式 IO 模型
依然是同步IO
,因为它虽然可以在等待数据的时候不被阻塞,也不会频繁的轮询,但是当数据就绪,内核信号通知后,用户进程依然要自己去读取数据,在数据拷贝阶段
发生阻塞。信号驱动 IO模型 相比于前三种 IO 模型,实现了在等待数据就绪时,进程不被阻塞,主循环可以继续工作,所以
理论上
性能更佳。
但是实际上,使用TCP协议
通信时,信号驱动IO模型
几乎不会被采用
。原因如下:
- 信号IO 在大量 IO 操作时可能会因为信号队列溢出导致没法通知
SIGIO 信号
是一种 Unix 信号,信号没有附加信息,如果一个信号源有多种产生信号的原因,信号接收者就无法确定究竟发生了什么。而 TCP socket 生产的信号事件有七种之多,这样应用程序收到 SIGIO,根本无从区分处理。
但信号驱动IO模型
可以用在 UDP
通信上,因为UDP 只有一个数据请求事件
,这也就意味着在正常情况下 UDP 进程只要捕获 SIGIO 信号,就调用 read 系统调用
读取到达的数据。如果出现异常,就返回一个异常错误。
这里插句题外话,大家觉不觉得阻塞IO模型
在生活中的例子就像是我们在食堂排队打饭。你自己需要排队去打饭同时打饭师傅在配菜的过程中你需要等待。
IO多路复用模型
就像是我们在饭店门口排队等待叫号。叫号器就好比select,poll,epoll
可以统一管理全部顾客的吃饭就绪
事件,客户好比是socket
连接,谁可以去吃饭了,叫号器就通知谁。
异步IO(AIO)
以上介绍的四种IO模型
均为同步IO
,它们都会阻塞在第二阶段数据拷贝阶段
。
通过在前边小节《同步与异步》中的介绍,相信大家很容易就会理解异步IO模型
,在异步IO模型
下,IO操作在数据准备阶段
和数据拷贝阶段
均是由内核来完成,不会对应用程序造成任何阻塞。应用进程只需要在指定的数组
中引用数据即可。
异步 IO
与信号驱动 IO
的主要区别在于:信号驱动 IO
由内核通知何时可以开始一个 IO 操作
,而异步 IO
由内核通知 IO 操作何时已经完成
。
举个生活中的例子:异步IO模型
就像我们去一个高档饭店里的包间吃饭,我们只需要坐在包间里面,点完餐(类比异步IO调用
)之后,我们就什么也不需要管,该喝酒喝酒,该聊天聊天,饭餐做好后服务员(类比内核
)会自己给我们送到包间(类比用户空间
)来。整个过程没有任何阻塞。
异步IO
的系统调用需要操作系统内核来支持,目前只有Window
中的IOCP
实现了非常成熟的异步IO机制
。
而Linux
系统对异步IO机制
实现的不够成熟,且与NIO
的性能相比提升也不明显。
但Linux kernel 在5.1版本由Facebook的大神Jens Axboe引入了新的异步IO库io_uring
改善了原来Linux native AIO的一些性能问题。性能相比Epoll
以及之前原生的AIO
提高了不少,值得关注。
再加上信号驱动IO模型
不适用TCP协议
,所以目前大部分采用的还是IO多路复用模型
。
IO线程模型
在前边内容的介绍中,我们详述了网络数据包的接收和发送过程,并通过介绍5种IO模型
了解了内核是如何读取网络数据并通知给用户线程的。
前边的内容都是以内核空间
的视角来剖析网络数据的收发模型,本小节我们站在用户空间
的视角来看下如果对网络数据进行收发。
相对内核
来讲,用户空间的IO线程模型
相对就简单一些。这些用户空间
的IO线程模型
都是在讨论当多线程一起配合工作时谁负责接收连接,谁负责响应IO 读写、谁负责计算、谁负责发送和接收,仅仅是用户IO线程的不同分工模式罢了。
Reactor
Reactor
是利用NIO
对IO线程
进行不同的分工:
- 使用前边我们提到的
IO多路复用模型
比如select,poll,epoll,kqueue
,进行IO事件的注册和监听。 - 将监听到
就绪的IO事件
分发dispatch
到各个具体的处理Handler
中进行相应的IO事件处理
。
通过IO多路复用技术
就可以不断的监听IO事件
,不断的分发dispatch
,就像一个反应堆
一样,看起来像不断的产生IO事件
,因此我们称这种模式为Reactor
模型。
下面我们来看下Reactor模型
的三种分类:
单Reactor单线程
Reactor模型
是依赖IO多路复用技术
实现监听IO事件
,从而源源不断的产生IO就绪事件
,在Linux系统下我们使用epoll
来进行IO多路复用
,我们以Linux系统为例:
- 单
Reactor
意味着只有一个epoll
对象,用来监听所有的事件,比如连接事件
,读写事件
。 单线程
意味着只有一个线程来执行epoll_wait
获取IO就绪
的Socket
,然后对这些就绪的Socket
执行读写,以及后边的业务处理也依然是这个线程。
单Reactor单线程
模型就好比我们开了一个很小很小的小饭馆,作为老板的我们需要一个人干所有的事情,包括:迎接顾客(accept事件
),为顾客介绍菜单等待顾客点菜(IO请求
),做菜(业务处理
),上菜(IO响应
),送客(断开连接
)。
单Reactor多线程
随着客人的增多(并发请求
),显然饭馆里的事情只有我们一个人干(单线程
)肯定是忙不过来的,这时候我们就需要多招聘一些员工(多线程
)来帮着一起干上述的事情。
于是就有了单Reactor多线程
模型:
- 这种模式下,也是只有一个
epoll
对象来监听所有的IO事件
,一个线程来调用epoll_wait
获取IO就绪
的Socket
。 - 但是当
IO就绪事件
产生时,这些IO事件
对应处理的业务Handler
,我们是通过线程池来执行。这样相比单Reactor单线程
模型提高了执行效率,充分发挥了多核CPU的优势。
主从Reactor多线程
做任何事情都要区分事情的优先级
,我们应该优先高效
的去做优先级更高
的事情,而不是一股脑不分优先级的全部去做。
当我们的小饭馆客人越来越多(并发量越来越大
),我们就需要扩大饭店的规模,在这个过程中我们发现,迎接客人
是饭店最重要的工作,我们要先把客人迎接进来,不能让客人一看人多就走掉,只要客人进来了,哪怕菜做的慢一点也没关系。
于是,主从Reactor多线程
模型就产生了:
- 我们由原来的
单Reactor
变为了多Reactor
。主Reactor
用来优先专门
做优先级最高的事情,也就是迎接客人(处理连接事件
),对应的处理Handler
就是图中的acceptor
。 - 当创建好连接,建立好对应的
socket
后,在acceptor
中将要监听的read事件
注册到从Reactor
中,由从Reactor
来监听socket
上的读写
事件。 - 最终将读写的业务逻辑处理交给线程池处理。
注意:这里向
从Reactor
注册的只是read事件
,并没有注册write事件
,因为read事件
是由epoll内核
触发的,而write事件
则是由用户业务线程触发的(什么时候发送数据是由具体业务线程决定的
),所以write事件
理应是由用户业务线程
去注册。用户线程注册
write事件
的时机是只有当用户发送的数据无法一次性
全部写入buffer
时,才会去注册write事件
,等待buffer重新可写
时,继续写入剩下的发送数据、如果用户线程可以一股脑的将发送数据全部写入buffer
,那么也就无需注册write事件
到从Reactor
中。
主从Reactor多线程
模型是现在大部分主流网络框架中采用的一种IO线程模型
。我们本系列的主题Netty
就是用的这种模型。
Proactor
Proactor
是基于AIO
对IO线程
进行分工的一种模型。前边我们介绍了异步IO模型
,它是操作系统内核支持的一种全异步编程模型,在数据准备阶段
和数据拷贝阶段
全程无阻塞。
ProactorIO线程模型
将IO事件的监听
,IO操作的执行
,IO结果的dispatch
统统交给内核
来做。
Proactor模型
组件介绍:
completion handler
为用户程序定义的异步IO操作回调函数,在异步IO操作完成时会被内核回调并通知IO结果。Completion Event Queue
异步IO操作完成后,会产生对应的IO完成事件
,将IO完成事件
放入该队列中。Asynchronous Operation Processor
负责异步IO
的执行。执行完成后产生IO完成事件
放入Completion Event Queue
队列中。Proactor
是一个事件循环派发器,负责从Completion Event Queue
中获取IO完成事件
,并回调与IO完成事件
关联的completion handler
。Initiator
初始化异步操作(asynchronous operation
)并通过Asynchronous Operation Processor
将completion handler
和proactor
注册到内核。
Proactor模型
执行过程:
- 用户线程发起
aio_read
,并告诉内核
用户空间中的读缓冲区地址,以便内核
完成IO操作
将结果放入用户空间
的读缓冲区,用户线程直接可以读取结果(无任何阻塞
)。 Initiator
初始化aio_read
异步读取操作(asynchronous operation
),并将completion handler
注册到内核。在
Proactor
中我们关心的IO完成事件
:内核已经帮我们读好数据并放入我们指定的读缓冲区,用户线程可以直接读取。
在Reactor
中我们关心的是IO就绪事件
:数据已经到来,但是需要用户线程自己去读取。- 此时用户线程就可以做其他事情了,无需等待IO结果。而内核与此同时开始异步执行IO操作。当
IO操作
完成时会产生一个completion event
事件,将这个IO完成事件
放入completion event queue
中。 Proactor
从completion event queue
中取出completion event
,并回调与IO完成事件
关联的completion handler
。- 在
completion handler
中完成业务逻辑处理。
Reactor与Proactor对比
Reactor
是基于NIO
实现的一种IO线程模型
,Proactor
是基于AIO
实现的IO线程模型
。Reactor
关心的是IO就绪事件
,Proactor
关心的是IO完成事件
。- 在
Proactor
中,用户程序需要向内核传递用户空间的读缓冲区地址
。Reactor
则不需要。这也就导致了在Proactor
中每个并发操作都要求有独立的缓存区,在内存上有一定的开销。 Proactor
的实现逻辑复杂,编码成本较Reactor
要高很多。Proactor
在处理高耗时 IO
时的性能要高于Reactor
,但对于低耗时 IO
的执行效率提升并不明显
。
Netty的IO模型
在我们介绍完网络数据包在内核中的收发过程
以及五种IO模型
和两种IO线程模型
后,现在我们来看下netty
中的IO模型是什么样的。
在我们介绍Reactor IO线程模型
的时候提到有三种Reactor模型
:单Reactor单线程
,单Reactor多线程
,主从Reactor多线程
。
这三种Reactor模型
在netty
中都是支持的,但是我们常用的是主从Reactor多线程模型
。
而我们之前介绍的三种Reactor
只是一种模型,是一种设计思想。实际上各种网络框架在实现中并不是严格按照模型来实现的,会有一些小的不同,但大体设计思想上是一样的。
下面我们来看下netty
中的主从Reactor多线程模型
是什么样子的?
Reactor
在netty
中是以group
的形式出现的,netty
中将Reactor
分为两组,一组是MainReactorGroup
也就是我们在编码中常常看到的EventLoopGroup bossGroup
,另一组是SubReactorGroup
也就是我们在编码中常常看到的EventLoopGroup workerGroup
。MainReactorGroup
中通常只有一个Reactor
,专门负责做最重要的事情,也就是监听连接accept
事件。当有连接事件产生时,在对应的处理handler acceptor
中创建初始化相应的NioSocketChannel
(代表一个Socket连接
)。然后以负载均衡
的方式在SubReactorGroup
中选取一个Reactor
,注册上去,监听Read事件
。MainReactorGroup
中只有一个Reactor
的原因是,通常我们服务端程序只会绑定监听
一个端口,如果要绑定监听
多个端口,就会配置多个Reactor
。SubReactorGroup
中有多个Reactor
,具体Reactor
的个数可以由系统参数-D io.netty.eventLoopThreads
指定。默认的Reactor
的个数为CPU核数 * 2
。SubReactorGroup
中的Reactor
主要负责监听读写事件
,每一个Reactor
负责监听一组socket连接
。将全量的连接分摊
在多个Reactor
中。- 一个
Reactor
分配一个IO线程
,这个IO线程
负责从Reactor
中获取IO就绪事件
,执行IO调用获取IO数据
,执行PipeLine
。
Socket连接
在创建后就被固定的分配
给一个Reactor
,所以一个Socket连接
也只会被一个固定的IO线程
执行,每个Socket连接
分配一个独立的PipeLine
实例,用来编排这个Socket连接
上的IO处理逻辑
。这种无锁串行化
的设计的目的是为了防止多线程并发执行同一个socket连接上的IO逻辑处理
,防止出现线程安全问题
。同时使系统吞吐量达到最大化由于每个
Reactor
中只有一个IO线程
,这个IO线程
既要执行IO活跃Socket连接
对应的PipeLine
中的ChannelHandler
,又要从Reactor
中获取IO就绪事件
,执行IO调用
。所以PipeLine
中ChannelHandler
中执行的逻辑不能耗时太长,尽量将耗时的业务逻辑处理放入单独的业务线程池中处理,否则会影响其他连接的IO读写
,从而近一步影响整个服务程序的IO吞吐
。
- 当
IO请求
在业务线程中完成相应的业务逻辑处理后,在业务线程中利用持有的ChannelHandlerContext
引用将响应数据在PipeLine
中反向传播,最终写回给客户端。
netty
中的IO模型
我们介绍完了,下面我们来简单介绍下在netty
中是如何支持前边提到的三种Reactor模型
的。
配置单Reactor单线程
EventLoopGroup eventGroup = new NioEventLoopGroup(1);
ServerBootstrap serverBootstrap = new ServerBootstrap();
serverBootstrap.group(eventGroup);
配置单Reactor多线程
EventLoopGroup eventGroup = new NioEventLoopGroup();
ServerBootstrap serverBootstrap = new ServerBootstrap();
serverBootstrap.group(eventGroup);
配置主从Reactor多线程
EventLoopGroup bossGroup = new NioEventLoopGroup(1);
EventLoopGroup workerGroup = new NioEventLoopGroup();
ServerBootstrap serverBootstrap = new ServerBootstrap();
serverBootstrap.group(bossGroup, workerGroup);
总结
本文是一篇信息量比较大的文章,用了25
张图,22336
个字从内核如何处理网络数据包的收发过程开始展开,随后又在内核角度
介绍了经常容易混淆的阻塞与非阻塞
,同步与异步
的概念。以这个作为铺垫,我们通过一个C10K
的问题,引出了五种IO模型
,随后在IO多路复用
中以技术演进的形式介绍了select,poll,epoll
的原理和它们综合的对比。最后我们介绍了两种IO线程模型
以及netty
中的Reactor模型
。
感谢大家听我唠叨到这里,哈哈,现在大家可以揉揉眼,伸个懒腰,好好休息一下了。