Linux高并发服务器开发

BIO模型


阻塞等待 

Linux高并发服务器开发_第1张图片

 read、recv是阻塞函数,无法实现多个客户端同时请求

NIO模型


Linux高并发服务器开发_第2张图片

非阻塞,忙轮询

多客户端同时请求-多进程、多线程


Linux高并发服务器开发_第3张图片

TCP服务器通信实现(服务器、客户端)


Linux高并发服务器开发_第4张图片

// 套接字:这是一种更为一般的进程间通信机制,它可用于网络中不同机器之间的进程间通信,应用非常广泛。
nRC = WSAStartup(0x0101, &wsaData);
// 这个函数是应用程序应该第一个调用的Winsock API函数,完成对Winsock服务的初始化。
srvtcpsock = socket(AF_INET, SOCK_STREAM, IPPROTO_TCP);
// 函数执行成功返回一个新的SOCKET,失败则返回INVALID_SOCKET。
// 这时可以调用WSAGetLastError函数取得具体的错误代码。
// 所有的通信在建立之前都要创建一个SOCKET。
nRC=bind(srvtcpsock, (sockaddr *)&srvbindaddr, sizeof(sockaddr));
// 成功地创建了一个SOCKET后,用bind函数将SOCKET和主机地址绑定。
listen(srvtcpsock, 20);
// 对于服务器的程序,当申请到SOCKET,并将通信对象指定为INADDR_ANY之后,
// 就应该等待一个客户机的程序来要求连接,listen函数就是把一个SOCKET设置为这个状态
SOCKET communicatesock = accept(srvtcpsock, (sockaddr*)&thrdinfo.clientaddr, &len);
// accept函数从等待连接的队列中取第一个连接请求,并且创建一个新的SOCKET来负责与客户端会话。
err = recv(communicatesock, recvbuf, MAXN, 0); 
// InetNtop()分离出IP号
// 通过已经连接的SOCKET接收数据
int ret = send(communicatesock, sendbuf, len_snd + len, 0);
// 用send函数通过已经连接的SOCKET发送数据。
closesocket(srvtcpsock); WSACleanup();
// 关闭指定的SOCKET。

// join()函数是一个等待线程函数,主线程需等待子线程运行结束后才可以结束
// (注意不是才可以运行,运行是并行的),如果打算等待对应线程,则需要细心挑选调用join()的位置
// detach()函数是子线程的分离函数,当调用该函数后,线程就被分离到后台运行,
// 主线程不需要等待该线程结束才结束

程序突然退出而系统没有释放端口-端口复用


端口复用最常用的用途是:
  1. 防止服务器重启时之前绑定的端口还未释放
  2. 程序突然退出而系统没有释放端口
#include 
#include 
// 设置套接字的属性(不仅仅能设置端口复用)
int setsockopt(int sockfd, int level, int optname, const void *optval, socklen_t optlen);
/*
参数:
    - sockfd : 要操作的socket文件描述符
    - level : 级别 
        - SOL_SOCKET (端口复用的级别)
    - optname : 选项的名称
        - SO_REUSEADDR
        - SO_REUSEPORT
    - optval : 端口复用的值(整形)
        - 1 : 可以复用
        - 0 : 不可以复用
    - optlen : optval参数的大小
*/
端口复用,设置的时机是在服务器绑定端口之前。
setsockopt();
bind();

服务器监听文件描述符效率低-IO多路复用


I/O 多路复用使得程序能同时监听多个文件描述符,能够提高程序的性能,Linux 下实现 I/O 多路复用的 系统调用主要有 selectpoll epoll

非阻塞、忙轮询:隔一段时间询问

Linux高并发服务器开发_第5张图片

 NIO模型:有多少个客户端,调用多少次系统调用Linux高并发服务器开发_第6张图片

1. select

2. poll

3. epoll

Linux高并发服务器开发_第7张图片

项目实战


1. 阻塞/非阻塞 同步/异步(网络IO)

在处理 IO 的时候,阻塞和非阻塞都是同步 IO,只有使用了特殊的 API 才是异步 IO
一个典型的网络IO接口调用,分为两个阶段,分别是 “数据就绪” “数据读写”,数据就绪阶段分为阻塞和非阻塞,表现得结果就是,阻塞当前线程或是直接返回。
同步表示A向B请求调用一个网络IO接口时(或者调用某个业务逻辑API接口时),数据的读写都是 由请求方A自己来完成的(不管是阻塞还是非阻塞);异步表示A向B请求调用一个网络IO接口时 (或者调用某个业务逻辑API接口时),向B传入请求的事件以及事件发生时通知的方式,A就可以
处理其它逻辑了,当B监听到事件处理完成后,会用事先约定好的通知方式,通知A处理结果。

Linux高并发服务器开发_第8张图片

 2. Unix/Linux 5种IO模型

a.阻塞 blocking

调用者调用了某个函数,等待这个函数返回,期间什么也不做,不停的去检查这个函数有没有返回,必须等这个函数返回才能进行下一步动作。
Linux高并发服务器开发_第9张图片

b.非阻塞 non-blockingNIO

非阻塞等待,每隔一段时间就去检测 IO 事件是否就绪。没有就绪就可以做其他事。非阻塞 I/O 执行系统调 用总是立即返回,不管事件是否已经发生,若事件没有发生,则返回-1 ,此时可以根据 errno 区分这两种情况,对于accept recv send ,事件未发生时, errno 通常被设置成 EAGAIN
Linux高并发服务器开发_第10张图片

c.IO复用(IO multiplexing

Linux select/poll/epoll 函数实现 IO 复用模型,这些函数也会使进程阻塞,但是和阻塞 IO 所不同的是这些函数可以同时阻塞多个IO 操作。而且可以同时对多个读操作、写操作的 IO 函数进行检测。直到有数据可读或可写时,才真正调用IO 操作函数。

 Linux高并发服务器开发_第11张图片

d.信号驱动(signal-driven

Linux 用套接口进行信号驱动 IO ,安装一个信号处理函数,进程继续运行并不阻塞,当 IO 事件就绪,进程收到SIGIO 信号,然后处理 IO 事件。
内核在第一个阶段是异步,在第二个阶段是同步;与非阻塞 IO 的区别在于它提供了消息通知机制,不需 要用户进程不断的轮询检查,减少了系统API 的调用次数,提高了效率。
Linux高并发服务器开发_第12张图片

e.异步(asynchronous

Linux 中,可以调用 aio_read 函数告诉内核描述字缓冲区指针和缓冲区的大小、文件偏移及通知的方式,然后立即返回,当内核将数据拷贝到缓冲区后,再通知应用程序。

Linux高并发服务器开发_第13张图片

服务器编程基本框架


虽然服务器程序种类繁多,但其基本框架都一样,不同之处在于逻辑处理

 Linux高并发服务器开发_第14张图片

模块
功能
I/O 处理单元 处理客户连接,读写网络数据
逻辑单元 业务进程或线程
网络存储单元 数据库、文件或缓存
请求队列 各单元之间的通信方式
I/O 处理单元服务器管理客户连接的模块。它通常要完成以下工作:等待并接受新的客户连接,接收客户数据,将服务器响应数据返回给客户端。但是数据的收发不一定在 I/O 处理单元中行,也可能在逻辑单元中执行,具体在何处执行取决于事件处理模式。
一个逻辑单元通常是一个进程或线程。它分析并处理客户数据,然后将结果传递给 I/O 处理单元或者直 接发送给客户端(具体使用哪种方式取决于事件处理模式)。服务器通常拥有多个逻辑元,以实现对多个客户任务的并发处理。
网络存储单元可以是数据库、缓存和文件,但不是必须的。
请求队列是各单元之间的通信方式的抽象。 I/O 处理单元接收到客户请求时,需要以某种方式通知一个 逻辑单元来处理该请求。同样,多个逻辑单元同时访问一个存储单元时,也需要采用某种机制来协调处 理竞态条件。请求队列通常被实现为池的一部分。

两种高效的事件处理模式


服务器程序通常需要处理三类事件: I/O 事件、信号及定时事件。有两种高效的事件处理模式: Reactor 和 Proactor ,同步 I/O 模型通常用于实现 Reactor 模式,异步 I/O 模型通常用于实现 Proactor 模式。Reactor和Proactor模式的主要区别就是 真正的读取和写入操作是有谁来完成的。
区别:
事件处理模式 Reactor Proactor
IO处理模式 同步IO 异步IO
关注事件 读/写就绪 读/写完成
事件处理器读写 Y(自己读取数据) N(系统写入用户缓冲区)
Redis-单Reactor单进程

事件处理模式 Reactor Proactor
简单总结 来了事件操作系统通知应用进程,让应用进程来处理 来了事件操作系统来处理,处理完再通知应用进程
IO处理模式 同步IO 异步IO
关注事件 读/写就绪 读/写完成
事件处理器读写 Y(自己读取数据) N(系统写入用户缓冲区)
适用场景

耗时短的处理场景处理高效

能够处理耗时长的并发场景

优点 实现相对简单 Proactor性能更高
缺点 处理耗时长的操作会造成事件分发的阻塞,影响到后续事件的处理 实现逻辑复杂;依赖操作系统对异步的支持
应用

Redis-单Reactor单进程

Netty、Memcache-多 Reactor 多进程 

Windows-IOCP 二.1

Linux-AIO

Reactor模式主要是提高系统的吞吐量,在有限的资源下处理更多的事情。
应用场景:
标准的经典的 Reactor模式:
步骤 1) 等待事件 (Reactor 的工作)
步骤 2) 发”已经可读”事件发给事先注册的事件处理者或者回调 ( Reactor 要做的)
步骤 3) 读数据 (用户代码要做的)
步骤 4) 处理数据 (用户代码要做的)
模拟的Proactor模式:
步骤 1) 等待事件 (Proactor 的工作)
步骤 2) 读数据(看,这里变成成了让 Proactor 做这个事情)
步骤 3) 把数据已经准备好的消息给用户处理函数,即事件处理者(Proactor 要做的)
步骤 4) 处理数据 (用户代码要做的)

Reactor模式

要求主线程( I/O 处理单元)只负责监听文件描述符上是否有事件发生,有的话就立即将该事件通知工作线程(逻辑单元),将 socket 可读可写事件放入请求队列,交给工作线程处理。除此之外,主线程不做任何其他实质性的工作。读写数据,接受新的连接,以及处理客户请求均在工作线程中完成。
使用同步 I/O (以 epoll_wait 为例)实现的 Reactor 模式的工作流程是:
  1. 主线程往 epoll 内核事件表中注册 socket 上的读就绪事件。
  2. 主线程调用 epoll_wait 等待 socket 上有数据可读。
  3. socket 上有数据可读时, epoll_wait 通知主线程。主线程则将 socket 可读事件放入请求队列。
  4. 睡眠在请求队列上的某个工作线程被唤醒,它从 socket 读取数据,并处理客户请求,然后往epoll内核事件表中注册该 socket 上的写就绪事件。
  5. 当主线程调用 epoll_wait 等待 socket 可写。
  6. socket 可写时,epoll_wait 通知主线程。主线程将 socket 可写事件放入请求队列。
  7. 睡眠在请求队列上的某个工作线程被唤醒,它往 socket 上写入服务器处理客户请求的结果。
Reactor 模式的工作流程
Linux高并发服务器开发_第15张图片

Proactor模式

Proactor 模式将所有 I/O 操作都交给主线程和内核来处理(进行读、写),工作线程仅仅负责业务逻辑。
使用异步I/O 模型(以 aio_read aio_write 为例)实现的 Proactor 模式的工作流程是:
  1. 主线程调用 aio_read 函数向内核注册 socket 上的读完成事件,并告诉内核用户读缓冲区的位置,以及读操作完成时如何通知应用程序(这里以信号为例)。
  2. 主线程继续处理其他逻辑。
  3. socket 上的数据被读入用户缓冲区后,内核将向应用程序发送一个信号,以通知应用程序数据已经可用。
  4. 应用程序预先定义好的信号处理函数选择一个工作线程来处理客户请求。工作线程处理完客户请求后,调用 aio_write 函数向内核注册 socket 上的写完成事件,并告诉内核用户写缓冲区的位置,以及写操作完成时如何通知应用程序。
  5. 主线程继续处理其他逻辑。
  6. 当用户缓冲区的数据被写入 socket 之后,内核将向应用程序发送一个信号,以通知应用程序数据已经发送完毕。
  7. 应用程序预先定义好的信号处理函数选择一个工作线程来做善后处理,比如决定是否关闭 socket
Proactor 模式的工作流程

 Linux高并发服务器开发_第16张图片

使用同步 I/O 模型(以 epoll_wait 为例)模拟出的 Proactor 模式的工作流程如下:
  1. 主线程往 epoll 内核事件表中注册 socket 上的读就绪事件。
  2. 主线程调用 epoll_wait 等待 socket 上有数据可读。
  3. socket 上有数据可读时,epoll_wait 通知主线程。主线程从 socket 循环读取数据,直到没有更多数据可读,然后将读取到的数据封装成一个请求对象并插入请求队列。
  4. 睡眠在请求队列上的某个工作线程被唤醒,它获得请求对象并处理客户请求,然后往 epoll 内核事件表中注册 socket 上的写就绪事件。
  5. 主线程调用 epoll_wait 等待 socket 可写。
  6. socket 可写时,epoll_wait 通知主线程。主线程往 socket 上写入服务器处理客户请求的结果。

同步 I/O 模拟 Proactor 模式的工作流程:

Linux高并发服务器开发_第17张图片

线程池


线程池是由服务器预先创建的一组子线程,线程池中的线程数量应该和 CPU 数量差不多。线程池中的所有子线程都运行着相同的代码。当有新的任务到来时,主线程将通过某种方式选择线程池中的某一个子线程来为之服务。相比于动态地创建子线程,选择一个已经存在的子线程的代价显然要小得多。
至于主线程选择哪个子线程来为新任务服务,则有多种方式:
  • 主线程使用某种算法来主动选择子线程。最简单、最常用的算法是随机算法和 Round Robin轮流选取)算法,但更优秀、更智能的算法将使任务在各个工作线程中更均匀地分配,从而减轻服务器的整体压力。
  • 主线程和所有子线程通过一个共享的工作队列来同步,子线程都睡眠在该工作队列上。当有新的任务到来时,主线程将任务添加到工作队列中。这将唤醒正在等待任务的子线程,不过只有一个子线程将获得新任务的接管权,它可以从工作队列中取出任务并执行之,而其他子线程将继续睡眠在工作队列上。

Linux高并发服务器开发_第18张图片

线程池线程数量限制条件:

线程池中的线程数量最直接的限制因素是 中央处理器(CPU)的处理器(processors/cores)的数量N :如果你的CPU是4-cores的,对于CPU密集型的任务(如视频剪辑等消耗CPU计算资源的任务)来说,那线程池中的线程数量最好也设置为4(或者+1防止其他因素造成的线程阻塞);对于IO密集型的任务,一般要多于CPU的核数,因为线程间竞争的不是CPU的计算资源而是IO,IO的处理一般较慢,多于cores数的线程将为CPU争取更多的任务,不至在线程处理IO的过程造成CPU空闲导致资源浪费。
  • 空间换时间,浪费服务器的硬件资源,换取运行效率。
  • 池是一组资源的集合,这组资源在服务器启动之初就被完全创建好并初始化,这称为静态资源。
  • 当服务器进入正式运行阶段,开始处理客户请求的时候,如果它需要相关的资源,可以直接从池中 获取,无需动态分配。
  • 当服务器处理完一个客户连接后,可以把相关的资源放回池中,无需执行系统调用释放资源。

实现线程池步骤:

  1. 设置一个生产者消费者队列,作为临界资源。
  2. 初始化几个线程,并让其运行起来,加锁去队列里取任务运行
  3. 当任务队列为空时,所有线程阻塞。
  4. 当生产者队列来了一个任务后,先对队列加锁,把任务挂到队列上,然后使用条件变撞去通知阻塞中的一个线程来处理。

有限状态机


逻辑单元内部的一种高效编程方法:有限状态机(finite state machine)。
有的应用层协议头部包含数据包类型字段,每种类型可以映射为逻辑单元的一种执行状态,服务器可以 根据它来编写相应的处理逻辑。如下是一种状态独立的有限状态机:
STATE_MACHINE( Package _pack )
{
    PackageType _type = _pack.GetType();
    switch( _type )
    {
        case type_A:
            process_package_A( _pack );
            break;
        case type_B:
            process_package_B( _pack );
            break;
    }
}

EPOLLONESHOT事件


即使可以使用 ET 模式,一个 socket 上的某个事件还是可能被触发多次。这在并发程序中就会引起一个问题。比如一个线程在读取完某个 socket 上的数据后开始处理这些数据,而在数据的处理过程中该socket 上又有新数据可读( EPOLLIN 再次被触发),此时另外一个线程被唤醒来读取这些新的数据。于是就出现了两个线程同时操作一个 socket 的局面。一个 socket 连接在任一时刻都只被一个线程处理,可以使用 epoll EPOLLONESHOT 事件实现。
对于注册了 EPOLLONESHOT 事件的文件描述符,操作系统最多触发其上注册的一个可读、可写或者异常事件,且只触发一次,除非我们使用 epoll_ctl 函数重置该文件描述符上注册的 EPOLLONESHOT 事件。这样,当一个线程在处理某个 socket 时,其他线程是不可能有机会操作该 socket 的。但反过来思考,注册了 EPOLLONESHOT 事件的 socket 一旦被某个线程处理完毕, 该线程就应该立即重置这个socket 上的 EPOLLONESHOT 事件,以确保这个 socket 下一次可读时,其 EPOLLIN 事件能被触发,进而让其他工作线程有机会继续处理这个 socket

服务器压力测试


Webbench 是 Linux 上一款知名的、优秀的 web 性能压力测试工具。它是由Lionbridge公司开发。测试处在相同硬件上,不同服务的性能以及不同硬件上同一个服务的运行状况。
展示服务器的两项内容: 每秒钟响应请求数和每秒钟传输数据量。
基本原理:Webbench 首先 fork 出多个子进程,每个子进程都循环做 web 访问测试。子进程把访问的结果通过pipe 告诉父进程,父进程做最终的统计结果。
webbench -c 1000 -t 30 http://192.168.110.129:10000/index.html 
    参数:
        -c 表示客户端数 
        -t 表示时间

性能瓶颈:


1. 单Reactor单进程

来源:知乎@小林coding

Linux高并发服务器开发_第19张图片

  • 第一个缺点,因为只有一个进程,无法充分利用 多核 CPU 的性能
  • 第二个缺点,Handler 对象在业务处理时,整个进程是无法处理其他连接的事件的,如果业务处理耗时比较长,那么就造成响应的延迟

所以,单 Reactor 单进程的方案不适用计算机密集型的场景,只适用于业务处理非常快速的场景。Redis 是由 C 语言实现的,它采用的正是「单 Reactor 单进程」的方案,因为 Redis 业务处理主要是在内存中完成,操作的速度是很快的,性能瓶颈不在 CPU 上,所以 Redis 对于命令的处理是单进程的方案。

2. 单Reactor多线程

Linux高并发服务器开发_第20张图片

一个 Reactor 对象承担所有事件的监听和响应,而且只在主线程中运行,在面对瞬间高并发的场景时,容易成为性能的瓶颈的地方

3. 多Reactor多进程

Linux高并发服务器开发_第21张图片

方案详细说明如下:

  • 主线程中的 MainReactor 对象通过 select 监控连接建立事件,收到事件后通过 Acceptor 对象中的 accept 获取连接,将新的连接分配给某个子线程;
  • 子线程中的 SubReactor 对象将 MainReactor 对象分配的连接加入 select 继续进行监听,并创建一个 Handler 用于处理连接的响应事件。
  • 如果有新的事件发生时,SubReactor 对象会调用当前连接对应的 Handler 对象来进行响应。
  • Handler 对象通过 read -> 业务处理 -> send 的流程来完成完整的业务流程。

多 Reactor 多线程的方案虽然看起来复杂的,但是实际实现时比单 Reactor 多线程的方案要简单的多,原因如下:

  • 主线程和子线程分工明确,主线程只负责接收新连接,子线程负责完成后续的业务处理。
  • 主线程和子线程的交互很简单,主线程只需要把新连接传给子线程,子线程无须返回数据,直接就可以在子线程将处理结果发送给客户端。

大名鼎鼎的两个开源软件 Netty 和 Memcache 都采用了「多 Reactor 多线程」的方案。

采用了「多 Reactor 多进程」方案的开源软件是 Nginx,不过方案与标准的多 Reactor 多进程有些差异。

阻塞等待过程:

Linux高并发服务器开发_第22张图片

异步IO

Linux高并发服务器开发_第23张图片

你可能感兴趣的:(面试复习,Linux,Unix环境高级编程,linux,网络编程)