• I/O模型

    Httpd MPM

        prefork:进程模型,两级结构;主进程master负责生成子进程,每个子进程负责响应一个请求

        worker:线程模型,三级结构;主进程master负责生成子进程,每个子进程负责生成多个线程,每个线程响应一个请求

        event:线程模型,三级结构,主进程master负责生成子进程,每个子进程响应多个请求

    I/O:输入/输出

        网络IO:本质是socket读取

        磁盘IO:磁盘读,写

    每次IO,都要经由两个阶段

        第一步:将数据从磁盘文件加载至内核空间(缓冲区),等待数据准备完成,时间较长。

        第二步:将数据从内核缓冲区复制到用户空间的进程的内存中,时间较短

    I/O模型

        同步/异步:关注的是消息通信机制

            同步:synchronous,调用者等待被调用者返回消息,才能继续执行

            异步:asynchronous,被调用者通过状态、通知或回调机制主动通知调用者被调用者的运行状态

        阻塞/非阻塞:关注调用者在等待结果返回之前所处的状态

            阻塞:blocking,指IO操作需要彻底完成后才返回到用户空间,调用结果返回之前,调用者被挂起

            非阻塞:nonblocking,指IO操作被调用后立即返回给用户一个状态值,无需等到IO操作彻底完成,最终的调用结果返回之前,调用者不会被挂起

        I/O模型:

            阻塞型、非阻塞型、复用型、信号驱动型、异步

        同步阻塞模型

            

            同步阻塞IO模型是最简单的IO模型,用户线程在内核进行IO操作时被阻塞

            用户线程通过系统调用read发起IO读操作,由用户空间转到内核空间。内核等到数据包到达后,然后将接收的数据拷贝到用户空间,完成read操作

            用户需要等待read将数据读取到buffer后,才继续处理接收的数据。整个IO请求的过程中,用户线程是被阻塞的,这导致用户在发起IO请求时,不能做任何事情,对CPU的资源利用率不够

        同步非阻塞IO模型

            

            用户线程发起IO请求时立即返回。但并未读取到任何数据,用户线程需要不断地发起IO请求,直到数据到达后,才真正读取到数据,继续执行。即“轮询”机制

            整个IO请求的过程中,虽然用户线程每次发起IO请求后可以立即返回,但是为了等到数据,仍需要不断地轮询、重复请求、消耗了大量的CPU资源

            是比较浪费CPU的方式,一般很少直接使用这种模型,而是在其他IO模型中使用非阻塞IO这一特性

        IO多路复用模型

            

            多个连接共用一个等待机制,本模型会阻塞进程,但是进程是阻塞在select或者poll这两个系统调用上,而不是阻塞在真正的IO操作上

            用户首先将需要进行的IO操作添加到select中,继续执行做其他的工作(异步),同时等待select系统调用返回。当数据到达时,IO被激活,select函数返回。用户线程正式发起read请求,读取数据并继续执行

            从流程上来看,使用select函数进行IO请求和同步阻塞模型没有太大的区别,甚至还多了添加监视IO,以及调用select函数的额外操作,效率更差。并且阻塞了两次,但是第一次阻塞在select上时,select可以监控多个IO上是否已有IO操作准备就绪,即可达到在同一个线程内同时处理多个IO请求的目的。而不像阻塞IO那种,一次只能监控一个IO

            虽然上述方式允许单线程内处理多个IO请求,但是每个IO请求的过程还是阻塞的(在select函数上阻塞),平均时间甚至比同步阻塞IO模型还要长。如果用户线程只是注册自己需要的IO请求,然后去做自己的事情,等到数据到来时再进行处理,则可以提高CPU的利用率

            IO多路复用是最常用的IO模型,但是其异步程序还不够“彻底”,因它使用了会阻塞线程的select系统调用。因此IO多路复用只能称为异步阻塞IO模型,而非真正的异步IO

        多路I/O复用

            IO多路复用是指内核一旦发现进程指定的一个或者多个IO条件准备读取,就通知该进程           

                IO多路复用适用如下场合:

                    当客户端处理多个描述符时(一般是交互式输入和网络套接口),必须使用I/O复用

                    当一个客户端同时处理多个套接字时,此情况可能的但很少出现

                    当一个TCP服务器既要处理监听套接字,又要处理已连接套接字,一般也要用到I/O复用

                    当一个服务器即要处理TCP,又要处理UDP,一般要使用I/O复用

                    当一个服务器要处理多个服务或多个协议,一般要使用I/O复用

        信号驱动IO模型

            

            信号驱动IO:signal-driven I/O

            用户进程可以通过sigaction系统调用注册一个信号处理程序,然后主程序可以继续向下执行,然后将用户进程所需要的数据从内核空间拷贝到用户空间

            此模型的优势在于等待数据报到达期间进程不被阻塞。用户主程序可以继续执行,只要等待来自信号处理函数的通知;该模型并不常用

        异步IO模型

            

            异步IO与信号驱动最主要的区别是信号驱动IO是由内核通知何时可以进行IO操作,而异步IO则是由内核告诉用户线程IO操作何时完成。信号驱动IO当内核通知触发信号处理程序时,信号处理程序还需要阻塞在从内核空间缓冲区拷贝数据到用户空间缓冲区这个阶段,而异步IO直接是在第二个阶段完成后,内核直接通知用户线程可以进行后续操作了

            相比于IO多路复用模型,异步IO并不十分常用,不少高性能并发服务程序使用IO多路复用模型+多线程任务处理和架构基本可以满足需求。目前操作系统对异步IO的支持并非特别完善,更多的是采用IO多路复用模型模拟异步IO的方式(IO事件触发时不直接通知用户线程,而是将数据读写完毕后放到用户指定的缓冲区中)

        五种I/O模型

            

        I/O模型的具体实现

            主要实现方式有以下几种:

                Select:Linux实现对应,I/O复用模型,BSD 4.2最早实现

                Poll:Linux实现,对应I/O复用模型,System V unix最早实现

                Epoll:Linux实现,对应I/O复用模型,具有信号驱动I/O模型的某些特性

                Kqueue:FreeBSD实现,对应I/O复用模型,具有信号驱动I/O模型某些特性

                /dev/poll:SUN的Solaris实现,对应I/O复用模型,具有信号驱动I/O模型的某些特性

                Iocp Windows实现,对应第5种(异步I/O)模型

    select/poll/epoll

        

        

        Select:POSIX所规定,目前几乎在所有的平台上支持,其良好跨平台支持也是它一个优点,本质上是通过设置或者检查存放fd标志位的数据结构来进行下一步处理

        缺点:

                单个进程可监视的fd数据被限制,即能监听端口的数量有限

                    cat /proc/sys/fs/file-max

                对socket是线性扫描,即采用轮询的方法,效率较低

                select采取了内存拷贝方法来实现内核将FD消息通知给用户空间,这样一个用来存放大量fd的数据结构,这样全使得用户空间和内核空间在传递该结构时复制开销大

        poll

            本质上和select没有区别,它将用户传入的数组拷贝到内核空间,然后查询每个fd对应的设备状态

            其没有最大连接数的限制,原因是它是基于链表来存储的

            大量的fd的数组被整体复制于用户态的内核地址空间之间,而不管这样的复制是不是有意义

            poll特点是“水平触发”,如果报告了fd后,没有被处理,那么下次poll时会再次报告该fd

            边缘触发:只通知一次

        epoll:在Linux 2.6内核中提出的select和poll的增强版本

            支持水平触发和LT和边缘触发ET,最大的特点在于边缘触发,它只告诉进程哪些fd刚刚变为就需态,并且只会通知一次

            使用“事件”的就绪通知方式,通过epoll_ctl注册fd,一旦该fd就绪,内核就会采用类似callback的回调机制来激活该fd,epoll_wait便可以收到通知

            优点:

                    没有最大并发连接的限制:能打开的FD的上限远大于1024(1G的内存能监听约10万个端口)

                    效率提升:非轮询的方式,不会随着FD数目的增加而效率下降;只有活跃可用的FD才会调用callback函数,即epoll最大的优点就在于它只管理“活跃”的连接,而跟连接总数无关

                    内存拷贝,利用mmap(Memory Mapping)加速与内核空间的消息传递;即epoll使用mmap减少复制开销

  • Nginx介绍

    简介

        Nginx:engine X  2002年,开源  商业版

        Nginx是免费,开源,高性能的HTTP和反向代理服务器,邮件代理服务器,通用TCP/UDP代理服务器

        它可触发C10K问题(10K Connections)

        官方站点:

            http://nginx.org/

             http://nginx.com/

        二次开发版:

            Tengine, OpenResty(章亦春)

    特性:

        模块化设计,较好的扩展性

        高可靠性

        支持热部署:不停机更新配置文件,升级版本,更换日志文件

        低内存消耗:10000个keep-alive连接模式下的非活动连接,仅需2.5M内存

        event-driven,aio,mmap,sendfile

    基本功能:

        静态资源的Web服务器

        http协议反向代理服务器

        pop3/imap4协议反向代理服务器

        FastCGI(LNMP),uWSGI(python)等协议

        模块化(非DSO),如zip,SSL模块

        Nginx功能强,性能弱;LVS功能弱,性能强

    Web服务相关功能

        虚拟主机(Server)

        支持keep-alive和管道连接

        访问日志(支持基于日志缓冲提高其性能)

        url rewrite

        路径别名

        基于IP及用户的访问控制

        支持速率限制及并发数限制

        重新配置和在线升级而无须中断客户的工作进程

        Memcached的GET接口

    Nginx架构

        

        nginx程序架构

            master/worker结构

            一个master进程

                负载加载和分析配置文件、管理worker进程、平滑升级

            一个或多个worker进程

                处理并响应用户请求

            缓存相关的进程

                cache loader:载入缓存对象

                cache manager:管理缓存对象

    nginx模块

        nginx高度模块化,但其模块早期不支持DSO机制;1.9.11版本支持动态装载和卸载

        模块分类

            核心模块

                core module

            标准模块

                HTTP模块:ngx_http_*

                    HTTP Core modules 默认功能

                    HTTP Optional modules 需编译时指定

                Mail模块 ngx_mail_*

                Stream模块 ngx_stream_*

            第三方模块

                ngx_google_perftools_module

    nginx功用

        静态的web资源服务器

            html,图片,js,css,txt等静态资源

        结合FastCGI/uWSGI/SCGI等协议反向代理动态资源请求

        imap4/pop3协议的反向代理

        tcp/udp协议的请求转发(反向代理)

  • 正向代理和反向代理

  • Nginx安装

    yum安装:epel源  1.2版

    安装最新版:到官方站点配置yum源

        http://nginx.org/en/linux_packages.html#stable 

    官方:http://nginx.org/packages/centos/7/x86_64/RPMS

    编译安装

  • Nginx程序环境

    yum安装

        主程序:

            /usr/sbin/nginx

        Systemd Unit File:

            /usr/lib/systemd/system/nginx.service

       主配置文件:  

           /etc/nginx/nginx.conf      

            /etc/nginx/conf.d/*

        默认页面:

            /usr/share/nginx/html/index.html

       默认错误页面:

            /usr/share/nginx/html/50x.html        

    编译安装