Netty之剖析Linux内核理解NIO与Epoll

目录

Netty之剖析Linux内核理解NIO与Epoll

IO模型

BIO(Blocking IO)

代码演示:

 缺点:

BIO总结:

NIO(Non Blocking IO)

NIO非阻塞代码示例:

使用telnet客户端+Debug代码演示:

总结:

NIO引入多路复用器Selector的代码演示

使用telnet客户端+debug测试代码:

NIO三大核心组件

Hotspot源码与Linux内核理解NIO与Epoll

流程总结:

Epoll函数详解

总结:

Redis线程模型

AIO(NIO 2.0)

AIO代码示例:

为什么Netty使用NIO而不是AIO?

同步异步与阻塞非阻塞

总结:


Netty之剖析Linux内核理解NIO与Epoll

IO模型

IO模型就是说用什么样的通道进行数据的发送和接收,Java一共支持三种网络编程IO模式:BIO(阻塞式IO),NIO(非阻塞),AIO(异步)

BIO(Blocking IO)

同步阻塞模型,一个客户端连接对应的一个处理线程。

Netty之剖析Linux内核理解NIO与Epoll_第1张图片

代码演示:

/**
 * @Description: TODO
 * @Author: etcEriksen
 * @Date: 2023/3/1
 **/
public class SocketServer {
    public static void main(String[] args) throws IOException {
        ServerSocket serverSocket = new ServerSocket(9000);
        while (true) {
            System.out.println("等待连接。。");
            //阻塞方法
            Socket clientSocket = serverSocket.accept();
            System.out.println("有客户端连接了。。");
            handler(clientSocket);

            /*new Thread(new Runnable() {
                @Override
                public void run() {
                    try {
                        handler(clientSocket);
                    } catch (IOException e) {
                        e.printStackTrace();
                    }
                }
            }).start();*/
        }
    }

    private static void handler(Socket clientSocket) throws IOException {
        byte[] bytes = new byte[1024];
        System.out.println("准备read。。");
        //接收客户端的数据,阻塞方法,没有数据可读时就阻塞
        int read = clientSocket.getInputStream().read(bytes);
        System.out.println("read完毕。。");
        if (read != -1) {
            System.out.println("接收到客户端的数据:" + new String(bytes, 0, read));
        }
        clientSocket.getOutputStream().write("HelloClient".getBytes());
        clientSocket.getOutputStream().flush();
    }
}

使用telnet客户端演示:

由于是BIO阻塞模型,所以只能有一个客户端进行连接。

 缺点:

1、IO代码里read操作是阻塞操作,如果连接不做数据读写操作会导致线程阻塞,浪费资源

分析:在多线程的情况下,如果500个请求过来连接客户端,但其中有400个线程是不发送数据给服务端的,但是这些请求是连接服务端成功的,所以会一直阻塞占用线程的资源。这样"占着茅坑不拉屎"的行为就极大的造成了资源的浪费。

2、如果线程很多,会导致服务器线程太多,压力太大,比如C10K问题

应用场景: BIO 方式适用于连接数目比较小且固定的架构, 这种方式对服务器资源要求比较高, 但程序简单易理解。

BIO总结:

BIO是一种同步阻塞的I/O模型,它的缺点主要包括:

  1. 线程阻塞:BIO模型中,当一个线程执行I/O操作时,它会一直阻塞直到I/O操作完成,因此会导致线程的资源浪费,影响系统的并发性能。

  2. 无法处理大量连接:BIO模型的每个线程只能处理一个连接,当有大量连接同时到达时,会导致线程池中线程不足,从而导致新连接无法被及时处理,系统的响应时间增加。

  3. 编程复杂度高:BIO模型需要使用多线程或多进程技术来处理并发连接,编程复杂度较高。

  4. 可扩展性差:由于每个连接都需要一个线程来处理,当连接数增加时,需要增加线程数,但线程数不能无限制增加,否则会导致系统的性能下降,因此BIO模型的可扩展性相对较差。

综上所述,BIO模型在高并发场景下表现不佳,已经被NIO(Non-blocking IO)和AIO(Asynchronous IO)等更高效的I/O模型所取代。

NIO(Non Blocking IO)

同步非阻塞,服务器实现模式为一个线程可以处理多个请求(连接)。客户端发送的连接请求都会注册到多路复用器selector上,多路复用器轮询到连接有IO请求时就进行处理,JDK1.4引入。

应用场景:

NIO方式适用于连接数目多且连接比较短(轻操作) 的架构, 比如聊天服务器, 弹幕系统, 服务器间通讯,编程比较复杂

NIO非阻塞代码示例:

/**
 * @Description: TODO
 * @Author: etcEriksen
 * @Date: 2023/3/1
 **/
public class NioServer{


    /**
     * 保存客户端连接
     */
    static List channelList = new ArrayList<>() ;

    public static void main(String[] args) throws Exception{
        //创建NIO 对应的ServerSocketChannel
        ServerSocketChannel serverSocketChannel = ServerSocketChannel.open();
        serverSocketChannel.socket().bind(new InetSocketAddress(9000));
        //设置ServerSocketChannel为非阻塞
        serverSocketChannel.configureBlocking(false) ;
        while (true) {
            //非阻塞模式accept方法是不会阻塞的,否则会阻塞
            //NIO的非阻塞是由操作系统内部来实现的,底层调用了Linux内核的accept函数
            SocketChannel socketChannel = serverSocketChannel.accept();

            if (socketChannel != null) {
                System.out.println("连接成功");
                //设置SocketChannel为非阻塞
                socketChannel.configureBlocking(false) ;
                //保存客户端连接到List集合中
                channelList.add(socketChannel) ;
            }

            //遍历连接并且进行数据读取
            Iterator iterator = channelList.iterator();

            while (iterator.hasNext()) {
                SocketChannel sc = iterator.next();
                ByteBuffer byteBuffer = ByteBuffer.allocate(128);
                // 非阻塞模式read方法不会阻塞,否则会阻塞
                int len = sc.read(byteBuffer);
                // 如果有数据,把数据打印出来
                if (len > 0) {
                    System.out.println("接收到消息:" + new String(byteBuffer.array()));
                } else if (len == -1) {
                    // 如果客户端断开,把socket从集合中去掉
                    iterator.remove();
                    System.out.println("客户端断开连接");
                }
            }
        }
    }

}

使用telnet客户端+Debug代码演示:

(1) windows命令:telnet ip地址 端口号

(2) ctrl + ] 进入到操作命令行

(3) send+数据表示发送数据

Netty之剖析Linux内核理解NIO与Epoll_第2张图片

 使用help命令表示查询指令帮助文档

Netty之剖析Linux内核理解NIO与Epoll_第3张图片

(4) debug得出的控制台输出:

Netty之剖析Linux内核理解NIO与Epoll_第4张图片

总结:

由于是非阻塞的,所以当连接数太多的话,会有大量的无效遍历,假设说有10000个连接,其中只有1000个连接是有在写数据,但是由于其它的9000个连接并没有断开,我们还是要每一次轮询一遍一万个连接,其实有9000个连接是没有必要去轮询的,因为它们根本没有写数据!!所以其中会有十分之九的遍历都是无效的,这显然不是一个让人很满意的状态。

NIO引入多路复用器Selector的代码演示

/**
 * @Description: TODO
 * @Author: etcEriksen
 * @Date: 2023/3/1
 **/
public class NioSelectorServer {

    public static void main(String[] args) throws Exception{

        //创建NIO ServerSocketChannel
        ServerSocketChannel serverSocketChannel = ServerSocketChannel.open() ;

        serverSocketChannel.socket().bind(new InetSocketAddress(9000));
        //设置ServerSocketChannel为非阻塞
        serverSocketChannel.configureBlocking(false) ;

        //打开Selector处理Channel,即是创建epoll
        Selector selector = Selector.open();
        //把ServerSocketChannel注册到Selector上,并且selector对客户端accept连接操作感兴趣
        serverSocketChannel.register(selector, SelectionKey.OP_ACCEPT) ;

        System.out.println("服务启动成功") ;

        while (true) {

            //阻塞等待需要处理的事件发生
            selector.select();

            //遍历SelectionKey,对事件进行处理
            Set selectionKeys = selector.selectedKeys();
            Iterator iterator = selectionKeys.iterator();

            //遍历SelectionKey对事件进行处理
            while (iterator.hasNext()) {
                SelectionKey key = iterator.next() ;

                if (key.isAcceptable()) {
                    ServerSocketChannel server = (ServerSocketChannel) key.channel();
                    SocketChannel socketChannel = server.accept();
                    socketChannel.configureBlocking(false);
                    // 这里只注册了读事件,如果需要给客户端发送数据可以注册写事件
                    socketChannel.register(selector, SelectionKey.OP_READ);
                    System.out.println("客户端连接成功");
                } else if (key.isReadable()) {
                    SocketChannel socketChannel = (SocketChannel) key.channel();
                    ByteBuffer byteBuffer = ByteBuffer.allocate(128);
                    int len = socketChannel.read(byteBuffer);
                    // 如果有数据,把数据打印出来
                    if (len > 0) {
                        System.out.println("接收到消息:" + new String(byteBuffer.array()));
                    } else if (len == -1) {
                        // 如果客户端断开连接,关闭Socket
                        System.out.println("客户端断开连接");
                        socketChannel.close();
                    }
                }
                //从事件集合里删除本次处理的key,防止下次select重复处理
                //事件处理完一次后就会被清空,如果重复处理会导致空指针异常
                iterator.remove();
            }

        }


    }


}

使用telnet客户端+debug测试代码:

(1) idea开启debug模式

(2)使用telnet ip地址 端口号 进行连接服务端

(3) 发送数据

Netty之剖析Linux内核理解NIO与Epoll_第5张图片

(4) 控制台输出

Netty之剖析Linux内核理解NIO与Epoll_第6张图片

 总结:其实结果不重要,重要的是debug的过程中深度理解Selector对事件的监听机制,当没有事件发生时,会一直阻塞在selector.select()处。这样就极大的节省了当在

 无事件发生下的无用循环导致性能资源大量的消耗与浪费!

Netty之剖析Linux内核理解NIO与Epoll_第7张图片

调试的时候先设置一个断点,然后debug,最后一步步的点击"步过"。

NIO三大核心组件

Channel(通道),Buffer(缓冲区),Selector(多路复用器)

1.Channel类似于流,每一个Channel对应一个buffer缓冲区,buffer底层就是一个数组

2.Channel会注册到Selector上,由Selector根据Channel读写事件的发生将其交由某个空闲的线程处理

3.NIO的Buffer和channel都是既可以读也可以写的

Netty之剖析Linux内核理解NIO与Epoll_第8张图片

 NIO底层在JDK1.4版本是使用Linux内核函数select()或poll()来实现的,跟上面的NioServer代码类似,selector每次都会轮询所有的sockchannel看下哪个channel有读写事件,有的话就处理,没有就继续遍历,这种模式下是极大的消耗线程资源的。因此,我们在JDK1.5开始引入了epoll基于事件响应机制来优化NIO。

Hotspot源码与Linux内核理解NIO与Epoll

NioSelectorServer 代码里如下几个方法非常重要,我们从Hotspot与Linux内核函数级别来理解下

Selector.open();//创建多路复用器
socketChannel.register(selector,SelectionKey.OP_READ);//将channel管道注册到多路复用器
selector.select();//阻塞等待需要处理的事件发生

Netty之剖析Linux内核理解NIO与Epoll_第9张图片

流程总结:

NIO整个调用流程就是Java调用操作系统的内核函数来创建Socket,获取到Socket的文件描述符后。再进行创建一个Selector对象,Selector对应的是操作系统的Epoll描述符,将获取到的Socket连接的文件描述符的事件绑定到Selector对应的Epoll文件描述符上,进行事件的异步通知,这样就实现了使用一条线程,并且不需要太多的无效的遍历,将事件处理交给了操作系统内核(操作系统中断程序实现),大大的提升了效率。

Epoll函数详解

int epoll_create(int size);

创建一个epoll实例,并返回一个非负数作为文件描述符,用于对epoll接口的所有后续调用。参数size代表可能会容纳size个描述符,但size不是一个最大值,只是提示操作系统它的数量级,现在这个参数基本上已经弃用了。

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);

使用文件描述符epfd引用的epoll实例,对目标文件描述符fd执行op操作。

参数epfd表示epoll对应的文件描述符,参数fd表示socket对应的文件描述符。

参数op有以下几个值:

EPOLL_CTL_ADD:注册新的fd到epfd中,并关联事件event;

EPOLL_CTL_MOD:修改已经注册的fd的监听事件;

EPOLL_CTL_DEL:从epfd中移除fd,并且忽略掉绑定的event,这时event可以为null;

参数event是一个结构体:

  struct epoll_event {
	    __uint32_t   events;      /* Epoll events */
	    epoll_data_t data;        /* User data variable */
	};
	
	typedef union epoll_data {
	    void        *ptr;
	    int          fd;
	    __uint32_t   u32;
	    __uint64_t   u64;
	} epoll_data_t;

events有很多可选值,这里只举例最常见的几个:

EPOLLIN :表示对应的文件描述符是可读的;

EPOLLOUT:表示对应的文件描述符是可写的;

EPOLLERR:表示对应的文件描述符发生了错误;

成功则返回0,失败返回-1

int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout);

等待文件描述符epfd上的事件。

epfd是Epoll对应的文件描述符,events表示调用者所有可用事件的集合,maxevents表示最多等到多少个事件就返回,timeout是超时时间。

总结:

I/O多路复用底层主要用的Linux 内核·函数(select,poll,epoll)来实现,windows不支持epoll实现,windows底层是基于winsock2的select函数实现的(不开源)

Netty之剖析Linux内核理解NIO与Epoll_第10张图片

注释:对于poll和select之间最大的区别就在于最大连接有无上限。对于poll来说,最大连接是无上限的,那么造成的循环无用的连接将会更多,资源浪费也就会更多!但是epoll则完成了很大的进步改善。

Redis线程模型

Redis就是典型的基于epoll的NIO线程模型(nginx也是),epoll实例收集所有事件(连接与读写事件),由一个服务端线程连续处理所有事件命令。

Redis底层关于epoll的源码实现在redis的src源码目录的ae_epoll.c文件里,感兴趣可以自行研究。

AIO(NIO 2.0)

异步非阻塞, 由操作系统完成后回调通知服务端程序启动线程去处理, 一般适用于连接数较多且连接时间较长的应用

应用场景:

AIO方式适用于连接数目多且连接比较长(重操作)的架构,JDK7 开始支持

AIO代码示例:

Server端:

/**
 * @Description: TODO
 * @Author: etcEriksen
 * @Date: 2023/3/1
 **/
public class AIOServer {

    public static void main(String[] args) throws Exception {
        final AsynchronousServerSocketChannel serverChannel =
                AsynchronousServerSocketChannel.open().bind(new InetSocketAddress(9000));

        serverChannel.accept(null, new CompletionHandler() {
            @Override
            public void completed(AsynchronousSocketChannel socketChannel, Object attachment) {
                try {
                    System.out.println("2--"+Thread.currentThread().getName());
                    // 再此接收客户端连接,如果不写这行代码后面的客户端连接连不上服务端
                    serverChannel.accept(attachment, this);
                    System.out.println(socketChannel.getRemoteAddress());
                    ByteBuffer buffer = ByteBuffer.allocate(1024);
                    socketChannel.read(buffer, buffer, new CompletionHandler() {
                        @Override
                        public void completed(Integer result, ByteBuffer buffer) {
                            System.out.println("3--"+Thread.currentThread().getName());
                            buffer.flip();
                            System.out.println(new String(buffer.array(), 0, result));
                            socketChannel.write(ByteBuffer.wrap("HelloClient".getBytes()));
                        }

                        @Override
                        public void failed(Throwable exc, ByteBuffer buffer) {
                            exc.printStackTrace();
                        }
                    });
                } catch (IOException e) {
                    e.printStackTrace();
                }
            }

            @Override
            public void failed(Throwable exc, Object attachment) {
                exc.printStackTrace();
            }
        });

        System.out.println("1--"+Thread.currentThread().getName());
        Thread.sleep(Integer.MAX_VALUE);
    }
}

Client端:

/**
 * @Description: TODO
 * @Author: etcEriksen
 * @Date: 2023/3/1
 **/
public class AIOClient {

    public static void main(String... args) throws Exception {
        AsynchronousSocketChannel socketChannel = AsynchronousSocketChannel.open();
        socketChannel.connect(new InetSocketAddress("127.0.0.1", 9000)).get();
        socketChannel.write(ByteBuffer.wrap("HelloServer".getBytes()));
        ByteBuffer buffer = ByteBuffer.allocate(512);
        Integer len = socketChannel.read(buffer).get();
        if (len != -1) {
            System.out.println("客户端收到信息:" + new String(buffer.array(), 0, len));
        }
    }
}

BIO、 NIO、 AIO 对比:

Netty之剖析Linux内核理解NIO与Epoll_第11张图片

为什么Netty使用NIO而不是AIO?

在Linux系统上,AIO的底层实现仍使用Epoll,但是没有很好实现AIO,因此在性能上没有明显的优势,而且被JDK封装了一层,所以不容易深度优化,并且Linux上AIO还不够成熟。Netty是异步非阻塞框架,Netty是在NIO上做了很多异步的封装,NIO相比更加原生,可以更加深度的进行封装与优化。

同步异步与阻塞非阻塞

老张爱喝茶,废话不说,煮开水。

出场人物:老张,水壶两把(普通水壶,简称水壶;会响的水壶,简称响水壶)。

1 老张把水壶放到火上,立等水开。(同步阻塞)

老张觉得自己有点傻

2 老张把水壶放到火上,去客厅看电视,时不时去厨房看看水开没有。(同步非阻塞)

老张还是觉得自己有点傻,于是变高端了,买了把会响笛的那种水壶。水开之后,能大声发出嘀~~~~的噪音。

3 老张把响水壶放到火上,立等水开。(异步阻塞)

老张觉得这样傻等意义不大

4 老张把响水壶放到火上,去客厅看电视,水壶响之前不再去看它了,响了再去拿壶。(异步非阻塞)

老张觉得自己聪明了。

所谓同步异步,只是对于水壶而言。

普通水壶,同步;响水壶,异步。

虽然都能干活,但响水壶可以在自己完工之后,提示老张水开了。这是普通水壶所不能及的。

同步只能让调用者去轮询自己(情况2中),造成老张效率的低下。

所谓阻塞非阻塞,仅仅对于老张而言。

立等的老张,阻塞;看电视的老张,非阻塞。

总结:

同步阻塞:同一个线程去执行多个任务,一个任务执行结束前,会一直进行阻塞等待,会阻塞其它任务的执行。

同步非阻塞:同一个线程去执行多个任务,一个任务没有执行完,但是不会阻塞等待,会接着执行其它任务。

异步阻塞:没有异步阻塞!

异步非阻塞:线程2对于自己的一项任务,另外开启了一个线程1。然后线程2把任务交给线程1了,线程2该干啥干啥,根本不会关心线程1的执行,线程2继续执行自己其它的任务,当线程1执行完后,会通知线程2,线程2此时接收一下执行结果就ok结束了。

同步:一个线程,有阻塞,有非阻塞

异步:多个线程,只有非阻塞,不可能阻塞

你可能感兴趣的:(Netty,nio,java,jvm)