linux网络异步io,Linux异步IO新时代:io_uring

原标题:Linux异步IO新时代:io_uring

Linux 5.1合入了一个新的异步IO框架和实现:io_uring,由block IO大神Jens Axboe开发。这对当前异步IO领域无疑是一个喜大普奔的消息,这意味着,Linux native aio的时代即将成为过去,io_uring的时代即将开启。

从Linux IO说起

Linux最初的IO系统调用需要追溯到read(2)和write(2)。后来发展为增加offset的pread(2)和pwrite(2),以及基于vector的版本preadv(2)和pwritev(2)。再接下来扩展为preadv2(2)和pwritev2(2)。尽管形式看上去多种多样,但它们都有一个共同的特征就是同步,即系统调用需要在数据读取或写入后才返回。应某些应用场景的诉求,异步IO接口应势而生。POSIX对应的接口为aio_read(3)和aio_write(3),但其实现平淡无奇且性能不好。Linux Native异步IO接口即我们常称的aio,同样有着诸多限制:

最大的限制无疑是仅支持direct aio。而O_DIRECT要求bypass缓存和size对齐等,直接影响了很多场景的使用。而对buffered IO,其表现为同步。

即使满足了所有异步IO的约束,有时候还是可能会被阻塞,例如,等待元数据IO,或者存储设备的请求槽位都正在使用等等。

存在额外的开销,每个IO提交需要拷贝64+8字节,每个IO完成需要拷贝32字节,这在某些场景下影响很可观。在使用完成event的时候需要非常小心,否则容易丢事件。IO总是需要至少2个系统调用(submit + wait-for-completion),在spectre/meltdown开启下性能下降非常严重。

相比新开发一套接口,扩展和改进现有接口往往有着更多的优势。在过去的数年间,针对上述限制一的很多改进努力都未果。尤其是近年来快速设备的出现,更加体现出现有异步接口的局限性。

io_uring

新接口的设计要求如下,尽管有些看上去存在互斥性,如高效且可伸缩的接口往往比较难用,或者说难以正确地使用;特性丰富和高效很难同时满足等等。

可扩展,如为未来的网络/非块存储IO接入考虑;

特性丰富,满足所有应用;

高效,尤其是针对大部分场景的512B或4K IO;

可伸缩。

io_uring首先需要围绕高效进行设计。为了避免在提交和完成事件中存在内存拷贝,io_uring设计了一对共享的ring buffer用于应用和内核之间的通信。其中,针对提交队列(SQ),应用是IO提交的生产者(producer),内核是消费者(consumer);反过来,针对完成队列(CQ),内核是完成事件的生产者,应用是消费者。

数据结构 /* * IO submission data structure (Submission Queue Entry) */

structio_uring_sqe{

__u8opcode;/* type of operation for this sqe */

__u8flags;/* IOSQE_ flags */

__u16ioprio;/* ioprio for the request */

__s32fd;/* file deor to do IO on */

__u64off;/* offset into file */

__u64addr;/* pointer to buffer or iovecs */

__u32len;/* buffer size or number of iovecs */

union{

__kernel_rwf_trw_flags;

__u32fsync_flags;

__u16poll_events;

};

__u64user_data;/* data to be passed back at completion time */

union{

__u16buf_index;/* index into fixed buffers, if used */

__u64__pad2[3];

};

};

/* * IO completion data structure (Completion Queue Entry) */

structio_uring_cqe{

__u64user_data;/* sqe->data submission passed back */

__s32res;/* result code for this event */

__u32flags;

};

/* * setup a context for performing asynchronous I/O * * The io_uring_setup system call sets up a submission queue (SQ) and completion queue (CQ) with * at least entries entries, and returns a file deor which can be used to perform subsequent * operations on the io_uring instance.The submission and completion queues are shared between * userspace and the kernel, which eliminates the need to copy data when initiating and completing * I/O. */

intio_uring_setup(u32entries,structio_uring_params*p);

/* * initiate and/or complete asynchronous I/O * * io_uring_enter is used to initiate and complete I/O using the shared submission and completion * queues setup by a call to io_uring_setup(2). A single call can both submit new I/O and wait for * completions of I/O initiated by this call or previous calls to io_uring_enter. */

intio_uring_enter(unsignedintfd,unsignedintto_submit,

unsignedintmin_complete,unsignedintflags,

sigset_t*sig);

/* * register files or user buffers for asynchronous I/O * * The io_uring_register system call registers user buffers or files for use in an io_uring(7) instance * referenced by fd. Registering files or user buffers allows the kernel to take long term references to * internal data structures or create long term mappings of application memory, greatly reducing * per-I/O overhead. */

intio_uring_register(unsignedintfd,unsignedintopcode,

void*arg,unsignedintnr_args)

liburing

为了方便使用,Jens Axboe还开发了一套liburing库,同时在fio中提供了ioengine=io_uring的支持。通过liburing库,应用不必了解诸多io_uring的细节就可以简单地使用起来。例如,无需担心memory barrier,或者是ring buffer管理之类等。简单的example如下:

/* setup io_uring and do mmap */

io_uring_queue_init(ENTRIES,&ring,0);

/* get an sqe and fill in a READV operation */

sqe=io_uring_get_sqe(&ring);

io_uring_prep_readv(sqe,fd,&iovec,1,offset);

/* tell the kernel we have an sqe ready for consumption */

io_uring_submit(&ring);

/* wait for the sqe to complete */

io_uring_wait_cqe(&ring,&cqe);

/* read and process cqe event */

io_uring_cqe_seen(&ring,cqe);

/* tear down */

io_uring_queue_exit(&ring);

io_uring高级特性

Fixed Files and BuffersIORING_REGISTER_FILES/IORING_UNREGISTER_FILES 通过io_uring_register系统调用提前注册一组file,缓解每次IO操作的fget/fput带来的开销。

IORING_REGISTER_BUFFERS/IORING_UNREGISTER_BUFFERS 通过io_uring_register系统调用注册一组固定的IO buffers,当应用重用这些IO buffers时,只需要map/unmap一次即可,而不是每次IO都要去做。

Polled IOIORING_SETUP_IOPOLL 与非polling模式等待硬件中断唤醒不同,内核将采用polling模式不断轮询硬件以确认IO请求是否已经完成,这在追求低延时和高IOPS的应用场景非常有用。

io_uring性能

注:数据来源于io_uring的patchset v5。

3d xpoint, 4k random readInterface QD Polled Latency IOPS

--------------------------------------------------------------------------

io_uring 1 0 9.5usec 77K

io_uring 2 0 8.2usec 183K

io_uring 4 0 8.4usec 383K

io_uring 8 0 13.3usec 449K

libaio 1 0 9.7usec 74K

libaio 2 0 8.5usec 181K

libaio 4 0 8.5usec 373K

libaio 8 0 15.4usec 402K

io_uring 1 1 6.1usec 139K

io_uring 2 1 6.1usec 272K

io_uring 4 1 6.3usec 519K

io_uring 8 1 11.5usec 592K

spdk 1 1 6.1usec 151K

spdk 2 1 6.2usec 293K

spdk 4 1 6.7usec 536K

spdk 8 1 12.6usec 586K

非polling模式,io_uring相比libaio提升不是很明显;在polling模式下,io_uring能与spdk接近,甚至在queue depth较高时性能更好,完爆libaio。

Peak IOPS, 512b random readInterface QD Polled Latency IOPS

--------------------------------------------------------------------------

io_uring 4 1 6.8usec 513K

io_uring 8 1 8.7usec 829K

io_uring 16 1 13.1usec 1019K

io_uring 32 1 20.6usec 1161K

io_uring 64 1 32.4usec 1244K

spdk 4 1 6.8usec 549K

spdk 8 1 8.6usec 865K

spdk 16 1 14.0usec 1105K

spdk 32 1 25.0usec 1227K

spdk 64 1 47.3usec 1251K

在queue depth较低时有约7%的差距,但在queue depth较高时基本接近。

Peak per-core, multiple devices, 4k random readInterface QD Polled IOPS

--------------------------------------------------------------------------

io_uring 128 1 1620K

libaio 128 0 608K

spdk 128 1 1739K

注:根据引用文档1的描述,per-core极限性能已经能到约1700K。

Reference

High-performance asynchronous I/O with io_uring

Ringing in a new asynchronous I/O API

Efficient IO with io_uring 返回搜狐,查看更多

责任编辑:

你可能感兴趣的:(linux网络异步io)