fasthttp原理简析

fasthttp是golang下的一个http框架,顾名思义,与原生的http实现相比,它的特点在于快,按照官网的说法,它的客户端和服务端性能比原生有了十倍的提升。

它的高性能主要源自于“复用”,通过服务协程和内存变量的复用,节省了大量资源分配的成本。

工作协程的复用

协程的复用可以参见​workerpool.go​

每个工作协程代码如下

worker协程和连接协程之间通过channel通信,内部维护了一个ready状态的channel列表,连接协程收到新的conn以后,找到空闲的channel,把连接通过channel交给相应的worker,worker协程处理完当前连接后把channel归还到空闲列表等待下一个请求。

内存变量复用

fasthttp内部大量使用了sync.Pool,为多次使用的变量节省了大量的内存申请开销,我们举最常用的RequestCtx为例,每次的请求开始时,先在ctxPool中查找可复用的ctx变量

请求完成以后,把变量归还到Pool中

当然,这样的复用实际上可能会给使用者带来额外的学习成本,RequestCtx变量不能在handle函数以外的地方使用,例如如果我们要做一些异步的操作时,必须把所需的数据拷贝出来给到新的协程,否则会出现无法预知的并发错误,这一点一定要切记

性能测试

fasthttp自带了benchmark的代码以及和golang原生net/http的性能比较,基本原理就是mock了net.Listener和net.Conn,因为没有经过实际的网络路径,bechmark数字可能会跟实际运行相差较远,但是因为fasthttp和net/http都是通过底层net.Listener和net.Conn处理传输层数据,作为性能比较这样的测试条件基本上是公平的,我在本地执行了一下benchmark,测试数据如下

上面是在不同的并发等级,不同的并发连接数和不同的连接场景上面的性能比较,可以看出在各种场景下fasthttp都有显著的性能提升,特别需要关注的是内存分配上面,因为大量使用了sync.Pool进行复用,平摊下来,每次请求的内存申请几乎是零。

值得一提的是fasthttp还实现了一个耗时的优化,具体的实现在stackless包里,通过channel把耗时操作传输到预先定义的工作协程中处理,通过减少协程的调度开销提高整体性能,实测在高并发的耗时操作场景有一定程度的性能提升;反之,如果操作比较简单,因为引入了复杂度,性能反而会下降。

小彩蛋

sync.Pool和fasthttp都用到了自定义的一个空结构体noCopy,这个是干什么用的呢?

noCopy的定义如下:

所以,noCopy的本质是一个实现了Locker interface的空结构体,在运行期不会增加任何的内存开销,但是如果你对添加了这个标识的struct进行copy操作,在使用go vet工具的时候,工具就会complain了,这也是目前阶段,golang官方推荐的一种做法,​golang.org/issues/8005#issuecomment-190753527​​

你可能感兴趣的:(fasthttp原理简析)