自己实现server时,一定要对内核TCP有关的参数做一些调整,才能使系统的吞吐量处于最佳值。需要注意的是建立连接的吞吐量,网络IO吞吐量,以及连接关闭的处理。
我们在做性能测试的时候也许会发现,机器的硬件配置很好,但不管我们怎么调整并发数,机器的load就是一点也上不去。这种情况一般都是由于操作系统建立连接成为瓶颈。在建立连接的三次握手过程中,Linux内核使用到两个队列:
我们要调整两个参数:/etc/sysctl.conf
系统关于上面两个配置的默认值很小,只有200多。如果自己开发server,一定要修改这两个配置。可以通过 /sbin/sysctl -a | grep xxx来查看。修改完后sysctl -p 重新载入内核参数。
应用在listen()传入的backlog也用来指定已完成队列长度,系统取值为 min(listen_backlog, net.core.somaxconn)。因此建议在调用listen时传入很大的backlog值。
The behaviour of the backlog parameter on TCP sockets changed with Linux 2.2. Now it specifies the queue length for completely established sockets waiting to be accepted, instead of the number of incomplete connection requests. The maximum length of the queue for incomplete sockets can be set using the tcp_max_syn_backlog sysctl. When syncookies are enabled there is no logical maximum length and this sysctl setting is ignored. See tcp(7) for more information.
如果应用调用accept()不及时,随着新连接的建立,已完成队列和未完成队列会先后达到容量上限,无法创建新的连接。
sendQ太小,网络的输出吞吐量就上不去,tps也会上不去。而滑动窗口的大小受到对端recvQ的大小限制,因此recvQ也不能太小。
/etc/sysctl.conf 中有几个参数可以修改socket的sendQ和recvQ的大小。
修改/etc/sysctl.conf中的以下参数,
netstat -s列举出各种网络事件的次数。从中也可以找到一些线索。