http://blog.csdn.net/zhoudaxia/article/details/12920993
是时候让 Web 服务器同时处理一万客户端了,你不觉得吗?毕竟,现在的 Web 是一个大地盘了。
并且,计算机也是一样的大。 你可以花 $1200 左右购买一台 1000MHz,2Gb RAM 和一块 1000Mbit/s 以太网卡的机器。我们来看看——在 20000 客户端(是 50KHz,100Kb 和 50Kb/s/客户端)时,它不采取任何更多的马力而是采用 4Kb 的硬盘和为2万客户端中的每个一秒一次的发送它们到网络。(顺便说一句,这是$0.08 每客户端。 那些按 $100/客户端 许可费来收取费用的一些操作系统开始看起来有点沉重!)。所以硬件不再是瓶颈了。
1999年最繁忙的FTP网站: cdrom.com,实际上通过一个千兆的以太网管道同时地处理了 10000 客户端。截至 2001年,同样的速度现在由多个ISP提供,期望它变得越来越受大型商业客户的欢迎。
瘦客户端计算模式显现出回来的风格——这一时刻,在互联网上的服务器正在为数千计的客户端服务。
考虑到这一点,这里有几个关于如何配置操作系统和编写代码以支持数千客户端的注意事项。讨论的中心是围绕类 Unix 操作系统的。因为这是我个人感兴趣的领域。但Windows也包括了一点。
阅读Nick Black写的超级棒的 Fast UNIX Servers 文章.
2003年十月, Felix von Leitner 做了一个超级好的网页,展示了网络的可扩展性,他完成了在各种不同的网络系统请求和操作系统下的benchmark比较。他的一个实验观察结果就是linux2.6的内核确实比2.4的要好,但还有有很多很多好的图表数据可以引起OS开发者的深思(如有兴趣可以看看 Slashdot 的评论;是否真的有遵循Felix的实验结果对benchm的提高进行跟踪的)
如果你还没有读过上述,那么先出去买一本W. Richard Stevens写的 Unix Network Programming : Networking Apis: Sockets and Xti (Volume 1) . 这本书描述了很多编写高性能服务器的I/O策略和误区,甚至还讲解了关于 'thundering herd' 问题。惊群问题
如果你读过了,那么请读这本 Jeff Darcy's notes on high-performance server design.(Cal Henderson写的,对更加倾向于使用一款web 服务器而非开发一款服务器 来构建可扩展web站点的同志,这本书更加有用.)
网络软件设计者往往有很多种选择,以下列出一些:
下面的五种组合应该是最常用的了:
... 将所有网络处理单元设置为非阻塞状态,并使用select() 或 poll()识别哪个网络处理单元有等待数据。这是传统所推崇的。在这种场景,内核会告诉你一个文件描述符是否已经具备,自从上次内核告诉你这个文件描述符以后,你是否对它完成了某种事件。(名词“水平触发”(level triggered)来自于计算机硬件设计领域;它是'边缘触发' (edge triggered)的对立面。Jonathon Lemon在他的BSDCON 2000 关于kqueue()的论文 中引入了这些术语。)
注意:特别重要的是,要记住来自内核的就绪通知只是一个提示;当你准备从文件描述符读的时候,它可能还未准备就绪。这就是为什么当使用就绪通知的时候要使用非阻塞状态如此重要了。
这个方法中的一个重要瓶颈,就是read()或sendfile()对磁盘块操作时,如果当前内存中并不存在该页;将磁盘文件描述符设置为非阻塞将没有效果。同样的问题也发生在内存映射磁盘文件中。当一个服务端第一次需要磁盘I/O时,它的进程模块,所有的客户端都必须等待,因此最初的非线程的性能就被消耗了。
这也是异步I/O的目的所在,但是仅仅是在没有AIO的系统,处理磁盘I/O的工作线程或工作进程也可能遭遇此瓶颈。一条途径就是使用内存映射文件,如果mincore()指明I/O为必需的话,那么就会要求一个工作线程来完成此I/O,然后继续处理网络事件。Jef Poskanzer提到Pai,Druschel和Zwaenepoel的1999Flash web服务器就使用了这个方法;他们还就此在 Usenix '99上做了一个演讲。看上去就好像BSD衍生出来的 Unixes如 FreeBSD和Solaris 中提供了mincore()一样,但是它并不是 单一 Unix 规范的一部分,在Linux的2.3.51 的内核中提供了该方法, 感谢Chuck Lever。
但在 2003年11月的 freebsd-hackers列表中,Vivek Pei报告了一个不错的成果,他们对它们的Flash Web服务器在系统范围做性能分析,然后再攻击其瓶颈。他们找到的一个瓶颈就是mincore(猜测根本就不是什么好方法),另外一个事实就是sendfile在磁盘块访问时阻塞了;他们引入了一个修改后的sendfile(),当需要读 取的磁盘页不在内核中时,返回类似EWOULDBLOCK的值,这样便提高了性能。(不确定你怎样告诉用户页面现在位于何处…在我看来这里真正需要的是aio_sendfile()。) 他们优化的最终结果是SpecWeb99,在1GHZ/1GB FreeBSD沙箱上跑了约800分,这要比在spec.org存档的任何记录都要好。
对于单线程来说有很多方法来分辨一组非阻塞socket中哪一个已经准备好I/O了:
参照 Poller_select (cc,h) 做为一个如何使用select()替代其它就绪通知场景例子。
参照 Poller_poll (cc,h,benchmarks) 做为一个如何使用poll()替代其它就绪通知场景的例子。
这一特性悄悄出现在了Solaris7 (see patchid 106541) 但是首先公开出现是在 Solaris 8; 参照Sun的数据,在750个客户端的时候,这种实现仅占poll()开销的10%。
在Linux上/dev/poll有很多种实现,但是没有一种性能与epoll一样好,这些实现从来没有真正完整过。在linux上/dev/poll是不建议的。
参照 Poller_devpoll (cc,hbenchmarks ) 做为一个如何使用/dev/poll替代其它就绪通知场景的例子。(注意-这个例子是针对linux /dev/poll的,在Solaris上可能是无法工作的。)
变更就绪通知(或边缘触发就绪通知)意味着你给内核一个文件描述符,这之后,当描述符从未就绪变换到就绪时,内核就以某种方式通知你。然后假设你知道文件描述符是就绪的,直到你做一些事情使得文件描述符不再是就绪的时才不会继续发送更多该类型的文件描述符的就绪通知(例如:直到在一次发送,接收或接受调用,或一次发送或接收传输小于请求的字节数的时候你收到 EWOULDBLOCK 错误)。
当你使用变更就绪通知时,你必须准备好伪事件,因为一个共同的信号就绪实现时,任何接收数据包,无论是文件描述符都已经是就绪的。
这是“水平触发”就绪通知的对立面。这是有点不宽容的编程错误,因为如果你错过了唯一的事件,连接事件就将永远的卡住。不过,我发现边沿触发就绪通知使使用 OpenSSL 编程非阻塞客户端更容易,所以是值得尝试的。
[Banga, Mogul, Drusha '99] 在1999年描述了这种方案。
有几种APIs可以使得应用程序获得“文件描述符已就绪”的通知:
FreeBSD 4.3及以后版本,NetBSD(2002.10)都支持 kqueue()/kevent(), 支持边沿触发和水平触发(请查看Jonathan Lemon 的网页和他的BSDCon 2000关于kqueue的论文)。
就像/dev/poll一样,你分配一个监听对象,不过不是打开文件/dev/poll,而是调用kqueue ()来获得。需要改变你所监听的事件或者获得当前事件的列表,可以在kqueue()返回的描述符上 调用kevent()来达到目的。它不仅可以监听套接字,还可以监听普通的文件的就绪,信号和I/O完 成的事件也可以.
Note: 在2000.10,FreeBSD的线程库和kqueue()并不能一起工作得很好,当kqueue()阻塞时, 那么整个进程都将会阻塞,而不仅仅是调用kqueue()的线程。
See Poller_kqueue (cc, h, benchmarks) for an example of how to use kqueue() interchangeably with many other readiness notification schemes.
使用kqueue()的例程和库:
2001.7.11, Davide Libenzi提议了一个实时信号的可选方法,他称之/dev/epoll(www.xmailserver.org/linux-patches/nio-improve.html), 该方法类似与实时信号就绪通知机制,但是结合了其它更多的事件,从而在大多数的事件获取上拥有更高的效率。
epoll在将它的接口从一个/dev下的指定文件改变为系统调用sys_epoll后就合并到2.5版本的 Linux内核开发树中,另外也提供了一个为2.4老版本的内核可以使用epoll的补丁。
unifying epoll, aio, 2002 年万圣节前夕的Linux内核邮件列表就统一epoll,aio和其它的event sources 展开了很久的争论,it may yet happen,but Davide is concentrating on firming up epoll in general first.
2.4的linux内核可以通过实时信号来分派套接字事件,示例如下:
/* Mask off SIGIO and the signal you want to use. */ sigemptyset(&sigset); sigaddset(&sigset, signum); sigaddset(&sigset, SIGIO); sigprocmask(SIG_BLOCK, &m_sigset, NULL); /* For each file descriptor, invoke F_SETOWN, F_SETSIG, and set O_ASYNC. */ fcntl(fd, F_SETOWN, (int) getpid()); fcntl(fd, F_SETSIG, signum); flags = fcntl(fd, F_GETFL); flags |= O_NONBLOCK|O_ASYNC; fcntl(fd, F_SETFL, flags);
当正常的I/O函数如read()或write()完成时,发送信号。要使用该段的话,在外层循环中编写 一个普通的poll(),在循环里面,当poll()处理完所有的描述符后,进入 sigwaitinfo()循环。 如果sigwaitinfo()或sigtimedwait()返回了实时信号,那么siginfo.si_fd和 siginfo_si_band给出的信息和调用poll()后pollfd.fd和pollfd.revents的几乎一样。如果你处 理该I/O,那么就继续调用sigwaitinfo()。
如果sigwaitinfo()返回了传统的SIGIO,那么信号队列溢出了,你必须通过临时 改变信号处理 程序为SIG_DFL来刷新信号队列,然后返回到外层的poll()循环。See Poller_sigio (cc, h) for an example of how to use rtsignals interchangeably with many other readiness notification schemes.
See Zach Brown's phhttpd 示例代码来如何直接使用这些特点. (Or don't; phhttpd is a bit hard to figure out...)
[Provos, Lever, and Tweedie 2000] 描述了最新的phhttp的基准测试,使用了不同的sigtimewait()和sigtimedwait4(),这些调用可以使你只用一次调用便获得多个信号。 有趣的是,sigtimedwait4()的主要好处是它允许应用程序测量系统负载(so it could behave appropriately)(poll()也提供了同样的系统负载 测量)。
Vitaly Luban在2001.5.18公布了一个实现Signal-per-fd的补丁; 授权见www.luban.org/GPL/gpl.html. (到2001.9,在很重的负载情况下仍然存在稳定性问题,利用dkftpbench测试在4500个用户时将引发问题.
如何使用signal-per-fd互换及通知计划请参考参考 Poller_sigfd (cc, h)
在Unix中这种方式还不是很流行,可能因为少有操作系统支持异步I/O,也可能因为这种非阻塞I/O使得你不得不重新修改应用。在标准unix下,异步I/O功能是由 aio 接口(下滚查看 "异步输入输出"小节)提供, 它将一个信号和一个值与每个I/O操作关联。Signals信号和他们的值通过队列形式快速传递到用户进程中。这是 POSIX 1003.1b 实时扩展中的,同时也是单Unix规范的第2个版本。
AIO通常和边缘触发完成消息一起使用,例如当操作完成时,一个信号进入队列 (也可以在水平触发完成通知时,通过调用aio_suspend(), 但我觉得应该很少人这样做.)
glibc 2.1和后续版本提供了一个普通的实现,仅仅是为了兼容标准,而不是为了获得性能上的提高.
en LaHaise编写的Linux AIO实现合并到了2.5.32的内核中,它并没有采用内核线程,而是使 用了一个高效的underlying api,但是目前它还不支持套接字(2.4内核也有了AIO的补丁,不过 2.5/2.6的实现有一定程序上的不同)。更多信息如下:
Suparma建议先看看 AIO的API.
RedHat AS和Suse SLES都在2.4的内核中提供了高性能的实现,与2.6的内核实现相似,但并不完全一样。
2006.2,在网络AIO有了一个新的尝试,具体请看Evgeniy Polyakov的基于kevent的AIO.
1999, SGI为Linux实现了一个高速的AIO,在到1.1版本时,据说可以很好的工作于磁盘I/O和网 络套接字,且使用了内核线程。目前该实现依然对那些不能等待Ben的AIO套接字支持的人来说是很有用的。
O'Reilly 的"POSIX.4: Programming for the Real World"一书对aio做了很好的介绍.
这里 有一个指南介绍了早期的非标准的aio实现,可以看看,但是请记住你得把"aioread"转换为"aio_read"。
注意AIO并没有提供无阻塞的为磁盘I/O打开文件的方法,如果你在意因打开磁盘文件而引起 sleep的话,Linus建议 你在另外一个线程中调用open()而不是把希望寄托在对aio_open()系统调用上。
在Windows下,异步I/O与术语"重叠I/O"和"IOCP"(I/O Completion Port,I/O完成端口)有一定联系。Microsoft的IOCP结合了 先前的如异步I/O(如aio_write)的技术,把事件完成的通知进行排队(就像使用了aio_sigevent字段的aio_write),并且它 为了保持单一IOCP线程的数量从而阻止了一部分请求。(Microsoft's IOCP combines techniques from the prior art like asynchronous I/O (like aio_write) and queued completion notification (like when using the aio_sigevent field with aio_write) with a new idea of holding back some requests to try to keep the number of running threads associated with a single IOCP constant.) 更多信息请看 Mark russinovich在sysinternals.com上的文章 Inside I/O Completion Ports, Jeffrey Richter的书"Programming Server-Side Applications for Microsoft Windows 2000" (Amazon, MSPress), U.S. patent #06223207, or MSDN.
... 让read()和write()阻塞. 这样不好的地方在于需要为每个客户端使用一个完整的栈,从而比较浪费内存。许多操作系统在处理数百个线程时仍存在一定的问题。如果每个线程使用2MB的栈,那么当你在32位的机器上运行 512(2^30 / 2^21=512)个线程时,你就会用光所有的1GB的用户可访问虚拟内存(Linux也是一样运行在x86上的)。你可以减小每个线程所拥有的栈内存大小,但是由于大部分线程库在一旦线程创建后就不能增大线程栈大小,所以这样做就意味着你必须使你的程序最小程度地使用内存。当然你也可以把你的程序运行在64位的处理器上去。
那些厚着脸皮赞成使用线程的观点,如加州大学伯克利分校的von Behren,Condit和 Brewer在HostOS IX项目中提出的论文Why Events Are A Bad Idea (for High-concurrency Servers).有没有反对使用线程的人要反驳此论文呢?:-)
LinuxTheads
LinuxTheads是标准Linux线程库.自glib2.0后已经将LinuxTheads集成,同时LinuxTheads是兼容Posix的,但是不支持优秀的信号量机制。
NGPT:下一代Linux Posix线程工程
NGPT是IBM发起的兼容Posix线程的Linux工程。现在的稳定版本是2.2,而且工作的很稳定...但是NGPT团队宣称他们已经对NGPT是仅支持模式,因为他们觉得“从长远的角度看,社区贡献是最好的方式”.NGPT团队将继续致力于Linux线程的研究,但是目前他们关注NPTL(Native POSIX Thread Library比较译者加注).(由于NGPT团队辛勤的工作,他们已经被NPTL所认可)
NPTL是由 Ulrich Drepper ( glibc的主要维护人员)和 Ingo Molnar发起的项目,目的是提供world-class的Posix Linux线程支持。
2003.10.5,NPTL作为一个add-on目录(就像linuxthreads一样)被合并到glibc的cvs树中,所以很有可能随glibc的下一次release而 一起发布。
Red Hat 9是最早的包含NPTL的发行版本(对一些用户来说有点不太方便,但是必须有人来打破这沉默[break the ice]...)
NPTL links:
这是我尝试写的描述NPTL历史的文章(也可以参考 Jerry Cooperstein的文章 ):
2002.3,NGPT小组的Bill Abt,glibc的维护者Ulrich Drepper 和其它人召开了个会议来探讨LinuxThreads的发展,会议的一个idea就是要改进mutex的性能。 Rusty Russell 等人 随后实现了 fast userspace mutexes (futexes), (如今已在NGPT和NPTL中应用了)。 与会的大部分人都认为NGPT应该合并到glibc中。
然而Ulrich Drepper并不怎么喜欢NGPT,他认为他可以做得更好。 (对那些曾经想提供补丁给glibc的人来说,这应该不会令他们感到惊讶:-) 于是在接下来的几个月里,Ulrich Drepper, Ingo Molnar和其它人致力于glibc和内核的改变,然后就弄出了 Native Posix Threads Library (NPTL). NPTL使用了NGPT设计的所有内核改进(kernel enhancement),并且采用了几个最新的改进。 Ingo Molnar描述了 一下的几个内核改进:
NPTL使用了三个由NGPT引入的内核特征: getpid()返回PID,CLONE_THREAD和futexes; NPTL还使用了(并依赖)也是该项目的一部分的一个更为wider的内核特征集。一些由NGPT引入内核的items也被修改,清除和扩展,例如线程组的处理(CLONE_THREAD). [the CLONE_THREAD changes which impacted NGPT's compatibility got synced with the NGPT folks, to make sure NGPT does not break in any unacceptable way.]
这些为NPTL开发的并且后来在NPTL中使用的内核特征都描述在设计白皮书中, http://people.redhat.com/drepper/nptl-design.pdf ...
A short list: TLS support, various clone extensions (CLONE_SETTLS, CLONE_SETTID, CLONE_CLEARTID), POSIX thread-signal handling, sys_exit() extension (release TID futex upon VM-release), the sys_exit_group() system-call, sys_execve() enhancements and support for detached threads.
There was also work put into extending the PID space - eg. procfs crashed due to 64K PID assumptions, max_pid, and pid allocation scalability work. Plus a number of performance-only improvements were done as well.
In essence the new features are a no-compromises approach to 1:1 threading - the kernel now helps in everything where it can improve threading, and we precisely do the minimally necessary set of context switches and kernel calls for every basic threading primitive.
NGPT和NPTL的一个最大的不同就是NPTL是1:1的线程模型,而NGPT是M:N的编程模型(具体请看下面). 尽管这样, Ulrich的最初的基准测试 还是表明NPTL比NGPT快很多。(NGPT小组期待查看Ulrich的测试程序来核实他的结果.)
FreeBSD支持LinuxThreads和用户空间的线程库。同样,M:N的模型实现KSE在FreeBSD 5.0中引入。 具体请查看 www.unobvious.com/bsd/freebsd-threads.html.
2003.3.25, Jeff Roberson 发表于freebsd-arch:
...感谢Julian, David Xu, Mini, Dan Eischen,和其它的每一位参加了KSE和libpthread开发的成员所提供的基础, Mini和我已经开发出了一个1:1模型的线程实现,它可以和KSE并行工作而不会带来任何影响。实际上,它有助于把M:N线程共享位测试. ...
2006.7, Robert Watson提议1:1的线程模型应该为FreeBSD 7.x的默认实现:
我知道曾经讨论过这个问题,但是我认为随着7.x的向前推进,这个问题应该重新考虑。 在很多普通的应用程序和特定的基准测试中,libthr明显的比libpthread在性能上要好得多。 libthr是在我们大量的平台上实现的,而libpthread却只有在几个平台上。 最主要的是因为我们使得Mysql和其它的大量线程的使用者转换到"libthr",which is suggestive, also! ... 所以strawman提议:让libthr成为7.x上的默认线程库。
根据Noriyuki Soda的描述:
内核支持M:N线程库是基于调度程序激活模型,合并于2003.1.18当时的NetBSD版本中。
详情请看Nathan J. Williams, Wasabi Systems, Inc.在2002年的FREENIX上的演示 An Implementation of Scheduler Activations on the NetBSD Operating System。
Solaris的线程支持还在进一步提高evolving... 从Solaris 2到Solaris 8,默认的线程库使用的都是M:N模型, 但是Solaris 9却默认使用了1:1线程模型. 查看Sun多线程编程指南 和Sun的关于Java和Solaris线程的note.
大家都知道,Java一直到JDK1.3.x都没有支持任何处理网络连接的方法,除了一个线程服务一个客户端的模型之外。 Volanomark是一个不错的微型测试程序,可以用来测量在 某个时候不同数目的网络连接时每秒钟的信息吞吐量。在2003.5, JDK 1.3的实现实际上可以同时处理10000个连接,但是性能却严重下降了。 从Table 4 可以看出JVMs可以处理10000个连接,但是随着连接数目的增长性能也逐步下降。
Novell和Microsoft都宣称已经在不同时期完成了该工作,至少NFS的实现完成了该工作。 khttpd在Linux下为静态web页面完成了该工作, Ingo Molnar完成了"TUX" (Threaded linUX webserver) ,这是一个Linux下的快速的可扩展的内核空间的HTTP服务器。 Ingo在2000.9.1宣布 alpha版本的TUX可以在ftp://ftp.redhat.com/pub/redhat/tux下载, 并且介绍了如何加入其邮件列表来获取更多信息。
早在1999年, Dean Gaudet就表示:
我一直在问“为什么你们不使用基于select/event像Zeus的模型,它明显是最快的。”...
Mark Russinovich写了 一篇评论和 文章讨论了在2.2的linux内核只能够I/O策略问题。 尽管某些地方似乎有点错误,不过还是值得去看。特别是他认为Linux2.2的异步I/O (请看上面的F_SETSIG) 并没有在数据准备好时通知用户进程,而只有在新的连接到达时才有。 这看起来是一个奇怪的误解。 还可以看看 早期的一些comments, Ingo Molnar在1999.4.30所举的反例, Russinovich在1999.5.2的comments, Alan Cox的 反例,和各种 linux内核邮件. 我怀疑他想说的是Linux不支持异步磁盘I/O,这在过去是正确的,但是现在SGI已经实现了KAIO,它已不再正确了。
查看页面 sysinternals.com和 MSDN了解一下“完成端口”, 据说它是NT中独特的技术, 简单说,win32的"重叠I/O"被认为是太低水平而不方面使用,“完成端口”是提供了完成事件队列的封装,再加上魔法般的调度, 通过允许更多的线程来获得完成事件如果该端口上的其它已获得完成事件的线程处于睡眠中时(可能正在处理阻塞I/O),从而可以保持运行线程数目恒定(scheduling magic that tries to keep the number of running threads constant by allowing more threads to pick up completion events if other threads that had picked up completion events from this port are sleeping (perhaps doing blocking I/O).
查看OS/400的I/O完成端口支持.
在1999年9月,有一场很有趣的关于linux内核的讨论,它叫做 "> 15,000个并发连接" (主题的第二周 ). 重点如下:
感谢阅读!
编辑/boot/loader.conf 文件,增加这一行:
set kern.maxfiles=XXXX这里 XXXX 是所期望的文件描述符的系统限制,然后重启。 感谢一位匿名读者,回复说他在 FreeBSD 4.3 上已经做到设置超过10000的连接数:
FWIW:实际上你不能通过sysctl等随意地在 FreeBSD里调节最大连接数,你必须在 /boot/loader.conf 文件里做。
理由是 在系统启动早期,初始化socket和 tcpcn结构体区域时调用 zalloci() 调用,以便该区是键入稳定的和热拔插的。
你仍然需要设置较高的 mbun 数,因为你将(在一个未修改过的内核上)让每一个tcptempl结构体连接都消耗一个 mbuf,该链接用于实现保持活跃。
另一位读者说:
如在 FreeBSD 4.4里,tcptempl 结构体不再被分配内存,你也无需非要担心每个连接都吃掉一个 mbuf 。
另见:
在 OpenBSD里,需要额外的调整以增加每个进程可打开的文件句柄数: /etc/login.conf 中的 openfiles-cur 参数需要增大。 你可以通过 sysctl -w 或在 sysctl.conf 更新 kern.macfiles ,但这并没有影响。这个情况是因为在发布时,login.conf 对于非授权进程被限制为较低的64,授权进程限制为 128。
echo 32768 > /proc/sys/fs/file-max增加打开文件数的系统限制,并
ulimit -n 32768以增加并发进程数限制。
在 2.2.x 内核上:
echo 32768 > /proc/sys/fs/file-max
echo 65536 > /proc/sys/fs/inode-max增加打开文件数的系统限制,并
ulimit -n 32768
以增加并发进程数限制。
我验证发现 Red Hat 6.0(2.2.5 或补丁版)上用这种方式能打开至少31000个文件描述符。另一个哥们也验证发现在 2.2.12上一个进程用这种方式可以打开至少90000个文件描述符(适当的限制)。上限似乎取决于内存。
Stephen C. Tweedie 发帖讲述过如何在系统引导期间使用 initscript和 pam_limit来设置ulimit以限制全局或单个用户。
在较旧的 2.2内核上,每个进程可打开的文件数仍然被限制为1024,即使有上述的变动。
参见 Oskar's 1998 post ,探讨了在2.0.36内核里每个进程以及系统范围内的文件描述符限制。
不管是何种体系架构,你都应该在每一个线程里尽可能的减少栈空间的使用,这样以防止耗光虚拟内存。如果你用pthreads,你可以在运行时调用pthread_attr_init函数进行设置。
在JDK1.3及以前,标准的Java网络库主要提供每个连接单独线程处理的模型。这是一种非阻塞读的工作方式,但并不支持非阻塞写。
2001年5月, JDK 1.4 引入了 java.nio 包以支持完整的非阻塞I/O操作(以及其他优点)。详情请见发行说明。请尝试使用并向Sun提交反馈。
惠普(HP)的Java库也包含了线程轮询API。
2000年,Matt Welsh在Java上实现了非阻塞网络接口(socket); 对这个实现的负载测试表明在服务端处理大量(达到10000)连接时,非阻塞的方式比阻塞更具优势。这个库叫做java-nbio: Sandstorm 项目的一部分。负载测试报告可参见10000连接的性能 。
另请参考Dean Gaudet论文中关于Java、网络I/O以及线程部分;Matt Welsh的论文:事件驱动vs工作线程。
在NIO之前,改进Java网络API主要有以下几种建议:
根据来自 Noriyuki Soda 的说明:
自 NetBSD-1.6 发布,通过指定 "SOSEND_LOAN" 内核选项,来支持发送端零拷贝。现在这个选项在 NetBSD-current 中是默认的(你可以通过在 NetBSD_current 的内核选项中指定 "SOSEND_NO_LOAN" 来禁用这项特性)。使用这个特性,如果要发送的数据超过 4096 字节,零拷贝自动启用。
一个2.4内核上的 sendfile() 零拷贝实现正处于进程之中。参见 LWN Jan 25 2001。
一个在 Freebsd 上使用 sendfile() 的开发者报告说用 POLLWRBAND 取代 POLLOUT 会有大改观。
Solaris 8 (截至 2001 年 7 月的更新)有一个新的系统调用 'sendfilev'。 这里有一个手册页的副本。Solaris 8 7/01 发布说明 也提到了它。我怀疑这将会在阻塞模式下发送到一个 socket 时非常有用;而在非阻塞 socket 下使用时会有点痛苦。
参阅 LWN Jan 25 2001,在 linux-kernel 上关于 TCP_CORK 和一个可能的替代者 MSG_MORE 的一些非常有趣的讨论的总结。
“在 FreeBSD 和 Solaris/x86 上,我都比较了一个基于 select 的服务器和一个多处理器服务器的原始(raw)性能。在微型基准(microbenchmarks)方面,仅有一些来源于软件架构的细微性能差别。基于select的服务器的性能大获全胜源于做了一些应用程序级别的缓存。同时多处理器服务器可以用更高的代价做这件事,在实际的工作负担上很难获得同等收益(较之微型基准)。我要将这些测量作为下一期的 Usenix 会议上出现的论文的一部分。如果你有 postscript,可在 http://www.cs.rice.edu/~vivek/flash99/ 上找到这篇论文。”
1999年3月,微软主办了一次基准测试来比较NT和Linux,比较他们在可服务的http和smb客户的最大数量上面的性能。结果显示 Linux性能不佳。更多的信息可以参考:
我的文章:my article on Mindcraft's April 1999 Benchmarks
The Linux Scalability Project. They're doing interesting work, including Niels Provos' hinting poll patch, and some work on the thundering herd problem.
Mike Jagdis' work on improving select() and poll(); here's Mike's post about it.
Mohit Aron ([email protected]) writes that rate-based clocking in TCP can improve HTTP response time over 'slow' connections by 80%.
我的笔记 关于 thttpd 和 Apache的对比 可能适合初学者查看.
Chuck Lever 一直提醒我们 Banga and Druschel的 "关于web服务器基准测试"论文 值得一读
IBM 的精彩论文 Java 服务器基准测试 [Baylor et al, 2000]. 也值得一看.
Nginx是一个基于目标系统的高效率网络事件机制的 Web 服务器。它愈发受欢迎起来;甚至有两本相关相关书籍。
参考文献:
英文版原文:http://www.kegel.com/c10k.html
中文翻译参考自:http://www.oschina.net/translate/c10k