ulimit用于shell启动进程所占用的资源,可以用来设置系统的限制
语法格式
ulimit [-acdfHlmnpsStvw] [size]
在/etc/security/limits.conf
文件中定义
限制。
命令参数 | 描述 | 例子 |
---|---|---|
-H | 设置硬资源限制,一旦设置不能增加。 | ulimit – Hs 64;限制硬资源,线程栈大小为 64K。 |
-S | 设置软资源限制,设置后可以增加,但是不能超过硬资源设置。 | ulimit – Sn 32;限制软资源,32 个文件描述符。 |
-a | 显示当前所有的 limit 信息 | ulimit – a;显示当前所有的 limit 信息 |
-c | 最大的 core 文件的大小, 以 blocks 为单位 | ulimit – c unlimited; 对生成的 core 文件的大小不进行限制 |
-d | 进程最大的数据段的大小,以 Kbytes 为单位 | ulimit -d unlimited;对进程的数据段大小不进行限制 |
-f | 进程可以创建文件的最大值,以 blocks 为单位 | ulimit – f 2048;限制进程可以创建的最大文件大小为 2048 blocks |
-l | 最大可加锁内存大小,以 Kbytes 为单位 | ulimit – l 32;限制最大可加锁内存大小为 32 Kbytes |
-m | 最大内存大小,以 Kbytes 为单位 | ulimit – m unlimited;对最大内存不进行限制 |
-n | 可以打开最大文件描述符的数量 | ulimit – n 128;限制最大可以使用 128 个文件描述符 |
-p | 管道缓冲区的大小,以 Kbytes 为单位 | ulimit – p 512;限制管道缓冲区的大小为 512 Kbytes |
-s | 线程栈大小,以 Kbytes 为单位 | ulimit – s 512;限制线程栈的大小为 512 Kbytes |
-t | 最大的 CPU 占用时间,以秒为单位 | ulimit – t unlimited;对最大的 CPU 占用时间不进行限制 |
-u | 用户最大可用的进程数 | ulimit – u 64;限制用户最多可以使用 64 个进程 |
-v | 进程最大可用的虚拟内存,以 Kbytes 为单位 | ulimit – v 200000;限制最大可用的虚拟内存为 200000 Kbytes |
我们可以使用ulimit -a查看我们系统的所有限制
当然我们都知道linux大部分的命令设置都是临时生效,而且ulimit命令只对当前终端生效
如果需要永久生效的话,我们有两种方法,
一种是将命令写至profile和bashrc中,相当于在登陆时自动动态修改限制
还有一种就是在/etc/security/limits.conf中添加记录(需重启生效,并且在/etc/pam.d/中的seesion有使用到limit模块)。
在/etc/security/limits.conf修改限制的格式如下
domino type item value
参数 | 描述 |
---|---|
domino | 是以符号@开头的用户名或组名,*表示所有用户 |
type | 设置为hard or soft |
item | 指定想限制的资源。如cpu,core nproc or maxlogins |
value | 是相应的 |
每个进程的局部段描述表LDT都作为一个独立的段而存在,在全局段描述表GDT中要有一个表项指向这个段的起始地址,并说明该段的长度以及其他一些 参数。除上之外,每个进程还有一个TSS结构(任务状态段)也是一样。所以,每个进程都要在全局段描述表GDT中占据两个表项。
段寄存器中用作GDT表下标的位段宽度是13位,所以GDT中可以有213=8192个描述项。
除一些系统的开销(例如GDT中的第2项和第3项分别用于内核 的代码段和数据段,第4项和第5项永远用于当前进程的代码段和数据段,第1项永远是0,等等)以外,尚有8180个表项可供使用,所以理论上系统中最大的 进程数量是8180/2=4090。
所以系统中理论上最大的进程数是4090
linux内核通过进程标识值(process identification value)-PID来标示进程,PID是一个数,类型位pid_t, 实际上就是int类型
为了与老版本的Unix或者Linux兼容,PID的最大值默认设置位32768(short int 短整型的最大值)。
可以使用cat /proc/sys/kernel/pid_max
来查看系统中可创建的进程数实际值
ulimit -u 65535
设置完以后,虽然我们设置户创建进程数的硬限制和软限制都是65535,但是我们还不能使用创建65535个进程
我们在Linux还需要设置内核参数kernel.pid_max,这个参数我默认安装都是32768,
所以即使使用root帐户,却不设置这个内核参数,整个系统最多可以创建的进程数就是32768,所以我们需要进行如下设置:
sysctl -w kernel.pid_max=65535
linux 系统中单个进程的最大线程数有其最大的限制 PTHREAD_THREADS_MAX
这个限制可以在/usr/include/bits/local_lim.h
中查看
对 linuxthreads 这个值一般是 1024,对于 nptl 则没有硬性的限制,仅仅受限于系统的资源
这个系统的资源主要就是线程的 stack 所占用的内存,用 ulimit -s 可以查看默认的线程栈大小,一般情况下,这个值是8M=8192KB
可以写一段简单的代码验证最多可以创建多少个线程
include
#include
#include
void func()
{
}
int main(void)
{
int i = 0;
pthread_t thread;
while ( 1 )
{
if (pthread_create(&thread, NULL, func, NULL) != 0)
{
return;
}
i++;
printf("i = %d\n", i);
}
return EXIT_SUCCESS;
}
试验显示,在我们的系统(Ubuntu-14.04-LTS-64bit)中linuxthreads 上最多可以创建 381 个线程,之后就会返回 EAGAIN
而32位系统中,可以穿件381个线程,这个值和理论完全相符,因为 32 位 linux 下的进程用户空间是 3G 的大小,也就是 3072M,用3072M/8M=384,但是实际上代码段和数据段等还要占用一些空间,这个值应该向下取整到 383,再减去主线程,得到 382。
那为什么 linuxthreads 上还要少一个线程呢?这可太对了,因为 linuxthreads 还需要一个管理线程
为了突破内存的限制,可以有两种方法
用ulimit -s 1024
减小默认的栈大小
调用pthread_create
的时候用pthread_attr_getstacksize
设置一个较小的栈大小
要注意的是,即使这样的也无法突破1024 个线程的硬限制,除非重新编译 C 库
/proc/sys/fs/file-max中指定了系统范围内所有进程可打开的文件句柄的数量限制(系统级别, kernel-level).
The value in file-max denotes the maximum number of file handles that the Linux kernel will allocate).
当收到”Too many open files in system”这样的错误消息时, 就应该曾加这个值了.
对于2.2的内核, 还需要考虑inode-max, 一般inode-max设置为file-max的4倍. 对于2.4及以后的内核, 没有inode-max这个文件了.
可以使用cat /proc/sys/fs/file-max来查看当前系统中单进程可打开的文件描述符数目
186405
echo 1000000 > /proc/sys/fs/file-max
fs.file-max = 1000000
内核支持的最大file handle数量,即一个进程最多使用的file handle数
the maximum number of files that can be opened by process。
A process cannot use more than NR_OPEN file descriptors.
一个进程不能使用超过NR_OPEN文件描述符。
ulimit -n
当然默认查看的是软资源限制值soft limit,如果想要查看系统硬件所能支持的单进程最大打开文件描述符号的数目,可以使用ulimit -Hn
通过ulimit -Sn
设置最大打开文件描述符数的soft limit,注意soft limit不能大于hard limit(ulimit -Hn可查看hard limit)
另外ulimit -n默认查看的是soft limit,但是ulimit -n 1800000则是同时设置soft limit和hard limit。
对于非root用户只能设置比原来小的hard limit。
上面的方法只是临时性的,注销重新登录就失效了,而且不能增大hard limit,只能在hard limit范围内修改soft limit。
若要使修改永久有效,则需要在/etc/security/limits.conf中进行设置(需要root权限),可添加如下两行,表示用户chanon最大打开文件描述符数的soft limit为1800000,hard limit为2000000。以下设置需要注销之后重新登录才能生效:
chanon soft nofile 102400
chanon hard nofile 409600
设置nofile的hard limit还有一点要注意的就是hard limit不能大于/proc/sys/fs/nr_open,假如hard limit大于nr_open,注销后无法正常登录。
可以修改nr_open的值:
echo 2000000 > /proc/sys/fs/nr_open
针对用户打开最大文件数的限制, 在limits.conf对应的nofile,不管是man手册还是文件中说明都只是一句话
“maximum number of open files”,
它其实对应是单个进程能打开的最大文件数,通常为了省事,我们想取消它的限制
根据man手册中,“values -1, unlimited or infinity indicating no limit”,-1、unlimited、infinity都是表明不做限制
可是当你实际给nofile设置成这个值,等你重启就会发现无法登录系统了。
由此可见,nofile是有一个上限的,同时用ulimit测试:
ulimit -n unlimited
bash: ulimit: open files: cannot modify limit: 不允许的操作
写一个简单的for循环得出:
for V in `seq 100000 10000000`;do ulimit -n $V;[[ $? != 0 ]]&&break;done
再执行ulimit -n ,可以看到1048576就是nofile的最大值了,但为什么是这个值?
1024∗1024=1048576,当然这并没有什么卵用。
再跟踪一下我们就会发现这个值其实是由内核参数nr_open定义的:
cat /proc/sys/fs/nr_open
到此我们就要说起nr_open,与file-max了,网上在说到设置最大文件数时偶尔有些帖子也说到要修改file-max,字面上看file-max确实像是对应最大文件数,而在linux内核文档中它们两的解释是:
执行:grep -r MemTotal /proc/meminfo | awk ‘{printf(“%d”,$2/10)}’,可以看到与file-max是相近的;
file-handles(即文件句柄),然后相比而言在UNIX/LINUX中我们接触更多是file discriptor(FD,即文件描述符),似乎file-handle在windows中是一个类似file discrptor的东东,但是我们讨论的是linux,再google一下,我们可以精确到c语言中这两个概念的区别,
据他们的讨论file-handle应该是一个高层的对象,使用fopen,fread等函数来调用,而FD是底层的一个对象,可以通过open,read等函数来调用。
到此,我们应该可以下一个大致的结论了,file-max是内核可分配的最大文件数,nr_open是单个进程可分配的最大文件数,所以在我们使用ulimit或limits.conf来设置时,如果要超过默认的1048576值时需要先增大nr_open值(sysctl -w fs.nr_open=100000000或者直接写入sysctl.conf文件)。当然百万级别的单进程最大file-handle打开数应该也够用了吧。。
所有进程打开的文件描述符数不能超过/proc/sys/fs/file-max
单个进程打开的文件描述符数不能超过user limit中nofile的soft limit
nofile的soft limit不能超过其hard limit
nofile的hard limit不能超过/proc/sys/fs/nr_open
如下内容转载自
linux 单进程可创建最大线程数
在2.4内核的典型系统上(AS3/RH9),线程是用轻量进程实现的,每个线程要占用一个进程ID,在服务器程序上,如果遇到高点击率访问,会造成进程表溢出,系统为了维护溢出的进程表,会有间歇的暂停服务现象,而2.6内核就不会发生由于大量线程的创建和销毁导致进程表溢出的问题
就是说,线程函数必须调用pthread_exit()结束,否则直到主进程函数退出才释放,特别是2.6内核环境,线程创建速度飞快,一不小心立刻内存被吃光,这一点反倒是2.4内核环境好,因为2.4内核创建的是进程,而且线程创建速度比2.6内核慢几个数量级。特别提醒,在64位CPU,2.6内核创建线程的速度更加疯狂,要是太快的话,加上usleep ()暂停一点点时间比较好
只有那些不需要互斥量的程序才能最大限度的利用线程编程带来的好处,否则只会更慢,2.6内核是抢占式内核,线程间共享冲突发生的几率远比2.4内核环境高,尤其要注意线程安全,否则就算是单CPU也会发生莫名其妙的内存不同步(CPU的高速缓存和主存内容不一致),Intel的新CPU为了性能使用NUMA架构,在线程编程中一定要注意扬长避短。
很有趣,在默认的ulimit参数下,不修改内核头文件
AS3 512M内存最多1000并发持续连接
CentOS4.3 512M内存最多300并发持续连接
似乎是CentOS不如AS3,这里主要原因是ulimit的配置造成,两个系统默认的配置差距很大,要想单进程维持更多线程接收并发连接,就要尽量缩小 ulimit -s的参数,插更多的内存条,单进程服务器上2000并发一点都不难,POSIX默认的限制是每进程64线程,但NTPL并非纯正POSIX,不必理会这个限制,2.6内核下真正的限制是内存条的插槽数目(也许还有买内存的钱数)
最近几天的编程中,注意到在32位x86平台上2.6内核单进程创建最大线程数=VIRT上限/stack,与总内存数关系不大,32位x86系统默认的VIRT上限是3G(内存分配的3G+1G方式),默认 stack大小是10240K,因此单进程创建线程默认上限也就300(3072M / 10240K),用ulimit -s 修改stack到1024K则使上限升到大约3050。我手头没有64位系统,不知道2.6内核在64位上单进程创建线程上限(实际上是本人懒得在同事的机器上装fc4_x86_64)。
前些天买了一套廉价的64位x86系统(64位赛杨+杂牌915主板),安装了CentOS4.3的x86_64版本,跑了一遍下面的小程序,得到的结果是:在ulimit -s 4096的情况下,单进程最大线程数在16000多一点,用top看
VIRT 的上限是64G,也就是36位, cat /proc/cpuinfo的结果是:address sizes : 36 bits physical, 48 bits virtual, 和我想象的标准64位系统不同, 我一直以为64位系统的内存空间也是64位的
单位里某BSD FANS用AMD64笔记本跑小程序测试线程创建速度(线程创建后立即phread_detach()然后紧跟着pthread_exit(),共计 100万个线程),同样源码OpenBSD竟然比FreeBSD快了3倍,什么时候OpenBSD也变得疯狂起来了?
测试单进程创建线程上限C源码(test.c)
#include
#include
#include
#include
#include
void * thread_null(void);
int main(int argc, char *argv[])
{
unsigned int i;
int rc;
pthread_t pool_id[65536]; //线程ID
sleep(1);
//创建线程
for(i = 0; i < 65536; i++)
{
rc = pthread_create(pool_id + i, 0, (void *)thread_null, NULL);
if (rc != 0)
{
fprintf(stderr, "pthread_create() failure\r\nMax pthread num is %d\r\n", i);
exit(-1);
}
}
fprintf(stdout, "Max pthread num is 65536\r\nYour system is power_full\r\n");
exit(0);
}
void * thread_null(void)
{
pthread_detach(pthread_self());
sleep(60);
pthread_exit(NULL);
}
参考
linux参数之/proc/sys/fs详解