产生后果:服务建立不了新的 socket 连接,服务无法正常使用。
产生原因:大多数情况是程序没有正常关闭一些资源引起的。
在Linux系统中,目录、字符设备、块设备、套接字、打印机等都被抽象成了文件,即通常所说的“一切皆文件”。程序操作这些文件时,系统就需要记录每个当前访问file的name、location、access authority等相关信息,这样一个实体被称为file entry。这些实体被记录在open files table中,Linux系统配置了open files table中能容纳多少file entry。如果超过这个配置值,则Linux就会拒绝其他文件操作的请求,并抛出Too many open files。
1)通过ulimit -a
查看单进程可以打开的最大文件句柄数。
[root@icoolkj ~]# ulimit -a
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
scheduling priority (-e) 0
file size (blocks, -f) unlimited
pending signals (-i) 256963
max locked memory (kbytes, -l) 64
max memory size (kbytes, -m) unlimited
open files (-n) 1024
pipe size (512 bytes, -p) 8
POSIX message queues (bytes, -q) 819200
real-time priority (-r) 0
stack size (kbytes, -s) 8192
cpu time (seconds, -t) unlimited
max user processes (-u) 256963
virtual memory (kbytes, -v) unlimited
file locks (-x) unlimited
[root@icoolkj ~]#
可以看到open files默认值是1024。
2)通过lsof -p ${pid} | wc -l
查看单个进程实际打开的文件句柄数。(需要安装yum -y install lsof
)
[root@icoolkj ~]# lsof -p 1683 |wc -l
619
[root@icoolkj ~]#
3)如果单个进程实际打开文件句柄数超过最大句柄数,则会出现Too many open files。
4) 一般产生原因为:socket创建过多,IO流操作、数据库连接未关闭等等。
5)子进程默认继承父进程的限制(即进程和父进程打开的文件句柄数单独计算)
6) 临时修改用户可打开的文件句柄数(这里主要是因为控制设置是通过用户来设置,实际上控制的是进程的文件句柄数)
使用命令ulimit -n 2048
修改允许打开的文件数,这种设置方法在重启后会还原为默认值
ulimit -n命令非root用户只能设置到4096。
7)通过修改系统配置文件,永久生效。
#打开文件
[root@icoolkj ~]# vi /etc/security/limits.conf
# 在最后加入
* soft nofile 65535
* hard nofile 65535
也可只加入* - nofile 65535
生效。
最前的 * 表示所有用户,可根据需要设置某一用户
注意"nofile"项有两个可能的限制措施。就是项下的hard和soft。必须对这两种限制进行设定,放可生效。 如果使用"-"字符设定, 则hard和soft设定会同时被设定。
8)动态修改进程的限制
通过prlimit --pid ${pid} --nofile=2048:2048
整个操作系统可以打开的文件句柄数是有限的,受内核参数"fs.file-max"确定。如果所有进程加起来超过了
1)通过命令 cat /proc/sys/fs/file-max 或者 sysctl -a 来查看 fs.file-max 的配置数量
2)临时改动:sysctl -w [变量名]=[值]
3)永久改动:修改配置文件 /etc/sysctl.conf 如果文件中没有"fs.file-max"属性,则添加。设置完成后,使用 sysctl -p 来加载系统参数,在不指定文件位置的情况下,默认会从/etc/sysctl.conf文件中加载。
[root@icoolkj ~]# cat /proc/sys/fs/file-max
6522789
[root@icoolkj ~]#
该场景仅针对被systemd管理的进程(也就是可以通过systemctl来控制的进程)生效。
1)可以通过修改该进程的service文件(通常在/etc/systemd/system/目录下),在[Service]下面添加"LimitNOFILE=20480000"来实现,修改完成之后需要执行"systemctl daemon-reload"来使该配置生效。
2)可以尝试通过修改这"fs.inotify.max_user_instances"和"fs.inotify.max_user_watches"这2个内核参数来生效。修改方法是修改/etc/sysctl.conf
文件,修改这2个内核参数,并执行sysctl -p
。
inotify是linux提供的一种监控机制,可以监控文件系统的变化。该机制受到2个内核参数的影响:“fs.inotify.max_user_instances"和"fs.inotify.max_user_watches”,其中"fs.inotify.max_user_instances"表示每个用户最多可以创建的inotify instances数量上限,"fs.inotify.max_user_watches"表示么个用户同时可以添加的watch数目,当出现too many open files问题而上面三种方法都无法解决时,可以尝试通过修改这2个内核参数来生效。修改方法是修改/etc/sysctl.conf文件,修改这2个内核参数,并执行sysctl -p。
产生原因可分析得知,一是可以修改系统的配置信息;另外一个是从程序层面解决。
一般情况下,1024个句柄数应该够程序使用(如果不是socket服务),如果出现Too many open files错误,首先考虑是不是程序出了问题,比如IO流,数据库连接池及各种其它的连接池等。若是socket服务,建议修改配置文件扩大打开文件句柄数。
1)Too many open files是liunx常见问题之一;
2)有四种原因会产生这个问题(单个进程打开文件句柄数过多、操作系统打开的文件句柄数过多、systemd对该进程进行了限制、inotify达到上限);
3)一般扩大单个进程打开文件句柄数即可解决问题;
4)如果程序不是socket服务,请排查程序。