Nginx日志按天分割

前言
网上有很多用kill -URS1的方式来让nginx产生新的日志文件,也有很多人抱怨这种方式是否正确,在这里我要告诉大家,这种方式非常正确。我看了系统自带的logrotates来实现nginx的日志分割,查看其bash源码,发现也是发送USR1这个信号。
这里解释一下USR1这个用户自定义信号,经过和一淘我特别崇拜的一个牛人张洋确认后,发现ubuntu下大部分进程对这个信号的反应都是重新生成日志文件,并且不会对当前的进程产生任何其它的影响

思路
利用bash的数组和for简化日志备份代码
利用date函数做日志备份的后缀,达到按天分割的效果
利用USR1信号让nginx产生新的日志

bash脚本  www.2cto.com
我的服务器上需要备份的日志文件分布在不同的目录下,所以我的脚本做了适当的优化(仔细看代码,你会理解的)
#!/bin/bash -

#1.nginx日志存放路径
first_path="/var/log/nginx/first"
path_array=($first_path)

#2.日志标识前缀数组
first_prefix_sign="first"
prefix_array=($first_prefix_sign)

#3.日志成功错误标识后缀数组
bool_array=("access" "error")

#4.nginx日志切割备份后缀
postfix=`date -d '+0 days' +%Y%m%d`".log"

#5.备份当前的日志文件,重命名改为日期后缀
for path in ${path_array[*]}
do
 for prefix in ${prefix_array[*]}
 do
  for bool in ${bool_array[*]}
  do
   file=$path/$prefix.$bool.log
   backfile=$path/$prefix.$bool.$postfix
   echo $file
   echo $backfile
   if [ -e $file ]
   then
    mv $file  $backfile
   fi
  done
 done
done

#6.查找nginx进程号,让其产生新的日志文件
nginx_pid=`ps -aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'`
#USR1:Reopen log files,刷新nginx日志文件
kill -USR1 $nginx_pid


简单实现:

[root@administrator sh]# vi nginx_access_log.sh 
#!/bin/bash
log_path="/usr/local/nginx/logs/"
mv ${log_path}access.log ${log_path}access_$(date -d "yesterday" +%Y%m%d).log
nginx_pid=`ps aux |grep -E 'nginx: master process'|grep -v 'grep'|awk '{print $2}'`
kill -USR1 $nginx_pid

然后在linux下的任务中添加每天执行一次的任务

命令:crontab -e

然后添加一句话

1 0 * * * sh /*/nginx_access_log.sh

执行保存即可

测试情况下可以直接执行  ./nginx_access_log.sh

如果每天要其自动执行的话需要先

service crond stop

然后再

service crond start 即可正常使用了


你可能感兴趣的:(Nginx日志按天分割)