nginx自动日志功能与日志自动切割脚本

关于nginx包含变量的自动日志:

使用自动日志需要注意以下:
1、nginx日志目录权限,以我的安装路径为例/usr/local/nginx,那我的日志目录就是在/usr/local/nginx/logs里;使用了包含变量自动日志,那么这个目录nginx的用户需要有写入的权限,否则将不可能生成日志。默认情况下,nginx的运行用户为nobady。 我的习惯是安装一个程序然后给他分配一个专用账户使用。

2、缓存将不会被使用,因为使用了变量的原因吧(这一点我还没有完全理解)

3、每条日志,要先打开文件,然后写入,最后关闭文件,如此循环。此时,需要开启nginx的open_log_file_cache功能,缓存经常被使用的日志文件描述符缓存。open_log_file_cache 默认为off
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;

max 最大的文件描述符数量,最大的缓存数量
inactive 在多少时间内不活动,就会被删除
min_uses 如果在inactive时间内,使用超过该参数定义的次数,就会被缓存
valid 多少时间检查一次。

http {

…………
log_format main ‘$remote_addr � $remote_user [$time_local] “$request” ‘
‘$status $body_bytes_sent “$http_referer” ‘
‘”$http_user_agent” “$http_x_forwarded_for”‘;

access_log logs/$server_name.access.log main;
open_log_file_cache max=1000 inactive=20s min_uses=2 valid=1m;

………… 省去了其他行
}

最后,日志文件名会以在server_name中定义的名字开始。例:svr3.labexam.com.access.log

4、关于日志切割:
完成以上三项后,并不是工作的结束,只是又一个开始。日志会随着访问量的增大急速增长,所以需要做日志的切割!

以下是一个脚本:

#!/bin/bash
#made by cheng
#blog:myhat.blog.51cto.com
#last_time=2011/08/18

#存档的环境变量
log_path=/data1/backup_log
nginx_pid=/usr/local/webserver/nginx/nginx.pid
nginx_log=/data1/logs
yesterday=`date -d “yesterday” +%Y%m%d`

#获取有规则的access.log名称,以后于后面建立目录使用
host=`ls -l $nginx_log/*.access.log | awk -F ” ” ‘{print $9}’ | awk -F “.access” ‘{print $1}’ | awk -F “$nginx_log/” ‘{print $2}’`

#循环建立目录与移动日志。
for i in $host
do
if [ ! -d $log_path/$i/$yesterday ];then
mkdir -p $log_path/$i/$yesterday
fi
if [ ! -f $log_path/$i/$yesterday/$yesterday.access.log ];then
mv $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log
kill -USR1 `cat $nginx_pid`
else
mv -bf $nginx_log/$i.access.log $log_path/$i/$yesterday/$yesterday.access.log_1
kill -USR1 `cat $nginx_pid`
fi
done

最后需要做的是,把这个脚本放到crontab里,让其00:00时运行!
运行该脚本后,会自动根据虚拟主机的主机名建立主目录,在该目录下层放新建前一天的日期目录,然后把昨天的日志放到这个目录里。实现每天一次日志切割。
*******该脚本运行的前提是,使用了自动日志的功能。

本文出自 “潜入技术的海洋” 博客,请务必保留此出处http://myhat.blog.51cto.com/391263/640440

你可能感兴趣的:(nginx,职场,休闲,日志切割,自动日志)