apachelog分析脚本

来源:http://bbs.linuxtone.org/thread-4936-1-1.html
作者:可爱的卧底
假设apache日志格式为:
118.78.199.98 - - [09/Jan/2010:00:59:59 +0800] "GET /Public/Css/index.css HTTP/1.1" 304 - "http://www.a.cn/common/index.php" "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; GTB6.3)"

在apache日志中找出访问次数最多(负载最重)的几分钟内,哪几个IP访问的最多?
我写了两个脚本,但内容上大同小异
脚本1:
#!/bin/bash
# analysis apache access log
# histroy
# caoyameng  version0.1 2010/01/24

if (test -z $1) ;then
 read -p "Specify  logfile:" LOG
else
        LOG=$1
fi

if [ ! -e $LOG ];then
echo "I cann't find apache log file."
exit 0
fi

awk '{print  $4}' $LOG |cut -c 14-18|sort|uniq -c|sort -nr|head  >timelog
for   i in  `awk '{print $2}' timelog`
do

all=`grep $i timelog|awk '{print $1}'`
echo  " $i  $all"
IP=`grep $i $LOG| awk '{print $1}' |sort |uniq -c|sort -nr|head`
echo  "$IP"

done
rm  -f timelog

version 2
#!/bin/bash
# analysis apache access log
# histroy
# caoyameng  version0.2 2010/01/24

if (test -z $1) ;then
 read -p "Specify  logfile:" LOG
else
        LOG=$1
fi

if [ ! -e $LOG ];then
echo "I cann't find apache log file."
exit 0
fi

awk '{print  $4}' $LOG |cut -c 14-18|sort|uniq -c|sort -nr|head  >timelog
for (( i=1; i<=10; i=i+1 ))
do
num=`sed -n "${i}p" timelog|awk '{print $1}'`
time=`sed -n "${i}p" timelog|awk '{print $2}'`
echo  "####The No.$i "
echo  " "
echo  " $time   $num"
echo  " "
full=`grep $time $LOG| awk '{print $1}' |sort |uniq -c|sort -nr|head`
echo  "$full"
echo " "
done
rm  -f timelog

补充上三个小命令:
问题1:在apachelog中找出访问次数最多的10个IP。
awk '{print $1}' apache_log |sort |uniq -c|sort -nr|head
awk 首先将每条日志中的IP抓出来,如日志格式被自定义过,可以 -F 定义分隔符和 print指定列;
sort进行初次排序,为的使相同的记录排列到一起;
upiq -c 合并重复的行,并记录重复次数。
head进行前十名筛选;
sort -nr按照数字进行倒叙排序。
我参考的命令是:
  显示10条最常用的命令
sed -e "s/| /\n/g" ~/.bash_history | cut -d ' ' -f 1 | sort | uniq -c | sort -nr | head


问题2:在apache日志中找出访问次数最多的几个分钟。
awk '{print $4}' apache.log |cut -c 14-18|sort|uniq -c|sort -nr|head
awk 用空格分出来的第四列是[09/Jan/2010:00:59:59;
cut -c 提取14到18个字符
剩下的内容和问题1类似。
问题3:在apache日志中找到访问最多的页面:
awk '{print $11}' apache_log |sed 's/^.*cn\(.*\)\"/\1/g'|sort |uniq -c|sort -rn|head
类似问题1和2,唯一特殊是用sed的替换功能将" http://www.a.cn/common/index.php"替换成括号内的内容:" http://www.a.cn(/common/index.php)

你可能感兴趣的:(shell,职场,休闲,apachelog)