linux下日志文件的分割

     有系统运维的过程中,日志文件往往非常大,这样就要求对日志文件进行分割,在此特用shell脚本对文件进行分割
sed的用法

#!/bin/bash   
  linenum=`wc   -l   httperr8007.log|   awk   '{print   $1}'`   
  n1=1   
  file=1   
  while   [   $n1   -lt   $linenum   ]   
  do   
                  n2=`expr   $n1   +   999`   
                  sed   -n   "${n1},   ${n2}p"   httperr8007.log >   file_$file.log     
                  n1=`expr   $n2   +   1`   
                  file=`expr   $file   +   1`   
  done   

split的用法 

split 参数:
-b  :后面可接欲分割成的档案大小,可加单位,例如 b, k, m 等;
-l  :以行数来进行分割;
#按每个文件1000行来分割除
split -l 1000 httperr8007.log httperr
httpaa,httpab,httpac ........
#按照每个文件100K来分割
split -b 100k httperr8007.log http
httpaa,httpab,httpac ........
结合awk的用法

name="76868&5676&435&43526&334&12312312&12321" 

echo|awk 'BEGIN {split('"\"$name\""', filearray, "&")}{for(i in filearray)print filearray[i]}'

echo a b c d|awk 'BEGIN {OFS=":"}{print $1,$2,$3,$4}'

 


 

你可能感兴趣的:(shell,awk,split,sed)