1、计算文件中每个单词的重复数量
egrep -o "[a-zA-Z]+" /etc/passwd|sort|uniq -c

2、Nginx日志access.log格式如下
192.168.91.1 - - [01/Jul/2018:20:39:26 +0800] "GET /favicon.ico HTTP/1.1" 404 571 "-" "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)"
分别统计出日志中2018年7月1日20点11分到20点48分这段时间中请求最多的IP和User-Agent
2018年7月1日20点11分到20点48分这段时间中请求最多的IP
awk '$4~/01\/Jul\/2018:20:11/,/01\/Jul\/2018:20:48/{print $1}' access.log|sort|uniq -c|head -1
2018年7月1日20点11分到20点48分这段时间中请求最多的User-Agent
awk -F'"' '$1~/01\/Jul\/2018:20:11/,/01\/Jul\/2018:20:13/{print $6}' access.log|sort|uniq -c|head -1

3、统计文件里面的空行数量
awk '/^$/{a=a+1}END{print a}' test.txt

4、/etc/passwd里面 以:为分隔符,字段3大于15一共有几行

awk -F ":" '$3>15{a++}END{print a}' /etc/passwd