Nginx访问日志文件内容如下:

10.9.40.134 - - [01/Aug/2016:06:29:42 +0800] "POST / HTTP/1.1" 302 0 "-" "python-requests/2.4.3 CPython/2.7.9 Linux/3.16.0-4-amd64"
10.9.40.134 - - [01/Aug/2016:06:29:42 +0800] "GET /monitor.html?id=d00 HTTP/1.1" 200 8472 "-" "python-requests/2.4.3 CPython/2.7.9 Linux/3.16.0-4-amd64"
1
2
参考

如何通过命令行统计和排列访问日志里的ip数

linux sort,uniq,cut,wc命令详解
http://www.cnblogs.com/ggjucheng/archive/2013/01/13/2858385.html

Python

解决方案

awk sort

$1表示以空格为分割符的第一个匹配项,也就是文件中的ip地址。使用sort对结果排序,uniq -c进行技术,最后sort -n是以“数字”来排序,针对统计后的访问次数来排序

awk '{print $1}' access.log.1 |sort|uniq -c|sort -n
1
awk for

默认变量为0,对每一行的$1作为key,cnt数组++,实现ip的计数。计数结束后END。然后把结果打印出来,最后sort -n以“数字”排序。

awk '{cnt[$1]++;}END{for(i in cnt){printf("%s\t%s\n", cnt[i], i);}}' access.log.1|sort -n
1
Python

使用re匹配ip地址的正则表达式,同样用字典来存储ip出现的次数。

import re
mydict = {}
with open('/var/log/nginx/access.log.1') as f:
for line in f:
match = re.match(r'([0-9]{1,3}.){3}[0-9]{1,3}', line)
if match:
ip = match.group()
if ip in mydict.keys():
mydict[ip] += 1
else:
mydict[ip] = 1

print mydict