q 是一个可以在命令行直接对文本文件(如CSV、TSV或者任何其它文本文件、甚至标准输入)执行 SQL 语句的工具。
使用q可以直接对文本做一些简单的探索性分析,避免使用数据库的建表、导入等过程;同时也可以一定程度的替代 awk
,与其它 Linux 命令结合做一些简单的统计分析。
示例:
# 过滤出 clicks_file.csv 文件里第三列大于 32.3 的所有行
q "select count(*) from ./clicks_file.csv where c3 > 32.3"
# 产看当前目录的 png 文件总共占用了多少空间
ps -ef | q -H "select UID, count(*) cnt from - group by UID order by cnt desc limit 3"
参考链接:
- 官方网址
- github 地址
安装
在 Mac 下可以直接使用brew install q
来安装。
通用的一个简单方式是直接下载可执行文件,整个q是一个包含1600行左右代码的Python脚本。下载后赋予执行权限,放进系统路径就行了。
wget https://cdn.rawgit.com/harelba/q/1.5.0/bin/q
sudo cp q /usr/local/bin
更详细的各平台安装方法请参考:http://harelba.github.io/q/install.html。
使用方法和示例
查看帮助
q -h
常用参数
-
-H
: 指定第一行为列名,如未指定则使用 c1, c2 等作为列名 -
-t
: 指定分隔符为制表符(Tab),其它分隔符可以使用-d
指定 -
-O
: 输出中保留列名
示例
以下示例均来自官方教程,更多示例可自行前往参考:http://harelba.github.io/q/examples.html。
示例5:从标准输入读取数据
计算/tmp
路径下各用户/组所属的文件大小总和(单位为MB)
sudo find /tmp -ls | q "SELECT c5,c6,sum(c7)/1024.0/1024 AS total FROM - GROUP BY c5,c6 ORDER BY total desc"
输出:
mapred hadoop 304.00390625
root root 8.0431451797485
smith smith 4.34389972687
示例6:通过指定标题行获取列名
计算进程数最多的3个用户,按进程数量降序排列。
注意-H
参数指定了第一行为列名,所以索引的时候可以直接引用UID
。
ps -ef | q -H "SELECT UID,COUNT(*) cnt FROM - GROUP BY UID ORDER BY cnt DESC LIMIT 3"
输出
root 152
harel 119
avahi 2
注:Mac 下结果样式可能稍有差别,UID列不是名字而是数字,这是由于 ps 命令在 Linux 和 FreeBSD 表现不同造成的。
示例7:关联两个文件
下列命令将一个 ls 命令输出(exampledatafile)和一个包含组名、email 的文件(group-emails-example)进行了关联操作。
为了输出的简洁性,还用了一个 where 语句过滤除了叫 ppp 的文件。
q "SELECT myfiles.c8,emails.c2 FROM exampledatafile myfiles JOIN group-emails-example emails ON (myfiles.c4 = emails.c1) WHERE myfiles.c8 = 'ppp'"
输出:
ppp [email protected]
ppp [email protected]