hadoop查看文件大小(hdfs hive hbase)

 

 

 

可以查看 hdfs  hive  hbase文件存储大小

hadoop fs -count 

或者

hdfs dfs -count /51JOB

 

[root@chinadaas01 ~]# hadoop fs -count  /hbase1/zzjg_detail

文件夹数 文件数  这个目录下的文件bytes

 

 

 

查看文件夹下 各个目录的总大小:

 

hdfs dfs -du -h /user/hive/warehouse/ste_qyjs.db/

能看到这个库下所有表的总大小 并以G 或者K 显示

 

 

直接看第三个命令:

 

[bigdata@task1-sandbox tfb]$ hadoop fs  -du -s -h /user/hive/warehouse/dev_treasury.db
1.1 T  3.3 T  /user/hive/warehouse/dev_treasury.db

 

 

 

查看分区表大小:“

 

hadoop fs -du /user/hive/warehouse/dev_treasury.db/ods_common_users|awk '{ SUM += $1 } END { print SUM/(1024*1024*1024)}'
awk处理完所有输入行之后才处理END模式, 上面命令是讲所有分区表和非分区表的大小统计进去 以GB显示

table.txt就是需要校验的hive表名

 

#!/bin/sh
source ~/.bashrc


while read line
do
echo "check table $line begin..."

table=$line
echo "当前统计大小的表是(单位GB): "$table >> result.txt
hadoop fs -du /user/hive/warehouse/treasury.db/$table|awk '{ SUM += $1 } END { print SUM/(1024*1024*1024)}' >> result.txt

 

 

 

 

 

你可能感兴趣的:(hadoop1,hive,hbase,大数据,awk)