111.Parquet表的使用

  • Parquet格式:
    • 数据模型: Avro, Thrift, Protocol Buffers, POJOs
    • 查询引擎: Hive, Impala, Pig, Presto, Drill, Tajo, HAWQ, IBM Big SQL
    • 计算框架: MapReduce, Spark, Cascading, Crunch, Scalding, Kite
  • Parquet是一种列式的二进制文件格式,Impala基于Parquet文件可以高效的处理大型复杂查询

111.1 数据准备

  • 使用hive-testbench生成15GB测试数据,挑选catalog_sales表做为测试表
    • 生成的表数据为text类型


  • 查看catalog_sales表生成的text数据大小


111.2 创建Parquet表

  • SQL脚本:
set parquet_file_size=512M;
set COMPRESSION_CODEC=snappy;
drop table if exists catalog_sales;
create table default.catalog_sales 
stored as parquet
as select * from tpcds_text_15.catalog_sales;
  • 创建Parquet表并导入数据
[root@ip-168-12-26-81 impala-parquet]# impala-shell -f load_parquet.sql 
Starting Impala Shell without Kerberos authentication
  • 查看HDFS上catalog_sales表占用空间大小
[root@ip-168-12-13-67 ~]# hadoop fs -du -h /user/hive/warehouse
  • 验证
    • 数据量大小与原始表tpcds_text_15.catalog_sales表数据量一致即可

111.3 Parquet block size

  • 默认情况下,Impala的INSERT...SELECT语句创建的Parquet文件的块大小是256MB
  • 被Impala写入的Parquet文件都是一个单独的块,允许整个文件刚好由一台机器处理
    • 在将Parquet文件拷贝到HDFS其他目录或者其他HDFS时,使用hdfs dfs -pb来保留原始块大小
  • 如果Parquet表中或者查询访问的某个分区中只有一个或几个数据块,则可能会导致查询性能下降:没有足够的数据来利用Impala查询的分布式能力
    • 每个数据块由其中一台DataNode上的单个CPU核来处理
  • 在一个由100个节点组成的16核机器中,可以同时处理数千个数据文件
    • 如在“许多小文件”和“单个大文件”之间找到一个高I/O和并行处理能力的平衡点,就可以在执行INSERT...SELECT语句之前设置PARQUET_FILE_SIZE,以控制每个生成的Parquet文件的大小
    • Impala2.0之前你要指定绝对字节数,2.0以后你可以以m或者g为单位,分别代表MB和GB大小。基于特定的数据量选择不同的file size做一些基准测试,然后找到适合你集群和数据文件的PARQUET_FILE_SIZE大小

大数据视频推荐:
腾讯课堂
CSDN
AIops智能运维机器学习算法实战
ELK入门精讲
AIOps智能运维实战
ELK7 stack开发运维
大数据语音推荐:
ELK7 stack开发运维
企业级大数据技术应用
大数据机器学习案例之推荐系统
自然语言处理
大数据基础
人工智能:深度学习入门到精通

你可能感兴趣的:(111.Parquet表的使用)