快速了解HIVE文件存储格式

快速了解HIVE文件存储格式

    • 一 列式存储和行式存储
    • 二 TEXTFILE格式
    • 三 Sequence File
      • a 、Sequence File优缺点
      • b、Sequence File格式
        • 1、未压缩格式
        • 2、基于record压缩格式
        • 3、基于block压缩格式
    • 四 Avro File
      • a 、简介
      • b、应用场景
      • c、结构
      • d、优点
      • e、缺点
    • 五 ORC格式
    • 六 PARQUET格式
    • 七 Apache Arrow新一代的存储格式
      • a、Arrow简介
      • b、Arrow是如何提升数据移动性能的
    • 八 BigData File Viewer工具
      • a、介绍
      • b、功能清单

Hive支持的存储数的格式主要有: TEXTFILE行式存储) 、 SEQUENCEFILE(行式存储)、 ORC 列式存储)、 PARQUET 列式存储)。

快速了解HIVE文件存储格式_第1张图片

一 列式存储和行式存储

a 、行式存储:

一行数据接着一行数据做存储,一行数据中的多个字段的值都是物理相邻的。

特点:

  • 一行相关的数据是保存在一起,比较符合面向对象的思维,因为一行数据就是一条记录

  • 这种存储格式比较方便进行INSERT/UPDATE操作

b 、列式存储:

一列数据单独存储,多行数据的相同列的值,在物理存储上是相邻的

特点:

  • 分析场景中往往需要读大量行但是少数几个列。在行存模式下,数据按行连续存储,所有列的数据都存储在一个block中,不参与计算的列在IO时也要全部读出,读取操作被严重放大。而列存模式下,只需要读取参与计算的列即可,极大的减低了IO cost,加速了查询。

  • 同一列中的数据属于同一类型,不需要针对不同数据类型频繁切换压缩算法,压缩效果显著。列存往往有着高达十倍甚至更高的压缩比,节省了大量的存储空间,降低了存储成本。

快速了解HIVE文件存储格式_第2张图片

二 TEXTFILE格式

hive默认格式,数据不做压缩,磁盘开销大,数据解析开销大。可结合Gzip、Bzip2使用(系统自动检查,执行查询时自动解压),但使用这种方式,hive不会对数据进行切分,从而无法对数据进行并行操作。

快速了解HIVE文件存储格式_第3张图片

三 Sequence File

Sequence File是Hadoop API提供的一种二进制文件支持。这种二进制文件直接将键值对序列化到文件中。

快速了解HIVE文件存储格式_第4张图片

a 、Sequence File优缺点

优点

  • 二进制格式存储,比文本文件更紧凑。

  • 支持不同级别压缩 基于Record或Block压缩)。

  • 文件可以拆分和并行处理,适用于MapReduce。

局限性

  • 二进制格式文件不方便查看。

  • 特定于hadoop,只有Java API可用于与之进行交互。尚未提供多语言支持。

b、Sequence File格式

Hadoop Sequence File 是一个由二进制键/值对组成的。根据压缩类型,有3种不同的Sequence File格式:未压缩格式record压缩格式block压缩格式

Sequence File由一个header一个或多个record组成。以上三种格式均使用相同的header结构,如下所示:

快速了解HIVE文件存储格式_第5张图片

前3个字节为SEQ,表示该文件是序列文件,后跟一个字节表示实际版本号 例如SEQ4或SEQ6)。Header中其他也包括key、value class名字、 压缩细节、metadata、Sync marker。Sync Marker同步标记,用于可以读取任意位置的数据。

1、未压缩格式

快速了解HIVE文件存储格式_第6张图片

未压缩的Sequence File文件由header、record、sync三个部分组成。其中record包含了4个部分:record length 记录长度)、key length 键长)、key、value。

每隔几个record 100字节左右)就有一个同步标记。

2、基于record压缩格式

快速了解HIVE文件存储格式_第7张图片

基于record压缩的Sequence File文件由header、record、sync三个部分组成。其中record包含了4个部分:record length 记录长度)、key length 键长)、key、compressed value 被压缩的值)

每隔几个record 100字节左右)就有一个同步标记。

3、基于block压缩格式

快速了解HIVE文件存储格式_第8张图片

基于block压缩的Sequence File文件由header、block、sync三个部分组成。

block指的是record block,可以理解为多个record记录组成的块。注意,这个block和HDFS中分块存储的block 128M)是不同的概念。

Block中包括:record条数、压缩的key长度、压缩的keys、压缩的value长度、压缩的values。每隔一个block就有一个同步标记。

block压缩比record压缩提供更好的压缩率。使用Sequence File时,通常首选块压缩。

四 Avro File

快速了解HIVE文件存储格式_第9张图片

a 、简介

  • Apache Avro是与语言无关的序列化系统,由Hadoop创始人 Doug Cutting开发

  • Avro是基于行的存储格式,它在每个文件中都包含JSON格式的schema定义,从而提高了互操作性并允许schema的变化 删除列、添加列)。 除了支持可切分以外,还支持块压缩。

  • Avro是一种自描述格式,它将数据的schema直接编码存储在文件中,可以用来存储复杂结构的数据。

  • Avro可以进行快速序列化,生成的序列化数据也比较小。

b、应用场景

  • 适合于一次性需要将大量的列 数据比较宽)、写入频繁的场景

  • 随着更多存储格式的发展,常用于Kafka和Druid中

c、结构

快速了解HIVE文件存储格式_第10张图片

直接将一行数据序列化在一个block中

d、优点

  • Avro是与语言无关的数据序列化系统。

  • Avro将schema存储在header中,数据是自描述的。

  • 序列化和反序列化速度很快。

  • Avro文件是可切分的、可压缩的,非常适合在Hadoop生态系统中进行数据存储。

e、缺点

  • 如果我们只需要对数据文件中的少数列进行操作,行式存储效率较低。例如:我们读取15列中的2列数据,基于行式存储就需要读取数百万行的15列。而列式存储就会比行式存储方式高效

  • 列式存储因为是将同一列 类)的数据存储在一起,压缩率要比方式存储高

五 ORC格式

Orc (Optimized Row Columnar)是hive 0.11版里引入的新的存储格式。

可以看到每个Orc文件由1个或多个stripe组成,每个stripe250MB大小,这个Stripe实际相当于RowGroup概念,不过大小由4MB->250MB,这样能提升顺序读的吞吐率。每个Stripe里有三部分组成,分别是IndexData,Row Data,StripeFooter:

快速了解HIVE文件存储格式_第11张图片

  • 一个orc文件可以分为若干个Stripe

  • 一个stripe可以分为三个部分

  • indexData:某些列的索引数据

  • rowData :真正的数据存储

  • StripFooter:stripe的元数据信息

1)Index Data:一个轻量级的index,默认是每隔1W行做一个索引。这里做的索引只是记录某行的各字段在Row Data中的offset。

2)Row Data:存的是具体的数据,先取部分行,然后对这些行按列进行存储。对每个列进行了编码,分成多个Stream来存储。

3)Stripe Footer:存的是各个stripe的元数据信息

每个文件有一个File Footer,这里面存的是每个Stripe的行数,每个Column的数据类型信息等;每个文件的尾部是一个PostScript,这里面记录了整个文件的压缩类型以及FileFooter的长度信息等。在读取文件时,会seek到文件尾部读PostScript,从里面解析到File Footer长度,再读FileFooter,从里面解析到各个Stripe信息,再读各个Stripe,即从后往前读。

六 PARQUET格式

Parquet是面向分析型业务的列式存储格式,由Twitter和Cloudera合作开发,2015年5月从Apache的孵化器里毕业成为Apache顶级项目。

Parquet文件是以二进制方式存储的,所以是不可以直接读取的,文件中包括该文件的数据和元数据,因此Parquet格式文件是自解析的。

通常情况下,在存储Parquet数据的时候会按照Block大小设置行组的大小,由于一般情况下每一个Mapper任务处理数据的最小单位是一个Block,这样可以把每一个行组由一个Mapper任务处理,增大任务执行并行度。Parquet文件的格式如下图所示。

快速了解HIVE文件存储格式_第12张图片

上图展示了一个Parquet文件的内容,一个文件中可以存储多个行组,文件的首位都是该文件的Magic Code,用于校验它是否是一个Parquet文件,Footer length记录了文件元数据的大小,通过该值和文件长度可以计算出元数据的偏移量,文件的元数据中包括每一个行组的元数据信息和该文件存储数据的Schema信息。除了文件中每一个行组的元数据,每一页的开始都会存储该页的元数据,在Parquet中,有三种类型的页:数据页、字典页和索引页。数据页用于存储当前行组中该列的值,字典页存储该列值的编码字典,每一个列块中最多包含一个字典页,索引页用来存储当前行组下该列的索引,目前Parquet中还不支持索引页。

七 Apache Arrow新一代的存储格式

快速了解HIVE文件存储格式_第13张图片

a、Arrow简介

  • Apache Arrow是一个跨语言平台,是一种列式内存数据结构,主要用于构建数据系统。Apache Arrow在2016年2月17日作为顶级Apache项目引入。

快速了解HIVE文件存储格式_第14张图片

  • Apache Arrow发展非常迅速,并且在未来会有更好的发展空间。 它可以在系统之间进行高效且快速的数据交换,而无需进行序列化,而这些成本已与其他系统 例如Thrift,Avro和Protoco* Buffers)相关联。

  • 每一个系统实现,它的方法 method)都有自己的内存存储格式,在开发中,70%-80%的时间浪费在了序列化和反序列化上。

快速了解HIVE文件存储格式_第15张图片

  • Arrow促进了许多组件之间的通信。 例如,使用Python pandas)读取复杂的文件并将其转换为Spark DataFrame。

快速了解HIVE文件存储格式_第16张图片

b、Arrow是如何提升数据移动性能的

  • 利用Arrow作为内存中数据表示的两个过程可以将数据从一种方法“重定向”到另一种方法,而无需序列化或反序列化。 例如,Spark可以使用Python进程发送Arrow数据来执行用户定义的函数。

  • 无需进行反序列化,可以直接从启用了Arrow的数据存储系统中接收Arrow数据。 例如,Kudu可以将Arrow数据直接发送到Impala进行分析。

  • Arrow的设计针对嵌套结构化数据 例如在Impala或Spark Data框架中)的分析性能进行了优化。

八 BigData File Viewer工具

a、介绍

  • 一个跨平台 Windows,MAC,Linux)桌面应用程序,用于查看常见的大数据二进制格式,例如Parquet,ORC,AVRO等。支持本地文件系统,HDFS,AWS S3等。

快速了解HIVE文件存储格式_第17张图片

github地址:https://github.com/Eugene-Mark/bigdata-file-viewer

b、功能清单

  • 打开并查看本地目录中的Parquet,ORC和AVRO,HDFS,AWS S3等。

  • 将二进制格式的数据转换为文本格式的数据,例如CSV

  • 支持复杂的数据类型,例如数组,映射,结构等

  • 支持Windows,MAC和Linux等多种平台

  • 代码可扩展以涉及其他数据格式

你可能感兴趣的:(Linux,大数据,hive,hadoop,大数据)