hive的serde解析与应用

今天把serde讲解和相关应用整理一下,参考文档如下
参考的官方文档:
https://cwiki.apache.org/confluence/display/Hive/DeveloperGuide#DeveloperGuide-HiveSerDe
https://cwiki.apache.org/confluence/display/Hive/SerDe

1、serde概述

SerDe是Serializer / Deserializer的缩写,Hive将SerDe接口用于IO。该接口既处理序列化和反序列化,又将序列化的结果解释为要处理的单个字段。
SerDe允许Hive从表中读取数据,并将其以任何自定义格式写回HDFS

Hive 使用 SerDe (and FileFormat)去读和写表中的行
它的执行流程如下

HDFS files --> InputFileFormat --> --> Deserializer --> Row object
Row object --> Serializer --> --> OutputFileFormat --> HDFS files

当面临一个HDFS上的文件时,Hive将如下处理(以读为例):

(1) 调用InputFormat,将文件切成不同的文档。每篇文档即一行(Row)。
(2) 调用SerDe的Deserializer,将一行(Row),切分为各个字段。

其实我粗浅的理解如下

就是InputFileFormat读取数据,不管是按行还是按照什么,然后通过反序列化然后解析相应的字段。
写数据就是将查询的对象序列化成对象 然后 OutputFileFormat 写入HDFS 里面

2、serde的种类

  • 1、MetadataTypedColumnsetSerDe
  • 2、LazySimpleSerDe (这是创建表默认的serde,默认的INPUTFORMAT为
  • 3、TextInputFormat,OUTPUTFORMAT为HiveIgnoreKeyTextOutputFormat)
  • 4、ThriftSerDe
  • 5、DynamicSerDe
  • 6、ThriftSerDe
  • 7、DynamicSerDe
  • 8、JsonSerDe
  • 9、Avro SerDe
  • 10、SerDe for the ORC
  • 11、SerDe for Parquet
  • 12、SerDe for CSV

serde的属性可以切换

ALTER TABLE tableName SET SERDE 'serde的类名'

3、serde常用阐述

1、LazySimpleSerDe

如果不指定serde的话,默认的serde就是org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe,以行为\n,列为^A为分隔符,可以使用 row format delimited fields terminated by 来指定分隔符

这里多说两句,因为在项目中有csv的格式类似于这样 1,"xiaoming,178",87 这样的字段,即csv中有嵌套的这种情况(嵌套的里面还有分隔符),这种情况目前只能用CSV serde,因为在LazySimpleSerDe 还不支持识别这种模式。参考https://issues.apache.org/jira/browse/HIVE-8763

2、CSV serde

此SerDe将所有列都视为String类型。即使使用此SerDe创建具有非字符串列类型的表,DESCRIBE TABLE输出也将显示字符串列类型。从SerDe中检索类型信息。要将表中的列转换为所需类型,可以在将CAST转换为所需类型的表上创建视图。
默认分隔符,引号和转义符(如果未指定)

DEFAULT_ESCAPE_CHARACTER
DEFAULT_QUOTE_CHARACTER "
DEFAULT_SEPARATOR ,

关于hive在csv字段中有都逗号情况的处理的参考资料:https://cloud.tencent.com/developer/article/1363394

4、本地SerDes的注册

从Hive 0.14 开始,已为本地Hive SerDes引入了注册机制。这允许在create table语句中,在STORED AS关键字之间动态绑定,以代替{SerDe,InputFormat和OutputFormat}规范的三元组 。
例如

STORED AS AVRO
STORED AS ORC
STORED AS PARQUET

你可能感兴趣的:(hive的serde解析与应用)