spark读取嵌套数据

背景:最近,我遇到一种场景,需要从复杂的源数据(含有嵌套字段)中抽取部分嵌套字段,经过一番摸索,发现可以通过以下方式来抽取数据。

import org.apache.spark.sql.types._
val schema = StructType(Nil)
.add("f001", IntegerType)
.add("f002", LongType)
.add("f003", ArrayType(
	StructType(Nil)
	.add("f1", LongType)
	.add("f2", ArrayType(
		StructType(Nil)
		.add("f2_1",LongType)
		.add("f2_2",StringType)
		))
	)
)
spark.read.schema(schema).parquet("/to/path").printSchema

运行结果:
root
|-- f001: integer (nullable = true)
|-- f002: long (nullable = true)
|-- f003: array (nullable = true)
| |-- element: struct (containsNull = true)
| | |-- f1: long (nullable = true)
| | |-- f2: array (nullable = true)
| | | |-- element: struct (containsNull = true)
| | | | |-- f2_1: long (nullable = true)
| | | | |-- f2_2: string (nullable = true)

你可能感兴趣的:(spark,大数据)