spark SQL编程动手实战-01

首先创建SparkContext上下文:


接着引入隐身转换,用于把RDD转成SchemaRDD:


接下来定义一个case class 来用于描述和存储SQL表中的每一行数据:

spark SQL编程动手实战-01_第1张图片

接下来要加载数据,这里的测试数据是user.txt文件:

我们创建好use.txt增加内容并上传到hdfs中:


web控制台查询:


hdfs命令查询:

spark SQL编程动手实战-01_第2张图片


加载数据:

spark SQL编程动手实战-01_第3张图片

验证数据是否加载成功:

spark SQL编程动手实战-01_第4张图片


注册成为user的table:

spark SQL编程动手实战-01_第5张图片


此刻user还是一个MappedRDD:

spark SQL编程动手实战-01_第6张图片

执行age 大于13 小于19的SQL查询:

spark SQL编程动手实战-01_第7张图片

此刻的teenagers已经隐身转换成SchemaRDD

spark SQL编程动手实战-01_第8张图片

通过collect操作触发job的提交和执行:

spark SQL编程动手实战-01_第9张图片

结果:

spark SQL编程动手实战-01_第10张图片


DSL是Domain Specific Language的缩写,使用DSL我们可以直接基于读取的RDD数据进行SQL操作,无需注册成Table。

我们重新启动下spark-shell:

spark SQL编程动手实战-01_第11张图片


同样使用"user.txt"的数据:

spark SQL编程动手实战-01_第12张图片

验证user:

spark SQL编程动手实战-01_第13张图片


我们这次直接使用SQL查询操作:

spark SQL编程动手实战-01_第14张图片


使用toDebugString查看下结果:

spark SQL编程动手实战-01_第15张图片

可以发现使用DSL的使用teenagers在内部已经被隐身转换了SchemaRDD的实例

spark SQL编程动手实战-01_第16张图片


可以发现与前面那张注册Table方式的结果是一样的

你可能感兴趣的:(case,Class,DSL,SQLContext,SchemaRDD,registerAsTable)