Spark SQL 数据加载和保存

文章目录

  • 一 、Spark 数据的加载和保存
    • (一)通用的加载和保存方式
      • 1、加载数据
      • 2、保存数据
    • (二)Parquet
      • 1、加载数据
      • 2、保存数据
    • (三)JSON
      • 1、导入隐式转换
      • 2、加载 JSON 文件
      • 3、创建临时表
      • 4、数据查询
    • (四)MySQL
      • 1、读取数据
      • 2、写入数据


一 、Spark 数据的加载和保存

(一)通用的加载和保存方式

  • SparkSQL 提供了通用的保存数据和数据加载的方式。这里的通用指的是使用相同的
    API,根据不同的参数读取和保存不同格式的数据,SparkSQL 默认读取和保存的文件格式
    为 parquet

1、加载数据

  • spark.read.load 是加载数据的通用方法
    Spark SQL 数据加载和保存_第1张图片
  • 如果读取不同格式的数据,可以对不同的数据格式进行设定
scala> spark.read.format("…")[.option("…")].load("…")
  • format(“…”):指定加载的数据类型,包括"csv"、“jdbc”、“json”、“orc”、"parquet"和
    “textFile”。
  • load(“…”):在"csv"、“jdbc”、“json”、“orc”、"parquet"和"textFile"格式下需要传入加载
    数据的路径。
  • option(“…”):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable
    我们前面都是使用 read API 先把文件加载到 DataFrame 然后再查询,其实,我们也可以直
    接在文件上进行查询: 文件格式.文件路径
spark.sql("select * from json.`/opt/module/data/user.json`").show

Spark SQL 数据加载和保存_第2张图片

2、保存数据

  • df.write.save 是保存数据的通用方法
    在这里插入图片描述
  • 如果保存不同格式的数据,可以对不同的数据格式进行设定
scala>df.write.format("…")[.option("…")].save("…")
  • format(“…”):指定保存的数据类型,包括"csv"、“jdbc”、“json”、“orc”、"parquet"和
    “textFile”。
  • format(“…”):指定保存的数据类型,包括"csv"、“jdbc”、“json”、“orc”、"parquet"和
    “textFile”。
  • option(“…”):在"jdbc"格式下需要传入 JDBC 相应参数,url、user、password 和 dbtable
    保存操作可以使用 SaveMode, 用来指明如何处理数据,使用 mode()方法来设置。
  • SaveMode 是一个枚举类,其中的常量包括:
    Spark SQL 数据加载和保存_第3张图片

(二)Parquet

  • Spark SQL 的默认数据源为 Parquet 格式。Parquet 是一种能够有效存储嵌套数据的列式
    存储格式。
  • 数据源为 Parquet 文件时,Spark SQL 可以方便的执行所有的操作,不需要使用 format。
    修改配置项 spark.sql.sources.default,可修改默认数据源格式。

1、加载数据

2、保存数据

(三)JSON

  • Spark SQL 能够自动推测 JSON 数据集的结构,并将它加载为一个 Dataset[Row]. 可以
    通过 SparkSession.read.json()去加载 JSON 文件。
  • 注意:Spark 读取的 JSON 文件不是传统的 JSON 文件,每一行都应该是一个 JSON 串。格
    式如下:
{"username":"zhangsan","age":20}
{"username":"lisi","age":25}
{"username":"wangwu","age":30}

1、导入隐式转换

import spark.implicits._

2、加载 JSON 文件

Spark SQL 数据加载和保存_第4张图片

3、创建临时表

Spark SQL 数据加载和保存_第5张图片

4、数据查询

Spark SQL 数据加载和保存_第6张图片

(四)MySQL

  • Spark SQL 可以通过 JDBC 从关系型数据库中读取数据的方式创建 DataFrame,通过对
    DataFrame 一系列的计算后,还可以将数据再写回关系型数据库中。如果使用 spark-shell 操
    作,可在启动 shell 时指定相关的数据库驱动路径或者将相关的数据库驱动放到 spark 的类
    路径下。

1、读取数据

Spark SQL 数据加载和保存_第7张图片

2、写入数据

  • 创建样例类
    Spark SQL 数据加载和保存_第8张图片
  • 创建RDD,将RDD的数据写入到myql
  • 错误
  • 修改结果
    Spark SQL 数据加载和保存_第9张图片
  • 查看结果
    Spark SQL 数据加载和保存_第10张图片

你可能感兴趣的:(spark,sql,big,data)