通过自定义创建Dataframe及使用SQL来操作数据

1.实例化SparkContext和SparkSession对象

2.创建case class Emp样例类,用于定义数据的结构信息

3.通过SparkContext对象读取文件,生成RDD[String]

4.将RDD[String]转换成RDD[Emp]

5.引入spark隐式转换函数(必须引入)

6.将RDD[Emp]转换成DataFrame

7.将DataFrame注册成一张视图或者临时表

8.通过调用SparkSession对象的sql函数,编写sql语句

9.停止资源

10.具体代码如下:



import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{Row, SparkSession}
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.types.{DataType, DataTypes, StructField, StructType}

// 0. 数据分析
// 7499,ALLEN,SALESMAN,7698,1981/2/20,1600,300,30
// 1. 定义Emp样例类
case class Emp(empNo:Int,empName:String,job:String,mgr:String,hiredate:String,sal:Int,comm:String,deptNo:Int)

object Demo02 {
  def main(args: Array[String]): Unit = {
    // 2. 读取数据将其映射成Row对象
    val sc = new SparkContext(new SparkConf().setMaster("local[2]").setAppName("Demo02"))
    sc.setLogLevel("WARN")
    val mapRdd = sc.textFile("file:///G:\\major\\spark\\temp\\emp.csv")
      .map(_.split(","))

    val rowRDD:RDD[Emp] = mapRdd.map(line => Emp(line(0).toInt, line(1), line(2), line(3), line(4), line(5).toInt, line(6), line(7).toInt))

    // 3。创建dataframe
    val spark = SparkSession.builder().getOrCreate()
    // 引入spark隐式转换函数
    import spark.implicits._
    // 将RDD转成Dataframe
    val dataFrame = rowRDD.toDF

    // 4.2 sql语句操作
    // 1、将dataframe注册成一张临时表
    dataFrame.createOrReplaceTempView("emp")
    // 2. 编写sql语句进行操作
    spark.sql("select deptNo,sum(sal) as total from emp group by deptNo order by total desc").show()

    // 关闭资源
    spark.stop()
    sc.stop()
  }
}

运行结果:

通过自定义创建Dataframe及使用SQL来操作数据_第1张图片

 注意:其中的文件路径需要更改为自己保存的文件路径,文件链接为:

链接:https://pan.baidu.com/s/1EaakmjMqDq5y7wufd9GVkg?pwd=zhjy 
提取码:zhjy

在文件夹里找到emp.csv,复制其路径即可。

通过自定义创建Dataframe及使用SQL来操作数据_第2张图片

 (其中遇到一些问题,代码报红,解决方法:将spark文件里的jars包导进去,还有scala版本与之前创建的项目版本保持一致)

通过自定义创建Dataframe及使用SQL来操作数据_第3张图片

 

你可能感兴趣的:(spark,案例操作,sql,大数据,数据库)