Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜

该文章主要为完成实训任务,详细实现过程及结果见【http://t.csdn.cn/Twpwe】

文章目录

  • 一、任务目标
  • 二、准备工作
    • 2.1 在本地创建成绩文件
    • 2.2 将成绩文件上传到HDFS上指定目录
  • 三、完成任务
    • 3.1 在Spark Shell里完成任务
      • 3.1.1 读取成绩文件得到RDD
      • 3.1.2 利用映射算子生成二元组构成的RDD
      • 3.1.3 按键分组得到新的二元组构成的RDD
      • 3.1.4 按值排序,取前三
      • 3.1.5 按指定格式输出结果
    • 3.2 在IntelliJ IDEA里完成任务
      • 3.2.1 打开RDD项目
      • 3.2.2 创建分组排行榜单例对象


一、任务目标

  • 分组求TopN是大数据领域常见的需求,主要是根据数据的某一列进行分组,然后将分组后的每一组数据按照指定的列进行排序,最后取每一组的前N行数据。
  • 有一组学生成绩数据
张三丰 90
李孟达 85
张三丰 87
王晓云 93
李孟达 65
张三丰 76
王晓云 78
李孟达 60
张三丰 94
王晓云 97
李孟达 88
张三丰 80
王晓云 88
李孟达 82
王晓云 98

  • 同一个学生有多门成绩,现需要计算每个学生分数最高的前3个成绩,期望输出结果如下所示
张三丰:94 90 87
李孟达:88 85 82
王晓云:98 97 93

二、准备工作

2.1 在本地创建成绩文件

  • /home目录里创建grades.txt文件
    Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第1张图片

2.2 将成绩文件上传到HDFS上指定目录

  • grades.txt上传到HDFS的/topn/input目录
    Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第2张图片

三、完成任务

3.1 在Spark Shell里完成任务

3.1.1 读取成绩文件得到RDD

  • 执行命令:val lines = sc.textFile("hdfs://master:9000/topn/input/grades.txt")
    Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第3张图片

3.1.2 利用映射算子生成二元组构成的RDD

val grades = lines.map(line => {
       val fields = line.split(" ")
       (fields(0), fields(1))
   }
)
grades.collect.foreach(println)


3.1.3 按键分组得到新的二元组构成的RDD

  • 执行命令:val groupGrades = grades.groupByKey()
    Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第4张图片

3.1.4 按值排序,取前三

val top3 = groupGrades.map(item => {
       val name = item._1
       val top3 = item._2.toList.sortWith(_ > _).take(3)
       (name, top3)
    }
)
top3.collect.foreach(println)


Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第5张图片

3.1.5 按指定格式输出结果

top3.collect.foreach(item => {
       val name = item._1
       var scores = ""
       item._2.foreach(score => scores = scores + " " + score)
       println(name + ":" + scores)
   }
)

Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第6张图片

  • 简化版
top3.collect.foreach(item => {
       val name = item._1
       val scores = item._2.mkString(" ")
       println(name + ": " + scores)
   }
)

3.2 在IntelliJ IDEA里完成任务

3.2.1 打开RDD项目

Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第7张图片

3.2.2 创建分组排行榜单例对象

  • 在cn.kox.rdd.day07包里创建GradeTopN单例对象
package cn.kox.rdd.day07

import org.apache.spark.{SparkConf, SparkContext}
/**
 * @ClassName: GradeTopN
 * @Author: Kox
 * @Data: 2023/6/15
 * @Sketch:
 */
object GradeTopN {
  def main(args: Array[String]): Unit = {
    // 创建Spark配置对象
    val conf = new SparkConf()
      .setAppName("GradeTopN") // 设置应用名称
      .setMaster("local[*]") // 设置主节点位置(本地调试)
    // 基于Spark配置对象创建Spark容器
    val sc = new SparkContext(conf)
    // 实现分组排行榜
    val top3 = sc.textFile("hdfs://master:9000/topn/input/grades.txt")
      .map(line => {
        val fields = line.split(" ")
        (fields(0), fields(1))
      }) // 将每行成绩映射成二元组(name, grade)
      .groupByKey() // 按键分组
      .map(item => {
        val name = item._1
        val top3 = item._2.toList.sortWith(_ > _).take(3)
        (name, top3)
      }) // 值排序,取前三
    // 输出分组排行榜结果
    top3.collect.foreach(item => {
      val name = item._1
      val scores = item._2.mkString(" ")
      println(name + ": " + scores)
    })
    // 停止Spark容器,结束任务
    sc.stop()
  }
}
  • 运行程序,查看结果
    Spark大数据处理学习笔记(3.8.3) Spark RDD典型案例-利用RDD实现分组排行榜_第8张图片

你可能感兴趣的:(#,Spark大数据处理学习笔记,spark,学习,笔记)