DStream操作实战(三)

SparkStreaming开窗函数reduceByKeyAndWindow 实现单词计数

1、代码实现

package cn.cheng.spark

import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.{SparkConf, SparkContext}

/**
  * sparkStreming开窗函数---统计一定时间内单词出现的次数
  */
object SparkStreamingTCPWindow {

  def main(args: Array[String]): Unit = {
    //配置sparkConf参数
    val sparkConf: SparkConf = new SparkConf().setAppName("SparkStreamingTCPWindow").setMaster("local[2]")
    //构建sparkContext对象
    val sc: SparkContext = new SparkContext(sparkConf)
    sc.setLogLevel("WARN")
    //构建StreamingContext对象,每个批处理的时间间隔
    val scc: StreamingContext = new StreamingContext(sc,Seconds(5))
    //注册一个监听的IP地址和端口  用来收集数据
    val lines: ReceiverInputDStream[String] = scc.socketTextStream("192.168.200.160",9999)
    //切分每一行记录
    val words: DStream[String] = lines.flatMap(_.split(" "))
    //每个单词记为1
    val wordAndOne: DStream[(String, Int)] = words.map((_,1))
    //reduceByKeyAndWindow函数参数意义:
    // windowDuration:表示window框住的时间长度,如本例5秒切分一次RDD,框10秒,就会保留最近2次切分的RDD
    //slideDuration:  表示window滑动的时间长度,即每隔多久执行本计算
    val result: DStream[(String, Int)] = wordAndOne.reduceByKeyAndWindow((a:Int,b:Int)=>a+b,Seconds(10),Seconds(5))
    result.print()
    scc.start()
    scc.awaitTermination()
  }
}

2、执行查看效果

2.1、先执行nc -lk 9999

这里写图片描述

2.2、再执行IDEA代码

DStream操作实战(三)_第1张图片

2.3、不断的在linux中输入不同的单词,观察IDEA控制台输出

DStream操作实战(三)_第2张图片

DStream操作实战(三)_第3张图片

DStream操作实战(三)_第4张图片

现象:sparkStreaming每隔5s计算一次当前在窗口大小为10s内的数据,然后将结果数据输出。

喜欢就点赞评论+关注吧

这里写图片描述

感谢阅读,希望能帮助到大家,谢谢大家的支持!

你可能感兴趣的:(Spark,Streaming)