Spark Streaming 的 Transformations

DStream 转换操作包括:无状态转换、有状态转换。
无状态转换:每个批次的处理不依赖于之前批次的数据。
有状态转换:当前批次的处理需要使用 之前批次的数据或者中间结果。有状态转换包括基于 滑动窗口的转换 和 追踪状态变化的转换(updateStateByKey)。

无状态转换操作

下面给出一些无状态转换操作的含义:

  • map(func) :对源DStream的每个元素,采用func函数进行转换,得到一个新的DStream;

  • flatMap(func): 与map相似,但是每个输入项可用被映射为0个或者多个输出项;

  • filter(func): 返回一个新的DStream,仅包含源DStream中满足函数func的项;

  • repartition(numPartitions): 通过创建更多或者更少的分区改变DStream的并行程度;

  • union(otherStream): 返回一个新的DStream,包含源DStream和其他DStream的元素;rdd1.union(rdd2)

  • count():统计源DStream中每个RDD的元素数量;

  • reduce(func):利用函数func聚集源DStream中每个RDD的元素,返回一个包含单元素RDDs的新DStream;

  • countByValue():应用于元素类型为K的DStream上,返回一个(K,V)键值对类型的新DStream,每个键的值是在原DStream的每个RDD中的出现次数;

  • reduceByKey(func, [numTasks]):当在一个由(K,V)键值对组成的DStream上执行该操作时,返回一个新的由(K,V)键值对组成的DStream,每一个key的值均由给定的recuce函数(func)聚集起来;

  • join(otherStream, [numTasks]):当应用于两个DStream(一个包含(K,V)键值对,一个包含(K,W)键值对),返回一个包含(K, (V, W))键值对的新DStream;

  • cogroup(otherStream, [numTasks]):将多个RDD中同一个Key对应的Value组合到一起。看一个例子:

    val data1 = sc.parallelize(List((1, "www"), (2, "bbs")))
    val data2 = sc.parallelize(List((1, "iteblog"), (2, "iteblog"), (3, "very")))
    val data3 = sc.parallelize(List((1, "com"), (2, "com"), (3, "good")))
    val result = data1.cogroup(data2, data3)
    result.collect
    
    //结果为:
    Array[(Int, (Iterable[String], Iterable[String], Iterable[String]))] =
    Array((1, (CompactBuffer(www), CompactBuffer(iteblog), CompactBuffer(com))), 
    (2, (CompactBuffer(bbs), CompactBuffer(iteblog), CompactBuffer(com))), 
    (3, (CompactBuffer(), CompactBuffer(very), CompactBuffer(good))))
    
    从上面的结果可以看到,data1中不存在Key为3的元素(自然就不存在Value了),
    在组合的过程中将data1对应的位置设置为CompactBuffer()了,而不是去掉了。
    
  • transform(func):通过对源DStream的每个RDD应用RDD-to-RDD函数,创建一个新的DStream。支持在新的DStream中做任何RDD操作。todo:transform 的使用例子 网上较少,貌似在 MLlib上用的较多,先留着

上面的无状态转换有一些在这篇文章做了简要介绍并附上了例子:Spark 编程基础

DStream有状态转换操作

对于DStream有状态转换操作而言,当前批次的处理需要使用之前批次的数据或者中间结果。有状态转换包括 基于滑动窗口的转换 和 追踪状态变化(updateStateByKey) 的转换。

滑动窗口转换操作

滑动窗口转换操作的计算过程如下图所示,我们可以事先设定一个滑动窗口的长度:windowLength(也就是窗口的持续时间),并且设定滑动窗口的时间间隔:slideInterval(每隔多长时间执行一次计算),然后,就可以让窗口按照指定时间间隔在源DStream上滑动,每次窗口停放的位置上,都会有一部分DStream被框入窗口内,形成一个小段的DStream,这时,就可以启动对这个小段DStream的计算。

Spark Streaming 的 Transformations_第1张图片

下面给给出一些窗口转换操作的含义:

  • window(windowLength, slideInterval) 基于源DStream产生的窗口化的批数据,计算得到一个新的DStream;

  • countByWindow(windowLength, slideInterval) 返回流中元素的一个滑动窗口数;

  • reduceByWindow(func, windowLength, slideInterval) 返回一个单元素流。利用函数func聚集滑动时间间隔的流的元素创建这个单元素流。函数func必须满足结合律,从而可以支持并行计算;

  • reduceByKeyAndWindow(func, windowLength, slideInterval, [numTasks]) 应用到一个 (K, V) 键值对组成的 DStream 上时,会返回一个由 (K, V) 键值对组成的新的DStream。每一个key的值均由给定的 reduce 函数 (func 函数) 进行聚合计算。注意:在默认情况下,这个算子利用了 Spark 默认的并发任务数去分组。可以通过 numTasks 参数的设置来指定不同的任务数;

  • reduceByKeyAndWindow(func, invFunc, windowLength, slideInterval, [numTasks]) 更加高效的reduceByKeyAndWindow,每个窗口的 reduce 值,是基于先前窗口的 reduce 值进行增量计算得到的;它会对进入滑动窗口的新数据进行 reduce 操作,并对离开窗口的老数据进行“逆向 reduce”操作。但是,只能用于“可逆 reduce 函数”,即那些reduce函数都有一个对应的“逆向 reduce函数”(以InvFunc参数传入);

  • countByValueAndWindow(windowLength, slideInterval, [numTasks]) 当应用到一个(K,V)键值对组成的DStream上,返回一个由(K,V)键值对组成的新的DStream。每个key的值都是它们在滑动窗口中出现的频率。

下面重点介绍下 reduceByKeyAndWindow:

reduceByKeyAndWindow

再看一下这个图:


Spark Streaming 的 Transformations_第2张图片

1、reduceByKeyAndWindow(_ + _, Seconds(3), Seconds(2))
此方法的窗口长度为3,两秒划分一次,并对 key 相同的 value 进行相加,即 WordCount。

2、对于他的重载函数 reduceByKeyAndWindow(_ + _, _ - _, Seconds(3s), seconds(2))
设计理念是,当 滑动窗口的时间Seconds(2) < Seconds(3)(窗口大小)时,两个统计的部分会有重复,那么我们就可以不用重新获取或者计算,而是通过获取旧信息来更新新的信息,这样即节省了空间又节省了内容,并且效率也大幅提升。

如上图所示,2次统计重复的部分为 time3 对用的时间片内的数据,这样对于window1,和window2的计算可以如下所示
win1 = time1 + time2 + time3
win2 = time3 + time4 + time5

更新为
win1 = time1 + time2 + time3
win2 = win1+ time4 + time5 - time1 - time2

这样就理解了吧, _ + _ 是对新产生的时间分片(time4, time5 内 RDD)进行统计,而 _ - _ 是对上一个窗口中,过时的时间分片 (time1, time2) 进行统计

updateStateByKey操作

我们统计单词词频采用的是无状态转换操作,也就是说,只对本批次内的单词进行词频统计,不会考虑之前到达的批次的单词,所以,不同批次的单词词频都是独立统计的。

对于有状态转换操作而言,本批次的词频统计,会在之前批次的词频统计结果的基础上进行不断累加,所以,最终统计得到的词频,是所有批次的单词的总的词频统计结果。

注意 updateStateByKey 操作要求开启 checkPoint。

//设置检查点,检查点具有容错机制
sc.checkpoint("file:///usr/local/spark/mycode/streaming/stateful/")

val words = lines.flatMap(_.split(" "))
val dStream = words.map(x => (x, 1))

val results = dStream.updateStateByKey[Int]((values: Seq[Int], state: Option[Int]) => {
    val currentCount = values.sum
    val previousCount = state.getOrElse(0)
    Some(currentCount + previousCount)
})

results.print()
sc.start()
sc.awaitTermination()
  • 函数中第一个参数 values:
    是当前batch 某个key 即某个单词的列表,譬如:(x, 1) (x, 1) (x, 1) ...
    values.sum 即统计 当前 batch 某个单词 所有值的总和:(x, 3)。

  • 第二个参数 state:
    某个key的历史状态信息,也就是某个单词历史批次的词频汇总结果,因为当前批次(batch )可能是第一个 batch,上一batch可能没有,所以使用 getOrElse(0),没有的话就是0。

  • 上一batch 和 当前batch 累加
    当新的batch到来时,继续进行累加,依次统计当前所有 batch 的值。

你可能感兴趣的:(Spark Streaming 的 Transformations)