基于Spark2.X系列的累加器和Streaming基础

一、累加器API

  关于累加器,前面我也写了一篇博客,顺便粘贴这儿,对比学习,Spark学习之编程进阶总结(一)。Spark 2.0系列引入了一个更加简单和更高性能的累加器API,如在1.X版本中可以这样使用累加器:

    val sparkSession = SparkSession.builder().master("local").appName("wordcount").getOrCreate()
    val sc = sparkSession.sparkContext
    sc.setLogLevel("WARN")
    
    // Spark1.x版本 定义累加器,这里直接使用SparkContext内置的累加器
    val accum = sc.accumulator(0, "My Accumulator")
    sc.parallelize(Array(1,2,3,4)).foreach(x=>accum+=x)
    // 获取累加器的值,Executor上面只能对累加器进行累加操作,只要Driver才能读取累加器的值
    // Driver读取值的时候会把各个Executor上存储的本地累加器的值加起来,这里的结果是10
    println(accum) // 输出10

  在Spark 2.X版本里使用SparkContext里内置的累加器:

    // 与Spark1.x不同的是,需要指定累加器的类型,目前SparkContext有Long类型和Double类型
    // 可以直接使用,不需要指定初始值
    val accum1 = sc.longAccumulator("My Accumulator")
    sc.parallelize(Array(1,2,3,4)).foreach(x=>accum1.add(x))
    println(accum1.value) // 输出10

  只使用SparkContext里内置的累加器功能肯定不能满足略微复杂的业务类型,此时我们就可以自定义累加器。这里给出Spark2.X自定义累加器的参考代码

  在Scala中有一种方式来自定义累加器,用户只需要继承Accumulable,就可以把元素和返回值定义为不同的类型,这样我们就可以完成添加操作(如往Int类型的List里添加整数,此时元素为Int类型,而返回类型为List)。

  在Spark 2.X中加入一个新的抽象类—AccumulatorV2,继承这个类要实现以下几种方法:
   add方法:指定元素相加操作。
   copy方法:指定对自定义累加器的复制操作。
   isZero方法:返回该累加器的值是否为“零”。
   merge方法:合并两个相同类型的累加器。
   reset方法:重置累加器。
   value方法:返回累加器当前的值。
  重写这几种方法之后,只需实例化自定义累加器,并连同累加器名字一起传给sparkContext.register方法。
  下面简单实现一个把字符串合并为数组的累加器:

// 首先要继承AccumulatorV2,并指定输入为String类型,输出为ArrayBuffer[String]
class MyAccumulator extends AccumulatorV2[String,ArrayBuffer[String]]{
  // 设置累加器的结果,类型为ArrayBuffer[String]
  private var result = ArrayBuffer[String]()
  
  // 判断累加器当前值是否为零值,这里我们指定如果result的size为0,则累加器当前值是零值
  override def isZero:Boolean = this.result.size == 0
  
  // copy方法设置为新建本累加器,并把result赋给新的累加器
  override def copy():AccumulatorV2[String,ArrayBuffer[String]] = {
    val newAccum = new MyAccumulator
    newAccum.result = this.result
    newAccum
  }
  
  // reset 方法设置为把result设置为新的ArrayBuffer
  override def reset():Unit = this.result = new ArrayBuffer[String]()
  
  // add 方法把传进来的字符串添加到result中
  override def add(v:String):Unit = this.result+=v
  
  // merge 方法把两个累加器的result合并起来
  override def merge(other:AccumulatorV2[String,ArrayBuffer[String]]):Unit={
    result.++=:(other.value)
  }
  
  // value 方法返回result
  override def value:ArrayBuffer[String] = this.result
}
    // 接着在main方法里使用累加器
    val Myaccum = new MyAccumulator()
    // 向SparkContext注册累加器
    sc.register(Myaccum)
    // 把 a b c d添加进累加器的result数组并打印出来
    sc.parallelize(Array("a","b","c","d")).foreach(x=>Myaccum.add(x))
    println(Myaccum.value)  // 输出ArrayBuffer(a, b, c, d)

二、Spark2.X Streaming

  关于Streaming我以前也有一篇博客,这里粘贴出来对比学习。Spark学习之Spark Streaming。这里写一个程序来监听网络端口发来的内容,然后进行WordCount。

   第一步:创建程序入口SparkSession,并引入spark.implicits来允许Scalaobject隐式转换为DataFrame。
   第二步:创建流。配置从socket读取流数据,地址和端口为localhost:9999
   第三步:进行单词统计。这里lines是DataFrame,使用as[String]给它定义类型转换为DataSet。之后在DataSet里进行单词统计。  
   第四步:创建查询句柄,定义打印结果方式并启动程序。这里使用writeStream方法,输出模式为全部输出到控制台。

import org.apache.spark.sql.SparkSession

object StreamingTest {
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().master("local").appName("StructuredNetworkCount").getOrCreate()
    val sc = spark.sparkContext
    sc.setLogLevel("WARN")
    // 上面变量一定也得为spark
    import spark.implicits._
    val lines = spark.readStream.format("socket").option("host", "localhost").option("port", 9999).load()
    val words = lines.as[String].flatMap(_.split(" "))
    val wordcount = words.groupBy("value").count()
    val query = wordcount.writeStream.outputMode("complete").format("console").start()
    // 调用awaitTermination方法来防止程序在处理数据时停止
    query.awaitTermination()
  }
}

  运行上面的程序首先nc软件要先运行起来,连接成功后再输入下面的字符串。

  

  然后控制台打印的结果为:

  基于Spark2.X系列的累加器和Streaming基础_第1张图片

  Streaming的关键思想如图所示:把数据流视作一张数据不断增加的表,这样用户就可以基于这张表进行数据处理,就好像使用批处理来处理静态数据一样,但实际上Spark底层是把新数据不断地增量添加到这张无界的表的下一行中。

  基于Spark2.X系列的累加器和Streaming基础_第2张图片

  Structured Streaming共有3种输出模式,这3种模式都只适用于某些类型的查询:

  (1)CompleteMode:完整模式。整个更新的结果表将被写入外部存储器。由存储连接器决定如何处理整张表的写入。聚合操作以及聚合之后的排序操作支持这种模式。
  (2)AppendMode:附加模式。只有自上次触发执行后在结果表中附加的新行会被写入外部存储器。这仅适用于结果表中的现有行不会更改的查询,如select、where、map、flatMap、filter、join等操作支持这种模式。
  (3)UpdateMode:更新模式(这个模式将在以后的版本中实现)。只有自上次触发执行后在结果表中更新的行将被写入外部存储器(不输出未更改的行)。

   这篇博文主要来自《Spark大数据商业实战三部曲》这本书里面的第二章,内容有删减,还有本书的一些代码的实验结果。

 

你可能感兴趣的:(基于Spark2.X系列的累加器和Streaming基础)