Spark Streaming之updateStateByKey以及基于缓存的实时wordcount程序

updateStateByKey

updateStateByKey操作,可以让我们为每个key维护一份state,并持续不断的更新该state。

  1. 首先,要定义一个state,可以是任意的数据类型;
  2. 其次,要定义state更新函数——指定一个函数如何使用之前的state和新值来更新state。
    对于每个batch,Spark都会为每个之前已经存在的key去应用一次state更新函数,无论这个key在batch中是否有新的数据。如果state更新函数返回none,那么key对应的state就会被删除。
    当然,对于每个新出现的key,也会执行state更新函数。
    注意,updateStateByKey操作,要求必须开启Checkpoint机制。

案例:基于缓存的实时wordcount程序(在实际业务场景中,这个是非常有用的)
Java版本

public class UpdateStateByKeyWordCount {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("UpdateStateByKeyWordCountJava").setMaster("local[2]");
        JavaStreamingContext streamingContext = new JavaStreamingContext(conf, Durations.seconds(10));

        // 第一点,如果要使用updateStateByKey算子,就必须设置一个checkpoint目录,开启checkpoint机制
        // 这样的话才能把每个key对应的state除了在内存中有,那么是不是也要checkpoint一份
        // 因为你要长期保存一份key的state的话,那么spark streaming是要求必须用checkpoint的,以便于在
        // 内存数据丢失的时候,可以从checkpoint中恢复数据

        // 开启checkpoint机制,很简单,只要调用jssc的checkpoint()方法,设置一个hdfs目录即可
        streamingContext.checkpoint("hdfs://hadoop-100:9000/streamingCheckpoint");

        // 然后先实现基础的wordcount逻辑
        JavaReceiverInputDStream lines = streamingContext.socketTextStream("hadoop-100", 9999);

        JavaDStream words = lines.flatMap(new FlatMapFunction() {
            @Override
            public Iterable call(String s) throws Exception {
                return Arrays.asList(s.split(" "));
            }
        });

        JavaPairDStream wordNumber = words.mapToPair(new PairFunction() {
            @Override
            public Tuple2 call(String s) throws Exception {
                return new Tuple2<>(s, 1);
            }
        });

        // 到了这里,就不一样了,之前的话,是不是直接就是pairs.reduceByKey
        // 然后,就可以得到每个时间段的batch对应的RDD,计算出来的单词计数
        // 然后,可以打印出那个时间段的单词计数
        // 但是,有个问题,你如果要统计每个单词的全局的计数呢?
        // 就是说,统计出来,从程序启动开始,到现在为止,一个单词出现的次数,那么就之前的方式就不好实现
        // 就必须基于redis这种缓存,或者是mysql这种db,来实现累加

        // 但是,我们的updateStateByKey,就可以实现直接通过Spark维护一份每个单词的全局的统计次数
        JavaPairDStream result = wordNumber.updateStateByKey(
                // 这里的Optional,相当于Scala中的样例类,就是Option,可以这么理解
                // 它代表了一个值的存在状态,可能存在,也可能不存在
                new Function2, Optional, Optional>() {

            // 这里两个参数
            // 实际上,对于每个单词,每次batch计算的时候,都会调用这个函数
            // 第一个参数,values,相当于是这个batch中,这个key的新的值,可能有多个吧
            // 比如说一个hello,可能有2个1,(hello, 1) (hello, 1),那么传入的是(1,1)
            // 第二个参数,就是指的是这个key之前的状态,state,其中泛型的类型是你自己指定的
            @Override
            public Optional call(List v1, Optional v2) throws Exception {
                // 首先定义一个全局的单词计数
                Integer nowValue = 0;

                // 其次,判断,state是否存在,如果不存在,说明是一个key第一次出现
                // 如果存在,说明这个key之前已经统计过全局的次数了
                if(v2.isPresent()) {
                    nowValue = v2.get();
                }

                // 接着,将本次新出现的值,都累加到newValue上去,就是一个key目前的全局的统计次数
                for(Integer v : v1) {
                    nowValue += v;
                }
                return Optional.of(nowValue);
            }
        });

        // 到这里为止,相当于是,每个batch过来是,计算到pairs DStream,就会执行全局的updateStateByKey
        // 算子,updateStateByKey返回的JavaPairDStream,其实就代表了每个key的全局的计数,打印出来
        result.print();
        streamingContext.start();
        streamingContext.awaitTermination();
        streamingContext.close();
    }
}

Scala版本

object UpdateStateByKeyWordCount {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("UpdateStateByKeyWordCountScala").setMaster("local[2]")
    val streamingContext = new StreamingContext(conf, Seconds(10))

    streamingContext.checkpoint("hdfs://hadoop-100:9000/streamingCheckpoint")

    val lines = streamingContext.socketTextStream("hadoop-100", 9999)

    val words = lines.flatMap(line => line.split(" "))

    val wordNumber = words.map(word => (word, 1))

    val result = wordNumber.updateStateByKey((values:Seq[Int], state:Option[Int]) => {
      var newValue = state.getOrElse(0)
      for(v <- values) newValue += v
      Option(newValue)
    })

    result.print()

    streamingContext.start()
    streamingContext.awaitTermination()
  }
}


 

你可能感兴趣的:(Spark Streaming之updateStateByKey以及基于缓存的实时wordcount程序)