流式计算助力实时数据处理spark-streaming入门实战

导读:本次分享主题是《流式计算助力实时数据处理  spark-streaming入门实战》,主要内容分为3部分:

  • 1.Spark基础

  • 2.Spark-streaming技术要点

  • 3.任务演示

 

一.Spark基础

Spark技术框架

 

流式计算助力实时数据处理spark-streaming入门实战_第1张图片

 

RDD和transform&action

     RDD 是 Spark 中最重要的数据形式。RDD可以具有不同的分区,分布在集群中的不同节点上。Spark提供了基于RDD函数化的操作(分为转换操作和行动操作)。

流式计算助力实时数据处理spark-streaming入门实战_第2张图片

02

Spark-streaming技术要点

Spark-streaming原理

     离散流(DiscretizedStream或DStream)是Spark Streaming对流式数据的基本抽象方式,将流式数据通过一个微小的时间间隔分解为一串连续的RDD,Spark的流式计算通过对一系列连续的小规模RDD进行批处理来完成。

  1. Spark-Streaming从生产环境的输入源中读取流式数据,并按照设定的时间间隔把数据分组为Dstream。

  2. 随着时间进行,新的数据不断产生,不同批次的Dstream源源不断地被创造出来。

  3. 每个时间区间里,新增的数据被添加到当前的Dstream中;当时间结束,当前Dstream的数据停止增长。 

  4. 对Dstream的处理,Spark-Streaming提供了类似RDD的操作。

流式计算助力实时数据处理spark-streaming入门实战_第3张图片

Spark运行模式

  流式计算助力实时数据处理spark-streaming入门实战_第4张图片

 

Dstream创建

流式计算助力实时数据处理spark-streaming入门实战_第5张图片

 

03

任务演示

  1. batch场景下解析数据

  2. 实时数据解析(无状态操作)

  3. 实时计算流所有用户数(有状态操作)

  4. hdfs+spark-streaming+sparksql(+yarn)的实时数据处理和分析框架

欢迎大家关注公众号:通信大数据分析及应用

你可能感兴趣的:(spark)