定义:Apache Spark是用于大规模数据处理的统一分析引擎。
弹性分布式数据集RDD是一种分布式内存抽象,其使得程序员能够在大规模集群中做内存运算,并且有一定的容错方式。而这也是整个Spark的核心数据结构,Spark整个平台都围绕着RDD进行。
简而言之,Spark借鉴了MapReduce 思想发展而来,保留了其分布式并行计算的优点并改进了其明显的缺陷。让中间数据存储在内存中提高了运行速度、并提供丰富的操作数据的API提高了开发速度。
统一分析引擎?
Spark是一款分布式内存计算的统一分析引擎。
其特点就是对任意类型的数据进行自定义计算。
Spark可以计算:结构化、半结构化等各种类型的数据结构,同时也支持使用Python、Java、Scala、R以及SQL语言区开发应用程序计算数据。
Spark的适用面非常广泛,所以,被称之为统一的(适用面广)的分析引擎(数据处理)
Spark是加州大学伯克利分校AMP实验室开发的通用大数据处理框架。Spark的发展历史,经历过几大重要阶段,如下图所示:
Stack Overflow的数据可以看出,2015年开始Spark每月的问题提交数量也已经超过Hadoop。2019年排名Spark第一,PySpark第二;而十年的累计排名是Spark第一,PySpark第三。按照这个趋势发展下去,Spark和PySpark在未来很长一段时间内应该还会处于垄断地位。
Spark和Hadoop技术栈有何区别呢?
Hadoop | Spark | |
---|---|---|
类型 | 基础平台,包含计算、存储、调度 | 纯计算工具(分布式) |
场景 | 海量数据处理(硬盘迭代计算) | 海量数据的批处理(内存迭代计算、交互式计算)、海量数据流计算 |
价格 | 对机器需求低、便宜 | 对内存有要求,相对较贵 |
编程范式 | Map + Value,API较为底层,算法适应性差 | RDD中间运算结果在内存中,延迟小 |
数据存储结构 | MapReduce中间计算计算结果在HDFS磁盘上,延迟大 | RDD中间运算结果在内存中,延迟小 |
运行方式 | Task以进程方式维护,任务启动慢 | Task以线程方式维护,任务启动快,可批量传教提高并行能力 |
尽管Spark相对于Hadoop而言具有较大优势,但Spark并不能完全替代Hadoop
速度快
由于Apache Spark支持内存计算,并且通过DAG(有向无环图)执行引擎支持无环数据流,所以官方宣称其在内存中的运算速度要比Hadoop的MapReduce快100倍,在硬盘中要快10倍。
Spark处理数据与MapReduce处理的数据相比,有如下两个不同点:
易于使用
Spark的版本已经更新到Spark 3.3.1 (截至日期2022.11.15),支持了包括Java、Scala、Python、R和SQK语言在内的多种语言,为了兼容Spark2.x企业应用场景,Spark仍然持续更新Spark2版本。
df = spark.read.json("logs.json")
df.where("age > 21").select("name.firest").show()
通用性强
在Spark的基础上,Spark还提供了包括Spark SQL、Spark Streaming、MLlib及GraphX在内的多个工具库,我们可以在一个应用中无缝地使用这些工具库。
运行方式
Spark支持多种运行方式,包括在Hadoop和Mesos上,也支持Standalone的独立运行模式,同时也可以运行在云Kuberbetes上。
对于数据源而言,Spark支持从HDFS、HBase、Cassandra及Kafka等多种途径获取数据。
整个Spark框架模块包含:Spark Core、Spark SQL、 Spark Streaming、Spark GraphX、Spark MLlib,而后四项的能力都是建立在核心引擎之上。
Spark Core: Spark的核心,Spark核心功能均由Spark Core模块提供,是Spark运行的基础。SparkCore以RDD为数据抽象,提供Python、Java、Scala、R语言的API,可以编程进行海量离线数据批处理计算。
SparkSQL: 基于SparkCore之上,提供结构化数据的处理模块。可以以SparkSQL为基础,进行数据的流式计算。
SparkStreaming:以SparkCore为基础,提供数据的流式计算功能。
MLlib:以SparkCore为基础,进行机器学习计算,内置了大量的机器学习库和API算法等。方便用户以分布式计算的模式进行机器学习计算。
GraphX: 以SparkCore为基础,进行图计算,提供了大量的图计算API,方便用于以分布式计算模式进行图计算。
Spark提供多种运行模式,包括:
Spark中由4类角色组成整个Spark的运行时环境:
从两个层面划分:
资源管理层面:
从任务执行层面:
注:正常情况下Executor是干活的角色,不过在特殊场景下(Local模式)Driver可以即管理又干活。
海量数据的计算,可以进行离线批处理以及实时流计算
核心SparkCore、SQL计算(SparkSQL)、流计算(SparkStreaming)、图计算(GraphX)、机器学习(MLlib)
速度快、使用简单、通用性强、多种模式运行
Master:集群资源管理 (类同ResourceManager)
Worker: 单机资源管理 (类同NodeManager)
Driver:单任务管理者 (类同ApplicationMaster)
Executor:但认为执行者 (类同YARN容器内的Task)
k的运行角色(对比YARN)?
Master:集群资源管理 (类同ResourceManager)
Worker: 单机资源管理 (类同NodeManager)
Driver:单任务管理者 (类同ApplicationMaster)
Executor:但认为执行者 (类同YARN容器内的Task)