Spark起源:
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley 加州大学伯克利AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
Spark特点:
大数据分布式计算框架,内存计算
分布式计算
内存计算 中间结果在内存 迭代
容错性
多计算范式
Spark生态系统
Mesos:资源管理框架,相当于hadoop 中的yarn。进行资源管理和任务调度
HDFS:spark生态系统不提供存储层,调用外部存储系统例如HDFS
Tachyon:生态系统中的分布式内存文件系统,快速的文件读写
将工作集文件缓存在内存中,从而避免到磁盘中加载需要经常读取的数据集。通过这一机制,不同的作业/查询和框架可以以内存级的速度访问缓存的文件。
(资源管理和文件管理属于不同的 模块)
Spark:生态系统中的核心计算引擎
Spark Streaming:流式计算引擎,将输入数据分成小的批次,对每个批次采用spark的计算范式进行计算
四大核心扩展功能:
Spark SQL:Sql on hadoop系统,提供交互式查询、能够利用传统的可视化工具
在Spark上进行类似SQL的查询操作,报表查询等功能
GraphX:图计算引擎,大规模图运算,pagerank
MLlib:聚类分类 分类 推荐 等机器学习算法
Spark相关概念
学习Spark,有几个重要的术语需要弄清楚。
1. Application
用户在spark上构建的程序,包含了driver程序以及集群上的executors(driver以及不同的executors可能在不同的物理机上).
2. Driver Program
运行main函数并且创建SparkContext的程序(关于dirver到底是什么在后面的博客有介绍)。客户端的应用程序,Driver Program类似于hadoop的wordcount程序的main函数。
3. Cluster Manager
集群的资源管理器,在集群上获取资源的外部服务。spark自带的有资源管理器,在standalone模式下使用,也可以依赖于外部的资源管理器,比如Mesos,yarn
拿Yarn举例,客户端程序会向资源管理器比如Yarn申请计算我这个任务需要多少的内存,多少CPU,然后Cluster Manager告诉driver可哪些资源以使用,然后driver就可以把程序送到每个Worker Node上面去执行了。
4. Worker Node
集群中任何一个可以运行spark应用代码的节点(既物理节点,比如集群中的一台电脑),可以在上面启动Executor进程。
5. Executor
在每个WorkerNode上为某应用启动的一个进程,该进程负责运行任务,并且负责将数据存在内存或者磁盘上,每个任务都有各自独立的Executor。
Executor是一个执行Task的容器。它的主要职责是:
初始化程序要执行的上下文SparkEnv,解决应用程序需要运行时的jar包的依赖,加载类。
同时还有一个ExecutorBackend向cluster manager汇报当前的任务状态,这一方面有点类似hadoop的tasktracker和task。
总结:Executor是一个应用程序运行的监控和执行容器。
6.Job
包含很多task的并行计算,可以认为是Spark RDD 里面的action,每个action的计算会生成一个job。用户提交的Job会提交给DAGScheduler,Job会被分解成Stage和Task。
7. Stage
一个Job会被拆分为多组Task,每组任务被称为一个Stage就像Map Stage, Reduce Stage。
Stage的划分在RDD的文章中有详细的介绍,简单的说是以shuffle和result这两种类型来划分。在Spark中有两类task,一类是shuffleMapTask,一类是resultTask,第一类task的输出是shuffle所需数据,第二类task的输出是result,stage的划分也以此为依据,shuffle之前的所有变换是一个stage,shuffle之后的操作是另一个stage。stage的边界就是产生shuffle的地方
8.Task
被送到executor上的工作单元。
Spark上分为2类task。
1.shuffleMapTask:对不同的partition进行重组,形成款依赖关系,shuffleMapTask是不同stage的中间过渡
2.resultTask:一个job中最后一个task,这个task的结果提交到下一个job中
9.Partition
Partition类似hadoop的Split,计算是以partition为单位进行的,当然partition的划分依据有很多,这是可以自己定义的,像HDFS文件,划分的方式就和MapReduce一样,以文件的block来划分不同的partition。总而言之,Spark的partition在概念上与hadoop中的split是相似的,提供了一种划分数据的方式。
附录:
RDD的一大特点就是有依赖关系存储在每一个RDD里面,当某一个RDD计算的时候发现parent RDD的数据丢失了,那它就会从parent的parent RDD重新计算一遍以恢复出parent数据,如果一直没找到,那么就会找到根RDD,有可能是HadoopRDD,那么就会从HDFS上读出数据一步步恢复出来。当然如果完全找不到数据,那么就恢复不出来了。这称之为RDD的lineage信息。(被称为血统or依赖关系)
数据本地性是指:确定数据在哪个节点上,就到哪个节点上的Executor上去运行。学习的过程中,大家交流一下遇到的问题可以让你事半功倍,这里有个大数据交流学习群:724693112 群主会分享免费学习资料,大家可以一起来交流学习大数据相关技术,分享学习方法学习资源,一起学习大数据!