大数据知识点—spark概念,核心架构,运行流程

概念

Spark 提供了一个全面、统一的框架用于管理各种有着不同性质(文本数据、图表数据等)的数据

集和数据源(批量数据或实时的流数据)的大数据处理的需求。

核心架构

大数据知识点—spark概念,核心架构,运行流程_第1张图片

Spark Core

包含 Spark 的基本功能;尤其是定义 RDD 的 API、操作以及这两者上的动作。其他 Spark 的库都

是构建在 RDD 和 Spark Core 之上的

Spark SQL

提供通过 Apache Hive 的 SQL 变体 Hive 查询语言(HiveQL)与 Spark 进行交互的 API。每个

数据库表被当做一个 RDD,Spark SQL 查询被转换为 Spark 操作。

Spark Streaming

对实时数据流进行处理和控制。Spark Streaming 允许程序能够像普通 RDD 一样处理实时数据

Mllib

一个常用机器学习算法库,算法被实现为对 RDD 的 Spark 操作。这个库包含可扩展的学习算法,

比如分类、回归等需要对大量数据集进行迭代的操作。

GraphX

控制图、并行图操作和计算的一组算法和工具的集合。GraphX 扩展了 RDD API,包含控制图、

创建子图、访问路径上所有顶点的操作

转发关注小编,私信小编“学习”获取完整的java核心知识点的PDF文档

核心组件

大数据知识点—spark概念,核心架构,运行流程_第2张图片

Cluster Manager- 制整个集群,监控 worker

在 standalone 模式中即为 Master 主节点,控制整个集群,监控 worker。在 YARN 模式中为资源管理器

Worker 节点 - 负责控制计算节点

从节点,负责控制计算节点,启动 Executor 或者 Driver。

Driver : 运行 Application 的 main() 函数

Executor :执行器,是为某个 Application 运行在 worker node 上的一个进程

SPARK 编程模型

大数据知识点—spark概念,核心架构,运行流程_第3张图片

Spark 应用程序从编写到提交、执行、输出的整个过程如图所示,图中描述的步骤如下:

  1. 用户使用SparkContext提供的API(常用的有textFile、sequenceFile、runJob、stop等)编写 Driver application 程序。此外 SQLContext、HiveContext 及 StreamingContext 对SparkContext 进行封装,并提供了 SQL、Hive 及流式计算相关的 API。
  2. 使用SparkContext提交的用户应用程序,首先会使用BlockManager和BroadcastManager将任务的 Hadoop 配置进行广播。然后由 DAGScheduler 将任务转换为 RDD 并组织成 DAG,DAG 还将被划分为不同的 Stage。最后由 TaskScheduler 借助 ActorSystem 将任务提交给集群管理器(Cluster Manager)。
  3. 集群管理器(ClusterManager)给任务分配资源,即将具体任务分配到Worker上,Worker创建 Executor 来处理任务的运行。Standalone、YARN、Mesos、EC2 等都可以作为 Spark的集群管理器。

Spark目录:

大数据知识点—spark概念,核心架构,运行流程_第4张图片

SPARK 运行流程

大数据知识点—spark概念,核心架构,运行流程_第5张图片

  1. 构建 Spark Application 的运行环境,启动 SparkContext
  2. SparkContext 向资源管理器(可以是 Standalone , Mesos , Yarn )申请运行 Executor 资源,并启动 StandaloneExecutorbackend ,
  3. Executor 向 SparkContext 申请 Task
  4. SparkContext 将应用程序分发给 Executor
  5. SparkContext 构建成 DAG 图,将 DAG 图分解成 Stage 、将 Taskset 发送给 Task Scheduler ,最后由 Task Scheduler 将 Task 发送给 Executor 运行
  6. Task 在 Executor 上运行,运行完释放所有资源

你可能感兴趣的:(大数据,大数据,spark)