【PySpark】<Big Data>Spark概述

 目录

一、Spark概述:

二、​​​​Spark发展历史:

三、Spark VS Hadoop(MapReduce):

四、Spark特点:

运行高速:

易于使用:

通用性强:

运行方式:

五、Spark框架模块:

六、Spark运行模式:

七、Spark架构角色:

Yarn角色:

Spark运行角色:


一、Spark概述:

【PySpark】<Big Data>Spark概述_第1张图片

Apache Spark™ - Unified Engine for large-scale data analyticshttps://spark.apache.org/

        Apache Spark是用于大规模数据large-scala data)处理的统一(unified)分析引擎

【PySpark】<Big Data>Spark概述_第2张图片

【PySpark】<Big Data>Spark概述_第3张图片

        简而言之,Spark 借鉴了 MapReduce 思想发展而来,保留了其分布式并行计算的优点并改进了其明显的缺陷。让中间数据存储在内存中提高了运行速度、并提供丰富的操作数据的API提高了开发速度。

  • Spark是一款分布式内存计算的统一分析引擎
  • Spark特点就是对任意类型的数据进行自定义计算
  • Spark可以计算:结构化、半结构化、非结构化等各种类型的数据结构,同时也支持使用Python、Java、Scala、R以及SQL语言去开发应用程序计算数据。
  • Spark的适用面非常广泛,所以,被称之为 统一的(适用面广)的分析引擎(数据处理)

二、​​​​Spark发展历史:

        Spark 是加州大学伯克利分校AMP实验室(Algorithms Machines and People Lab)开发的通用大数据处理框架。Spark的发展历史,经历过几大重要阶段,如下图所示:

【PySpark】<Big Data>Spark概述_第4张图片


三、Spark VS Hadoop(MapReduce):

【PySpark】<Big Data>Spark概述_第5张图片

尽管Spark相对于Hadoop而言具有较大优势,但Spark并不能完全替代Hadoop

  • 在计算层面,Spark相比较MR(MapReduce)有巨大的性能优势,但至今仍有许多计算工具基于MR构架,比如非常成熟的Hive
  • Spark仅做计算,而Hadoop生态圈不仅有计算(MR)也有存储(HDFS)和资源管理调度(YARN),HDFS和YARN仍是许多大数据体系的核心架构。

面试题:Hadoop的基于进程的计算和Spark基于线程方式优缺点?

答案:

        Hadoop中的MR中每个map/reduce task都是一个java进程方式运行,好处在于进程之间是互相独立的,每个task独享进程资源,没有互相干扰,监控方便,但是问题在于task之间不方便共享数据,执行效率比较低。比如多个map task读取不同数据源文件需要将数据源加载到每个map task中,造成重复加载和浪费内存。而基于线程的方式计算是为了数据共享和提高执行效率,Spark采用了线程的最小的执行单位,但缺点是线程之间会有资源竞争。

  • 线程是CPU的基本调度单位
  • 一个进程一般包含多个线程, 一个进程下的多个线程共享进程的资源
  • 不同进程之间的线程相互不可见
  • 线程不能独立执行
  • 一个线程可以创建和撤销另外一个线程

四、Spark特点:

【PySpark】<Big Data>Spark概述_第6张图片

运行高速:

        由于Apache Spark支持内存计算,并且通过DAG(有向无环图)执行引擎支持无环数据流,所以官方宣称其在内存中的运算速度要比Hadoop的MapReduce快100倍,在硬盘中要快10倍。

【PySpark】<Big Data>Spark概述_第7张图片

Spark处理数据与MapReduce处理数据相比,有如下两个不同点:

  • Spark处理数据时,可以将中间处理结果数据存储到内存中;
  • Spark 提供了非常丰富的算子(API), 可以做到复杂任务在一个Spark 程序中完成.

易于使用:

        Spark 的版本已经更新到 Spark 3.2.0(截止日期2021.10.13),支持了包括 Java、Scala、Python 、R和SQL语言在内的多种语言。为了兼容Spark2.x企业级应用场景,Spark仍然持续更新Spark2版本。

【PySpark】<Big Data>Spark概述_第8张图片

通用性强:

        在 Spark 的基础上,Spark 还提供了包括Spark SQL、Spark Streaming、MLib 及GraphX在内的多个工具库,我们可以在一个应用中无缝地使用这些工具库。

【PySpark】<Big Data>Spark概述_第9张图片

运行方式:

        Spark 支持多种运行方式,包括在 Hadoop 和 Mesos 上,也支持 Standalone的独立运行模式,同时也可以运行在云Kubernetes(Spark2.3开始支持)上。

【PySpark】<Big Data>Spark概述_第10张图片

对于数据源而言,Spark 支持从HDFS、HBase、Cassandra 及 Kafka 等多种途径获取数据。


五、Spark框架模块:

        整个Spark 框架模块包含:Spark CoreSpark SQLSpark StreamingSpark GraphXSpark MLlib,而后四项的能力都是建立在核心引擎之上

【PySpark】<Big Data>Spark概述_第11张图片

        Spark Core:Spark的核心,Spark核心功能均由Spark Core模块提供,是Spark运行的基础。Spark CoreRDD为数据抽象,提供PythonJava、Scala、R语言的API,可以编程进行海量离线数据批处理计算。

        SparkSQL:基于SparkCore之上,提供结构化数据的处理模块。SparkSQL支持以SQL语言对数据进行处理,SparkSQL本身针对离线计算场景。同时基于SparkSQLSpark提供了StructuredStreaming模块,可以以SparkSQL为基础,进行数据的流式计算。

        SparkStreaming:以SparkCore为基础,提供数据的流式计算功能。

        MLlib:以SparkCore为基础,进行机器学习计算,内置了大量的机器学习库和API算法等。方便用户以分布式计算的模式进行机器学习计算。

        GraphX:以SparkCore为基础,进行图计算,提供了大量的图计算API,方便用于以分布式计算模式进行图计算。


六、Spark运行模式:

【PySpark】<Big Data>Spark概述_第12张图片


七、Spark架构角色:

Yarn角色:

【PySpark】<Big Data>Spark概述_第13张图片

Spark运行角色:

【PySpark】<Big Data>Spark概述_第14张图片

【PySpark】<Big Data>Spark概述_第15张图片


你可能感兴趣的:(#,PySpark,spark,big,data,大数据)