初识sparkCore

一、概念

RDD(Resilient Distributed Dataset),弹性分布式数据集 ,是分布式内存的一个抽象概念。

二、RDD的五大特性

 

    1、RDD是由一系列的partition组成的。

        partition一般有三种方式产生

    (1)从Scala集合中创建,通过调用SparkContext#makeRDD或SparkContext#parallelize
             是可以指定partition 个数的,若指定了具体值,那么partition的个数就等于该值
        对于从 Scala集合中转换而来的RDD:默认的partition数为defaultParallelism,该值在不同的部署模式下不同:
            Local 模式:本机 cpu cores 的数量
            Mesos 模式:8
            Yarn:max(2, 所有 executors 的 cpu cores 个数总和)
        对于从外部数据加载而来的 RDD:默认的 partition 数为 min(defaultParallelism, 2)
        对于执行转换操作而得到的 RDD:视具体操作而定,如 map 得到的 RDD 的 partition 数与 父 RDD 相同;
            union 得到的 RDD的 partition 数为父 RDDs 的 partition 数之和...
   (2) 加载外部数据来创建 RDD,例如从 HDFS 文件、mysql 数据库读取数据等
   (3)由其它 RDD 执行 transform 操作转换而来
2、函数是作用在每一个partition(split)上的。
        partition 是 RDD 的数据单位,代表了一个分区的数据。但这里千万不要搞错了,partition 是逻辑概念,
        是代表了一个分片的数据,而不是包含或持有一个分片的数据。
3、RDD之间有一些列的依赖关系。
        如下图,可以看到RDD1产生RDD2;RDD2产生RDD3,即RDD分裂时返回的仍是RDD集,
        这样就形成了RDD间的层级依赖
4、partitioner是作用在K,V格式的RDD上。
        partitioner即分区器,即决定RDD的每一条消息应该分到哪个分区。
        但只有 k, v 类型的RDD才能有partitioner(当然,非 key,value类型的RDD的partitioner为None)。

5、RDD提供一系列最佳的计算位置
        spark提供了一种机制,在集群中运行任务时,会把task发送到集群中需要读取存储数据的节点来运行,不会将task随意发送到无关节点,这样减少数据节点间网络传输时间,做到计算移动、而数据不移动,实现了最佳计算位置。

RDD特性理解图:

初识sparkCore_第1张图片

 

三、 Spark任务执行流程

1、基于standalone-client模式

初识sparkCore_第2张图片

(1)spark集群启动,Worker节点向Master节点汇报各自资源,master掌握集群资源

(2)在client提交spark应用程序,此时会再client启动一个Driver进程

(3)Driver向Master请求资源,Master收到请求后,在集群中找到符合要求的节点启动Executor

(4)Driver发送task到Worker,Worker上启动的Executor开始执行任务,完成后Driver负责并回收结果

2、基于standalone-cluster模式

初识sparkCore_第3张图片

standalone-cluster和standalone-client不同的是,client提交任务后,不会再启动Driver,而是Master在集群中找一台节点,即Worker上启动Driver,把Driver分散在集群节点中运行,这样避免了client上提交多个任务而引起的网络流量激增问题。client没有Driver 进程,也看不到task执行情况,以及接收不到输出结果。

3、基于yarn-client模式

初识sparkCore_第4张图片

(1)Hadoop集群启动,NodeManager(NM)向ResourceManager(RM)通信,汇报各自资源,RM掌握集群资源

(2)client上提交spark应用,同时启动Driver,client向RM申请资源,启动ApplicationMaster(AM)

(3)RM在随机选择集群中的一个NM,来启动AM,AM向RM申请资源启动Executor,RM分配资源给NM启动Executor

(4)Executor通知Driver,Driver发送task给Executor,Executor执行完成,返回结果给Driver

4、基于yarn-cluster模式

初识sparkCore_第5张图片

yarn-cluste和yarn-client不同的是,client提交任务后,不会再启动Driver,而是RM在集群中找一台节点,即NM上启动Driver,把Driver分散在集群节点中运行,这样避免了client上提交多个任务而引起的网络流量激增问题。client上没有Driver 进程,也看不到task执行情况,以及接收不到输出结果。

四、Spark代码流程

(1)创建SparkConf对象

        可以设置Applicationname、可以设置运行模式及资源需求。

(2)创建SparkContext对象

(3) 基于Spark的上下文创建一个RDD,对RDD进行处理

(4)应用程序中要有Action类算子来触发Transformation类算子执行。

(5)关闭Spark上下文对象SparkContext。

五、算子操作

1、Transformations转换算子

Transformations类算子是一类算子(函数)叫做转换算子,如map,flatMap,reduceByKey等。Transformations算子是延迟执行,也叫懒加载执行。

2、Action行动算子

Action类算子也是一类算子(函数)叫做行动算子,如foreach,collect,count等。Transformations类算子是延迟执行,Action类算子是触发执行。一个application应用程序中有几个Action类算子执行,就有几个job运行。

3、持久化算子

有时候会多次对同一个RDD进行计算,如果每次只是简单地调用行动算子,spark每次都会重新计算RDD及其所有依赖,这在迭代算法中消耗格外大。为了避免多次计算同一个RDD,spark引入了持久化 算子。

(1)cache

默认将RDD的数据持久化到内存中,cache是懒执行。看spark源码可以知道

cache () = persist()=persist(StorageLevel.Memory_Only),相当于persist的StorageLevel.Memory_Only

(2)persist

可以指定持久化的级别,最常用的是MEMORY_ONLY和MEMORY_AND_DISK,persist是懒执行

(3)checkpoint

checkpoint将RDD持久化到磁盘,还可以切断RDD之间的依赖关系

执行流程:当RDD的job执行完毕后,会从finalRDD从后往前回溯。当回溯到某一个RDD调用了checkpoint方法,会对当前的RDD做一个标记。Spark框架会自动启动一个新的job,重新计算这个RDD的数据,将数据持久化到指定的存储位置上

优化:对RDD执行checkpoint之前,最好对这个RDD先执行cache,这样新启动的job只需要将内存中的数据拷贝到HDFS上就可以,省去了重新计算这一步

 

 

 

你可能感兴趣的:(Spark,Bigdata)