Spark基础学习笔记:创建RDD

目录

一、RDD为何物

(一)RDD概念

(二)RDD示例

(三)RDD主要特征

二、做好准备工作

(一)准备文件

1、准备本地系统文件

2、启动HDFS服务

3、上传文件到HDFS

(二)启动Spark Shell

1、启动Spark服务

 2、启动Spark Shell

三、创建RDD

(一)从对象集合创建RDD

1、利用parallelize()方法创建RDD

2、利用makeRDD()方法创建RDD

3、简单说明

(二)从外部存储创建RDD

1、读取本地系统文件

课堂练习:给输出数据添加行号

2、读取HDFS上的文件

四,思维导图


一、RDD为何物

(一)RDD概念


Spark提供了一种对数据的核心抽象,称为弹性分布式数据集(Resilient Distributed Dataset,RDD)。这个数据集的全部或部分可以缓存在内存中,并且可以在多次计算时重用。RDD其实就是一个分布在多个节点上的数据集合。
RDD的弹性主要是指当内存不够时,数据可以持久化到磁盘,并且RDD具有高效的容错能力。
分布式数据集是指一个数据集存储在不同的节点上,每个节点存储数据集的一部分。
 

(二)RDD示例


将数据集(hello,world,scala,spark,love,spark, happy)存储在三个节点上,节点一存储(hello,world),节点二存储(scala,spark,love),节点三存储(spark,happy),这样对三个节点的数据可以并行计算,并且三个节点的数据共同组成了一个RDD。

Spark基础学习笔记:创建RDD_第1张图片

 分布式数据集类似于HDFS中的文件分块,不同的块存储在不同的节点上;而并行计算类似于使用MapReduce读取HDFS中的数据并进行Map和Reduce操作。Spark则包含这两种功能,并且计算更加灵活。
在编程时,可以把RDD看作是一个数据操作的基本单位,而不必关心数据的分布式特性,Spark会自动将RDD的数据分发到集群的各个节点。Spark中对数据的操作主要是对RDD的操作(创建、转化、求值)。
 

(三)RDD主要特征

RDD是不可变的,但可以将RDD转换成新的RDD进行操作。
RDD是可分区的。RDD由很多分区组成,每个分区对应一个Task任务来执行。
对RDD进行操作,相当于对RDD的每个分区进行操作。
RDD拥有一系列对分区进行计算的函数,称为算子。
RDD之间存在依赖关系,可以实现管道化,避免了中间数据的存储。

 

二、做好准备工作

(一)准备文件

1、准备本地系统文件

/home目录里创建test.tx 

单词用空格分隔

Spark基础学习笔记:创建RDD_第2张图片

2、启动HDFS服务

     执行命令:start-dfs.sh

Spark基础学习笔记:创建RDD_第3张图片

3、上传文件到HDFS

test.txt上传到HDFS的/park目录里

​​​​​​​Spark基础学习笔记:创建RDD_第4张图片

 查看文件内容

Spark基础学习笔记:创建RDD_第5张图片

(二)启动Spark Shell

参看《 Spark基础学习笔记05:搭建Spark Standalone模式的集群》

1、启动Spark服务

录执行命令:start-all.sh

​​​​​​​​​​​​​​Spark基础学习笔记:创建RDD_第6张图片

 2、启动Spark Shell


参看《sc.textFile()默认读取本地系统文件还是HDFS系统文件?》
如果以 spark-shell --master spark://master:7077方式启动spark-shell,只能读取HDFS系统上的文件,不能读取本地系统文件,而以spark-shell --master=local[*]方式启动spark-shell,既可以读取本地系统文件,加不加file://都可以,还可以访问HDFS系统上的文件,但是必须加上hdfs://master:9000。
执行命令:spark-shell --master=local[*]
Spark基础学习笔记:创建RDD_第7张图片

     查看Spark Shell的WebUI界面

Spark基础学习笔记:创建RDD_第8张图片

三、创建RDD

(一)从对象集合创建RDD


Spark可以通过parallelize()或makeRDD()方法将一个对象集合转化为RDD。

1、利用parallelize()方法创建RDD

执行命令:val rdd = sc.parallelize(List(1, 2, 3, 4, 5, 6, 7, 8))
Spark基础学习笔记:创建RDD_第9张图片

2、利用makeRDD()方法创建RDD

执行命令:val rdd = sc.makeRDD(List(1, 2, 3, 4, 5, 6, 7, 8))

​​​​​​​​​​​​​​Spark基础学习笔记:创建RDD_第10张图片

 执行命令:rdd.collect(),收集rdd数据进行显示

Spark基础学习笔记:创建RDD_第11张图片

 其实,行动算子[action operator]collect()的括号可以省略的

Spark基础学习笔记:创建RDD_第12张图片

3、简单说明

从上述命令执行的返回信息可以看出,上述创建的RDD中存储的是Int类型的数据。实际上,RDD也是一个集合,与常用的List集合不同的是,RDD集合的数据分布于多台机器上。

(二)从外部存储创建RDD

Spark的textFile()方法可以读取本地文件系统或外部其他系统中的数据,并创建RDD。不同的是,数据的来源路径不同。

1、读取本地系统文件

执行命令:val rdd = sc.textFile("file:///home/test.txt")

​​​​​​​​​​​​​​Spark基础学习笔记:创建RDD_第13张图片

 执行命令:val lines = rdd.collect(),查看RDD中的内容,保存到常量lines

 执行命令:lines.foreach(println)(利用foreach遍历算子)

Spark基础学习笔记:创建RDD_第14张图片

 执行命令:for (line <- lines) println(line)

Spark基础学习笔记:创建RDD_第15张图片

想法是活的,语法是死的,重要的是得先有想法,然后用语法去实现

课堂练习:给输出数据添加行号

    利用for循环来实现

2、读取HDFS上的文件

    执行命令:val rdd = sc.textFile("hdfs://master:9000/park/test.txt")

Spark基础学习笔记:创建RDD_第16张图片

 执行命令:val lines = rdd.collect查看RDD中的内容

Spark基础学习笔记:创建RDD_第17张图片

获取包含spark的行,执行命令:val sparkLines = rdd.filter((line) =>       line.contains("spark"))(filter是一个转换算子[transformation operator])

 Spark基础学习笔记:创建RDD_第18张图片

 其实,有更简单的写法,执行命令:val sparkLines = rdd.filter(_.contains("spark"))

Spark基础学习笔记:创建RDD_第19张图片

 利用遍历算子显示sparkLines内容

Spark基础学习笔记:创建RDD_第20张图片

四,思维导图

Spark基础学习笔记:创建RDD_第21张图片

你可能感兴趣的:(spark,学习,big,data)