Spark避坑系列二(Spark Core-RDD编程)

大家想了解更多大数据相关内容请移驾我的课堂:
大数据相关课程

剖析及实践企业级大数据
数据架构规划设计
大厂架构师知识梳理:剖析及实践数据建模


PySpark避坑系列第二篇,该篇章主要介绍spark的编程核心RDD,RDD的概念,基础操作

一、什么是RDD

1.1 概念

RDD(Resilient Distributed Dataset)叫做弹性分布式数据集,是Spark中最基本的数据抽象,代表一个不可变、可分区、里面的元素可并行计算的集合。

所有的运算以及操作都建立在 RDD 数据结构的基础之上。

可以认为RDD是分布式的列表List或数组Array,抽象的数据结构

1.2 为什么需要RDD

分布式计算需要:

• 分区控制
• Shuffle控制
• 数据存储\序列化\发送
• 数据计算API
• 等一系列功能

这些功能, 不能简单的通过Python内置的本地集合对象(如

你可能感兴趣的:(大数据,spark,大数据,分布式)