spark中的RDD是一个核心概念,RDD是一种弹性分布式数据集,spark计算操作都是基于RDD进行的,本文介绍RDD的基本操作。
Spark初始化主要是要创建一个SprakContext
实例,该实例表示与spark集群的连接。可以通过多种方式创建。
直接使用SparkContext
类创建一个spark上下文,主要参数是指定master
和appName
。
from pyspark import SparkContext
sc = SprakContext(master = 'local[*]',appName='test')
# spark版本
sc.version
'2.4.5'
# python版本
sc.pythonVer
'3.7'
# master地址
sc.master
'local[*]'
# 应用名字
sc.appName
'test'
# 应用id
sc.applicationId
'local-1596522649115'
还可以通过调用SparkConf
配置类来生成spark上下文。
from pyspark import SparkConf, SprakContext
conf = SparkConf().setMaster('local').setAppName('test')
sc = SparkContext(conf=conf)
RDD是spark中的主要数据格式,名称为弹性分布式数据集,可以序列化python对象来得到RDD,或者读取文件。
# parallelize方法序列化python对象为RDD
rdd = sc.parallelize([('a', 7), ('a', 2), ('b', 2)])
rdd1 = sc.parallelize([2,5,1,8])
rdd2 = sc.parallelize([('a', 2), ('d', 1), ('b', 1)])
rdd3 = sc.parallelize(range(100))
rdd4 = sc.parallelize([('a', ['x', 'y', 'z']), ('b', ['p', 'r'])])
# 读取本地json文件,返回RDD
text_file = sc.textFile("e:/a.json")
# 获取rdd的分区数
rdd.getNumPartitions()
12
# 获取rdd的key
rdd.keys().collect()
['a', 'a', 'b']
# 获取rdd的value
rdd.values().collect()
[7, 2, 2]
# 判断rdd是否为空
rdd.isEmpty()
False
sc.parallelize([]).isEmpty()
True
统计信息包含了基本的统计计算值,如最大值、最小值、平均数、描述统计等。
# 求和
rdd3.sum()
4950
# 最大值
rdd3.max()
99
# 最小值
rdd3.min()
0
# 均值
rdd3.mean()
49.5
# 标准差
rdd3.stdev()
28.86607004772212
# 方差
rdd3.variance()
833.25
# 分区间计数
rdd3.histogram(3)
([0, 33, 66, 99], [33, 33, 34])
# 描述统计
rdd3.stats()
(count: 100, mean: 49.5, stdev: 28.86607004772212, max: 99.0, min: 0.0)
# 获取rdd里的所有元素,返回list
rdd.collect()
[('a', 7), ('a', 2), ('b', 2)]
# 获取rdd里的元素,返回字典
rdd.collectAsMap()
{'a': 2, 'd': 1, 'b': 1}
# 获取开始的2个元素
rdd.take(2)
[('a', 7), ('a', 2)]
# 获取第一个位置的元素
rdd.first()
('a', 7)
# 获取降序排序的前3个元素
rdd3.top(3)
[99, 98, 97]
# 统计rdd里的元素个数
rdd.count()
3
# 按key统计rdd里的元素个数
rdd.countByKey()
defaultdict(<class 'int'>, {'a': 2, 'b': 1})
# 按value统计rdd里的元素个数
rdd.countByValue()
defaultdict(<class 'int'>, {('a', 7): 1, ('a', 2): 1, ('b', 2): 1})
# 对rdd进行重采样
rdd3.sample(False,0.1,81).collect()
[4, 27, 28, 41, 49, 53, 58, 85, 93]
# 根据key过滤
rdd.filter(lambda x:'a' in x).collect()
[('a', 7), ('a', 2)]
# 对rdd元素去重
rdd5.distinct().collect()
['a', 7, 2, 'b']
# 升序排序(默认)
rdd1.sortBy(lambda x:x).collect()
[1, 2, 5, 8]
# 降序排序
rdd1.sortBy(lambda x:x,ascending=False).collect()
[8, 5, 2, 1]
# 对键值对rdd按照key排序
rdd2.sortByKey().collect()
[('a', 2), ('b', 1), ('d', 1)]
# map方法对每个元素应用函数
rdd.map(lambda x: x+(x[0],x[1])).collect()
[('a', 7, 'a', 7), ('a', 2, 'a', 2), ('b', 2, 'b', 2)]
# flatMap方法,返回的结果会扁平化
rdd5 = rdd.flatMap(lambda x: x+(x[0],x[1]))
rdd5.collect()
['a', 7, 'a', 7, 'a', 2, 'a', 2, 'b', 2, 'b', 2]
# flatMapValues方法
rdd4.flatMapValues(lambda x:x).collect()
[('a', 'x'), ('a', 'y'), ('a', 'z'), ('b', 'p'), ('b', 'r')]
def g(x):print(x)
# foreach方法对所有元素应用函数
rdd.foreach(x)
('a', 7)
('a', 2)
('b', 2)
# reduce方法对rdd进行合并
rdd.reduce(lambda x,y:x+y)
('a', 7, 'a', 2, 'b', 2)
# reduceByKey方法根据key对value进行合并
rdd.reduceByKey(lambda v1,v2:v1+v2).collect()
[('a', 9), ('b', 2)]
# groupBy方法对rdd的元素分组
rdd1.groupBy(lambda x:x%2).mapValues(list).collect()
[(0, [2, 8]), (1, [5, 1])]
# groupByKey方法对rdd的元素根据key分组
rdd.groupByKey().mapValues(list).collect()
[('a', [7, 2]), ('b', [2])]
# 定义两个聚合函数
seq_op=lambda x,y:(x[0]+y,x[1]+1)
comb_op=lambda x,y:(x[0]+y[0],x[1]+y[1])
# aggregate方法聚合rdd
rdd1.aggregate((0,0),seq_op,comb_op)
(16, 4)
# aggregateByKey方法根据key聚合rdd
rdd.aggregateByKey((0,0),seq_op,comb_op).collect()
[('a', (9, 2)), ('b', (2, 1))]
# fold方法聚合rdd
rdd1.fold(0,lambda x,y:x+y)
16
# foldByKey方法根据key聚合rdd
rdd.foldByKey(0,lambda x,y:x+y).collect()
[('a', 9), ('b', 2)]
# 调用sc的union方法按顺序合并多个rdd
sc.union([rdd,rdd2]).collect()
[('a', 7), ('a', 2), ('b', 2), ('a', 2), ('d', 1), ('b', 1)]
# 两个rdd的交集
rdd.intersection(rdd2).collect()
[('a', 2)]
# 两个rdd的并集(包含重复元素)
rdd.union(rdd2).collect()
[('a', 7), ('a', 2), ('b', 2), ('a', 2), ('d', 1), ('b', 1)]
# rdd对rdd2的补集
rdd.subtract(rdd2).collect()
[('a', 7), ('b', 2)]
# 根据key求rdd2对rdd的补集)
rdd2.subtractByKey(rdd).collect()
[('d', 1)]
# 两个rdd计算笛卡尔积
rdd1.cartesian(rdd1).collect()
[(2, 2), (2, 5), (2, 1), (2, 8), (5, 2), (5, 5), (5, 1), (5, 8), (1, 2), (1, 5), (1, 1), (1, 8), (8, 2), (8, 5), (8, 1), (8, 8)]
# 保存rdd到本地
rdd.saveAsTextFile('rdd.txt')
# 使用stop方法关闭spark context实例
sc.stop()
进入spark安装目录下,通过sprak-submit
命令运行py文件。
./bin/spark-submit example/src/main/python/pi.py
另外,本地开发,可直接通过pyCharm运行。