PY => PySpark-Spark Core(RDD)

前言

第一篇传送门:https://segmentfault.com/a/1190000020841646

RDD认知

RDD是什么?

RDD: 弹性分布式数据集(Resiliennt Distributed Datasets)

转为格式RDD的几种方式:

1. parallelize:  
    rdd = sc.parallelize([1,2,3,4,5])   # 里面传的就是普通python类型
    
2. 读文件/读数据库/读ES等各种方式,此处以读文件为例:
    rdd = sc.textFile('file:///home/lin/data/hello.txt')

RDD核心概念

Application:

application: 一个app 就是一个自定义的 py脚本(被 spark-submit提交的)或一个spark-shell
app = 1个 driver + 多个executors(相当于多个进程)

注意:数据在不同的 app之间 不能被共享, 若想要共享(需要考虑外部存储)

Driver:

每一个.py脚本中都有一个 sparkcontext,它就是driver

Worker Node:

相当于standalone 的 slave节点

Executor:

Executor(进程):每个Driver中都有多个 Executors

并且可以运行多个 Tasks

Job:

job:  对应下面即将要说的 action   : collect() 等

一个 task 对应 一个 job  (一个 transformation 对应 一个 action)
一个 job 对应 多个 task  (多个 transformations链式调用之后,再调用一个action)

Task:

task: 对应下面即将要说的 transformation   :map() 等
每个task可用一个线程执行。多个task可并行

Stage:

一个job被切分为多份

Cluster Manager:

管理 从 Standalone, YARN, Mesos 中获取的资源
就是 --master 指定的参数
其中 还包括 空间 内存等参数配置

Cache:

缓存: ### persist & cache & unpersist 三种API可供选择

Lineage(依赖,血缘关系):

依赖:
                    父              子               孙
                    RDD1  -> map->  RDD2 -> filter-> RDD3
    服务器1:        part1 ->        part1->          part1
    服务器2:        part2 ->        part2->          part2
    服务器3:        part3 ->        part3->          part3

    如上图: 假如 RDD3 的 part2 挂了, 那么就会退回到 RDD2的part2再计算一遍。
           而不是回到"最初"的起点。
           
窄依赖(Narrow, 依赖的很少,很窄):
    重点:  '子part' 只依赖一个 '父part'。
    map, filter 等:  元素被摊分在每一个part中, 子part出错就找"对应"(一个) 父part即可。

宽依赖(Wide, 依赖的很多,很宽):
    重点:  '子part' 依赖多个 '父part' 同时计算得到。
    shuffle操作: xxBy, join等: 子part出错 找"对应"(多个) 父part 重新共同计算。

stage:

遇到 1个宽依赖, 就会做 shuffle操作。
然后就会把"之前"的 “所有窄依赖”划分为 "1个stage"。
最后,整体全部,也当作 "1个stage"。

官档图

传送门:http://spark.apache.org/docs/latest/cluster-overview.html

RDD两大算子

Transformation (Lazy)

主要机制:各种操作不会被立刻执行,但这些操作之间的关系会被记录下来,等待下面action调用。
直观理解举例:

1. 像 sqlalchemy 中的 filter(), groupby(), page()等操作
2. 像 tensorflow1.x 中的 sess.run() 之前的各种操作
3. 像 数据库的事务,在提交之前的各种操作

接下来介绍,Transformation 的各种操作。

map

同 python 的 map。
你只需记住RDD类型里面包裹的就是我们熟悉的python类型
所以: 
    python 的 map 怎么用, RDD对象的 map 就怎么用, 下面filter同理

只举一个语法格式例子:(下面同理)
    rdd.map(lambda x:x+1)

filter

同上,同python

flatMap

和 map 几乎差不多。
唯一有一点区别:
    map 每次基于单个元素,返回什么,那最终结果就是什么(最后拼成序列)。
    flatMap 每次基于单个元素,若返回的是序列(列表等),那么会自动被解包,并一字排开返回。

groupBy 和 groupByKey

说一下 没有key, 和 带有key的区别(后面同理,就不啰嗦了):

没有key:
    1. 一般必须需要一个 函数句柄 (lambda), 而这个句柄是针对(操作后新形成的key)使用的
    2. 针对一层序列   [, , ...]
带有key
    1. 一般无参    
    2. 针对双层序列   [(),(),...]

直接上例子了(对比着看):

rdd1 = sc.parallelize(['a','b','c','a'])                      # 一层序列
rdd2 = sc.parallelize( [('a',1),('b',2), ('c',3), ('a',4)] )  # 双层序列

group1 = rdd1.groupBy(lambda x:x)   # 针对 一层序列, 注意这里,必须写 函数句柄
group2 = rdd2.groupByKey()          # 针对 双层序列

print( group1.collect() )
print( group2.collect() )

# 可以这样告诉你, 他们俩的最外层结果是一样的: [{key:value}, ...], 
结果如下 ~~~~
[
    ('a', ),     
    ('b', ),
    ('c', )
]
# 如果加了count(), 那么它们的结果就是一样的了,返回统计的个数, 等到 action再说。

reduceByKey

照应双层或多层序列,或者 承接 groupByKey()

rdd = sc.parallelize(['Tom', 'Jerry', 'Tom', 'Putch'])
rdd.map(lambda x:(x,1)).reduceByKey(lambda x,y:x+y).collect()

# 结果(可以忽略上面的 collect(), 它属于action,放在这里方便贴个结果)
>> [('Tom', 2), ('Jerry', 1), ('Putch', 1)]

sortBy 和 sortByKey

同上, 这里只说下(这两种只能对key排序):
    默认升序
    降序可指定参数: ascending=False
    
另一种业务:(基于value的排序):
    可以尝试先用 map-lambda交换元素次序,然后再排序,最后再用一次map-lambda交换回来

union

rdd1.union(rdd2)    # 相当于 python的 "列表加法" 或者 python的 "extend"

distinct

rdd.distinct()      # 去重

join

前提: (我的理解就是,能转化成 python 字典的列表格式即可)

eg:  [ [1,2], [3,4], [5,6] ]  
两层列表
每层列表的每个元素中,  只有2个元素

错误格式示例:
    [['a','b','c'], ['d','e','f']]

也不能说错误吧,不过若是这种3个-多个子元素的格式, join时默认会取前2个元素。其余丢弃。

内连接(innerJoin):
左外连接(leftOuterJoin):
右外连接(rightOuterJoin):
全外连接(fullOuterJoin):

完整示例:

rdd1 = sc.parallelize( [['a','b'], ['d','e']] )       # 左
rdd2 = sc.parallelize( [['a','c'], ['e','f']] )       # 右
# 开头说过:能转化成字典的列表格式即可,或者你可以写成这样(但是不能传原生字典进去):
rdd1 = sc.parallelize( list({'a': 'b', 'd': 'e'}.items()) )
rdd2 = sc.parallelize( list({'a': 'c', 'e': 'f'}.items()) )
  

# 内连接(交集)
print( rdd1.join(rdd2).collect() )             # [('a', ('b', 'c'))]

# 左连接(左并集)
print( rdd1.leftOuterJoin(rdd2).collect() )    # [('d', ('e', None)), ('a', ('b', 'c'))]

# 右连接(右并集)
print( rdd1.rightOuterJoin(rdd2).collect() )   # [('a', ('b', 'c')), ('e', (None, 'f'))]

# 全连接(并集)
print( rdd1.fullOuterJoin(rdd2).collect() )    # [('d', ('e', None)), ('a', ('b', 'c')), ('e', (None, 'f'))]

persist & cache & unpersist

cache(): 缓存
persist(): 持久化
unpersist(): 清空缓存 (他属于 action-立即触发, 为了方便对比,我就一起放到了这里)
官档:http://spark.apache.org/docs/...

Action (Commit)

主要机制:拿到 transformation 记录的关系, 用 action的各种操作来真正触发、执行、返回结果。
对应上面,继续直观举例:

1. 像 sqlalchemy 中的 commit()
2. 像 tensorflow1.x 中的 sess.run()
3. 像 数据库的事务的 "提交"

接下来介绍,Action 的各种操作。

collect

执行transformation记录的关系 并 返回结果, 在Pyspark中就是RDD类型 转 Python数据类型。

(中间你可以链式调用各种 transformation方法,结尾调用一个 collect(), 就可以出结果了)
rdd1.xx().xx().collect()

count

统计元素项的个数,同上语法, 同上理念,触发返回结果

rdd2 = sc.parallelize( [['a','c','d'], ['e','f','g']] )
rdd2.count()  # 无参
>> 2

reduce

rdd2 = sc.parallelize( [['a','c','d'], ['e','f','g']] )
rdd2.reduce(lambda x,y:x+y)    # 参数为2个参数的函数句柄,做"累"的操作,(累加,累乘)等
>> ['a', 'c', 'd', 'e', 'f', 'g']

take

相当于mysql的limit操作,取前n个

rdd2 = sc.parallelize( [['a','c','d'], ['e','f','g']] )
rdd2.take(0)  # []
rdd2.take(1)  # [['a', 'c', 'd']]
rdd2.take(2)  # [['a', 'c', 'd'], ['e', 'f', 'g']]

再次强调: take的参数是,个数的意思,而不是索引,不要混淆额

top

返回最大的n个元素(会自动给你排序的)

rdd2 = sc.parallelize( [1,2,3,8,5,3,6,8])  
rdd2.top(3)
>> [8, 8, 6]

foreach

遍历每个元素,对子元素做-对应函数句柄的操作,下面说这个action的两点注意事项:
注意1: 无返回值(返回None)
注意2: 通常用作 print(), 但是它不会在notebook中打印, 而是在你后台开启的spark中打印。

rdd2 = sc.parallelize( [['a','c','d'], ['e','f','g']] )  
rdd2.foreach(lambda x:print(x))

>> ['a', 'c', 'd']
   ['e', 'f', 'g']

saveAsTextFile

rdd = sc.textFile('file:///home/lin/data')
rdd.saveAsTextFile('file:///home/lin/mydata')  

# 这里有个注意事项: saveAsTextFile的参数路径不能在都进来的路径范围内。
# 或者说,读是从这个文件夹A(这是最后一级的目录)读进来的, 写就不能写入文件夹A了
# 另外, mydata是目录名, 进去你会看见 part-00000  这样的文件名,这才是真数据文件。

Spark优化相关

序列化:

好处1:网络传输必备
好处2:节省内存
两种方式序列化方式:
    1. Java内部序列化(默认,较慢,但兼容性好)
    2. Kryo (较快,但兼容性不太好) 

内存管理:

可分为 execution(进程执行) 和 storage(存储)

execution相关操作: shuffle, join, sort, aggregation
storage相关操作  :   cache, 

特点:

execution 和 storage 共享整体内存:
execution起到 "存霸" 的角色:
1. 若 execution区域内存 不够用了, 它会去抢夺 storage 区域的内存(不归还)
2. 当然,可以为 storage 设置阈值 (必须给 storage留下多少)

具体分配多少:

总内存 = n
execution内存 = (总内存 - 300M) * 50%
storage内存   = (总内存 - 300M) * 50%

说白了,就是留给JVM 300M, 然后 execution 和 storage 各分一半。

查看内存占用情况

可通过WebUI查看 
(序列化后存储,通常会节省内存)

Broadcasting Variable

情景:正常来说,每个 task(map, filter等) 都会占用1份数据,100个task就会拿100份数据。
这种情况造成了数据的冗余, BroadCasting Variable(广播变量)就是解决这一问题的。

你可能感兴趣的:(rdd,spark,python)