<IMG alt=http://static.oschina.net/uploads/space/2015/0109/211004_Nkr7_76720.jpg src="http://static.oschina.net/uploads/space/2015/0109/211004_Nkr7_76720.jpg" _src="http://static.oschina.net/uploads/space/2015/0109/211004_Nkr7_76720.jpg">
RDD的创建:
(SparkContext) sc.parallelize(collection) //将一个集合转换成RDD
sc.textFile("path..") //读取一个文件并转换成RDD
延迟执行,一个RDD通过该操作产生的新的RDD时不会立即执行,只有等到Action操作才会真正执行。
map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集 示例: var list = List(1,2,3,4,5,6); //定义一个List集合 //对于调用map的list而言,num表示list中每一个element,每个element都*2,num可以理解为一个变量名 list.map(num=>num*2) 结果:List(2,4,6,8,10,12) //list.map(num=>num*2)可以看成是集合中每个element*2
filter(func):对调用filter的RDD数据集中的每个元素都使用func,然后返回一个包含使func为true的元素构成的RDD 示例: var list = List(1,2,3,4,5,6); //定义一个List集合 //对于调用filter的list而言,num表示list中每一个element,筛选每个符合>2条件的element list.filter(num=>num>2) //参数必须是一个Boolean 打印结果:List[Int] = List(3, 4, 5, 6)
flatMap(func):和map差不多,但是flatMap生成的是多个结果 示例: // 定义一个元素为String的集合 var strList = List("hello world","hello xm","hello xh","hello , Im fine","hello how are you?") // 将每个element切分成多个字段,flatMap每个参与计算的element必须返回多个结果或者一个数组,例如返回的结果 // 可以这样:List(Array(...),Array(...),...) strList.flatMap(stsr=>str.split(" ")) 打印结果:List(hello, world, hello, xm, hello, xh, hello, ,, Im, fine, hello, how, are, you?)
groupByKey():将相同key的value进行分组 groupByReduce():将相同key的value进行合并计算 union:将两个RDD聚合,例如:RDD1->(1,2,3),RDD2->(1,2,3),RDD1 union RDD2 -> (1,2,3,1,2,3) join:将两个RDD取笛卡尔积 SortByKey(boolean):按照key进行排序,true为降序,false为升序,如果想将value进行排序,可以将key和value位置互换,互换操作:map(x=>(x._2,x._1))
提交Spark作业,当Action时,Transformation类型的操作才会真正执行计算操作,然后产生最终结果输出。
cache:将结果放到内存 count:统计element的数量 collect:返回一个数组结果 reduce:对所有的element进行合并 lookup:针对某个key查看value save:将结果保存到磁盘
其他的一些操作可以参考官方文档:http://spark.apache.org/docs/latest/programming-guide.html#transformations