举例,在F:\sparktest\sample.txt 文件的内容如下
aa bb cc aa aa aa dd dd ee ee ee ee
ff aa bb zks
ee kks
ee zz zks
将每一行的第一个单词作为键,1 作为value创建pairRDD
scala版本
scala是没有mapToPair函数的,scala版本只需要map就可以了
scala> val lines = sc.textFile("F:\\sparktest\\sample.txt")
scala> val pairs = lines.map(x => (x.split("\\s+")(0), 1))
scala> pairs.collect
res0: Array[(String, Int)] = Array((aa,1), (ff,1), (ee,1), (ee,1))
java版本
JavaRDD lines = sc.textFile("F:\\sparktest\\sample.txt");
//输入的是一个string的字符串,输出的是一个(String, Integer) 的map
JavaPairRDD pairRDD = lines.mapToPair(new PairFunction() {
@Override
public Tuple2 call(String s) throws Exception {
return new Tuple2(s.split("\\s+")[0], 1);
}
});
类似于xxx连接 mapToPair是一对一,一个元素返回一个元素,而flatMapToPair可以一个元素返回多个,相当于先flatMap,在mapToPair
例子: 将每一个单词都分成键为
scala版本
val lines = sc.textFile("F:\\sparktest\\sample.txt")
val flatRDD = lines.flatMap(x => (x.split("\\s+")))
val pairs = flatRDD.map(x=>(x,1))
scala> pairs.collect
res1: Array[(String, Int)] = Array((aa,1), (bb,1), (cc,1), (aa,1), (aa,1), (aa,1), (dd,1), (dd,1), (ee,1), (ee,1), (ee,1), (ee,1), (ff,1), (aa,1), (bb,1), (zks,1), (ee,1), (kks,1), (ee,1), (zz,1), (zks,1))
java版本 spark2.0以下
JavaPairRDD wordPairRDD = lines.flatMapToPair(new PairFlatMapFunction() {
@Override
public Iterable> call(String s) throws Exception {
ArrayList> tpLists = new ArrayList>();
String[] split = s.split("\\s+");
for (int i = 0; i new Tuple2(split[i], 1);
tpLists.add(tp);
}
return tpLists;
}
});
java版本 spark2.0以上
主要是iterator和iteratable的一些区别
JavaPairRDD wordPairRDD = lines.flatMapToPair(new PairFlatMapFunction() {
@Override
public Iterator> call(String s) throws Exception {
ArrayList> tpLists = new ArrayList>();
String[] split = s.split("\\s+");
for (int i = 0; i new Tuple2(split[i], 1);
tpLists.add(tp);
}
return tpLists.iterator();
}
});