spark对wordcount结果集排序(JAVA)

maven依赖:


    org.apache.spark
    spark-core_2.10
    1.6.0
public class WordCountSort {
    public static void main(String[] args) {
        /**
         * 创建spark配置对象SparkConf,设置spark运行时配置信息,
         * 例如通过setMaster来设置程序要连接的集群的MasterURL,如果设置为local         * spark为本地运行
         */
        SparkConf conf = new SparkConf().setAppName("My first spark").setMaster("local");
        /**
         * 创建JavaSparkContext对象
         * SparkContextspark所有功能的唯一入口,
         * SparkContext核心作用,初始化spark运行所需要的核心组件,同时还会负责spark程序在master的注册。
         *
         */
        JavaSparkContext sc = new JavaSparkContext(conf);
        /**
         * 根据数据来源,通过JavaSparkContext来创建RDD
         */
        JavaRDD lines = sc.textFile("E:/wordcount.txt");
        /**
         * 对初始化的JavaRDD进行Transformation级别的处理,例如mapfilter等高级函数的编程,来记性具体的操作
         * 1、按空格进行拆分,拆分为单词
         */
        JavaRDD words = lines.flatMap(new FlatMapFunction, String>() {
            public Iterable call(String words) throws Exception {
                return Arrays.asList(words.split(" "));
            }
        });
        /**
         * 对初始化的JavaRDD进行Transformation级别的处理,例如mapfilter等高级函数的编程,来记性具体的操作
         * 2、在单词拆分的基础上,对每个单词实例进行计数为1
         */
        JavaPairRDD, Integer> pairs = words.mapToPair(new PairFunction, String, Integer>() {
            public Tuple2, Integer> call(String s) throws Exception {
                return new Tuple2, Integer>(s, 1);
            }
        });
        /**
         * 对初始化的JavaRDD进行Transformation级别的处理,例如mapfilter等高级函数的编程,来记性具体的操作
         * 3、计算每个单词在文中出现的总次数
         */
        JavaPairRDD, Integer> pairRDD = pairs.reduceByKey(new Function2, Integer, Integer>() {
            public Integer call(Integer integer, Integer integer2) throws Exception {
                return integer + integer2;
            }
        });
        /**
         * keyvalue倒置,返回新的RDD
         */
        JavaPairRDD, String> keyValueConvertPairRDD = pairRDD.mapToPair(new PairFunction, Integer>, Integer, String>() {
            public Tuple2, String> call(Tuple2, Integer> stringIntegerTuple2) throws Exception {
                return new Tuple2, String>(stringIntegerTuple2._2,stringIntegerTuple2._1);
            }
        });
        /**
         * key倒叙排(降序)
         */
        JavaPairRDD, String> resultPairRDD = keyValueConvertPairRDD.sortByKey(false);
        /**
         * 打印
         */
        resultPairRDD.foreach(new VoidFunction, String>>() {
            public void call(Tuple2, String> integerStringTuple2) throws Exception {
                System.out.println(integerStringTuple2._1+"   "+integerStringTuple2._2);
            }
        });
        /**
         * 关闭JavaSparkContext
         */
        sc.close();
    }
}

你可能感兴趣的:(spark对wordcount结果集排序(JAVA))