Python---pyspark中的数据输出(collect,reduce,take,count,saveAsTextFile),了解PySpark代码在大数据集群上运行
1.Spark的编程流程就是:将数据加载为RDD(数据输入)对RDD进行计算(数据计算)将RDD转换为Python对象(数据输出)2.数据输出的方法将RDD的结果输出为Python对象的各类方法collect:将RDD内容转换为listreduce:对RDD内容进行自定义聚合take:取出RDD的前N个元素组成list返回count:统计RDD元素个数返回collect算子:将RDD各个分区内的数