《深入理解Spark》之并行度和参数(spark.default.parallelism)之间的关系
packagecom.lyzx.day35importorg.apache.spark.{SparkConf,SparkContext}classT1{deff1(sc:SparkContext):Unit={valrdd=sc.parallelize(1to100,10)println("[原始RDD]rdd.partitions.length="+rdd.partitions.length)v