利用spark进行圆周率的计算

package example

import org.apache.spark.{SparkContext, SparkConf}
import scala.math.random
/**
  * 利用spark进行圆周率的计算
  * Created by 汪本成 on 2016/6/10.
  */
object SparkPai {
  def main(args: Array[String]) {
    val conf = new SparkConf().setAppName("SparkPai").setMaster("local[4]")
    val sc = new SparkContext(conf)

    //分片数
    val slices = if (args.length > 0) args(0).toInt else 2
    //为避免溢出,n不超过int的最大值
    val n = math.min(10000L*slices, Int.MaxValue).toInt
    //计数
    val count = sc.parallelize(1 until n, slices).map{
      lines =>
        //小于1的随机数
        val x = random*2 - 1
        //小于1的随机数
        val y = random*2 - 1
        //点到圆心的的值,小于1计数一次,超出1就不计算
        if (x*x + y*y < 1) 1 else 0
    }.reduce(_+_)    //汇总累加落入的圆中的次数

    //count / n是概率,count落入圆中次的数,n是总次数;
    println("Pai is roughly " + 4.0 * count / n)
    sc.stop()
  }
}


运行结果如下:

你可能感兴趣的:(利用spark进行圆周率的计算)