spark 协方差计算

 
 
 
 val data = Array(
      Vectors.dense(4.0, 2.0, 3.0),
      Vectors.dense(5.0, 6.0, 1.0),
      Vectors.dense(2.0, 4.0, 7.0),
      Vectors.dense(3.0, 6.0, 5.0)
    )

    
    
    rdd是可以直接算协方差的
    rddData=sc.parallelize(data)
 
   

    // RDD转换成RowMatrix
    val mat: RowMatrix = new RowMatrix(rddData)

    // 统计
    val stasticSummary: MultivariateStatisticalSummary =mat.computeColumnSummaryStatistics()


    // 均值
    println(stasticSummary.mean)
    // 结果:3.5,4.5,4.0

    // 方差
    println(stasticSummary.variance)
    // 结果:1.6666666666666667,3.6666666666666665,6.666666666666667


    // 协方差
    val covariance: Matrix = mat.computeCovariance()
    println(covariance)
    // 结果:
    //  cov(dim1,dim1) cov(dim1,dim2) cov(dim1,dim3)
    //  cov(dim2,dim1) cov(dim2,dim2) cov(dim2,dim3)
    //  cov(dim3,dim1) cov(dim3,dim2) cov(dim3,dim3)
    //  1.6666666666666679   0.3333333333333357   -3.3333333333333304
    //  0.3333333333333357   3.666666666666668    -0.6666666666666679
    //  -3.3333333333333304  -0.6666666666666679  6.666666666666668
    // 结果分析:以cov(dim1,dim2)为例
    //  dim1均值:3.5  dim2均值:4.5
    //  val cov(dim2,dim3)=((4.0-3.5)*(2.0-4.5)+(5.0-3.5)*(6.0-4.5)+(2.0-3.5)*(4.0-4.5)+(3.0-3.5)*(6.0-4.5))/(4-1)
    //  cov(dim2,dim3)=0.3333333333333333 
--------------------- 
作者:wangpei1949 
原文:https://blog.csdn.net/wangpei1949/article/details/53190922 
版权声明:本文为博主原创文章,转载请附上博文链接!

你可能感兴趣的:(spark)