一.分区策略
GraphX采用顶点分割的方式进行分布式图分区。GraphX不会沿着边划分图形,而是沿着顶点划分图形,这可以减少通信和存储的开销。从逻辑上讲,这对应于为机器分配边并允许顶点跨越多台机器。分配边的方法取决于分区策略PartitionStrategy并且对各种启发式方法进行了一些折中。用户可以使用Graph.partitionBy运算符重新划分图【可以使用不同分区策略】。默认的分区策略是使用图形构造中提供的边的初始分区。但是,用户可以轻松切换到GraphX中包含的2D分区或其他启发式方法。
一旦对边进行了划分,高效图并行计算的关键挑战就是将顶点属性和边有效结合。由于现实世界中的图通常具有比顶点更多的边,因此我们将顶点属性移到边上。由于并非所有分区都包含与所有顶点相邻的边,因此我们在内部维护一个路由表,该路由表在实现诸如triplets操作所需要的连接时,标示在哪里广播顶点aggregateMessages。
二.测试数据
1.users.txt
2.followers.txt
3.数据可视化
三.PageRank网页排名
1.简介
使用PageRank测量图中每个顶点的重要性,假设从边u到v表示的认可度x。例如,如果一个Twitter用户被许多其他用户关注,则该用户将获得很高的排名。GraphX带有PageRank的静态和动态实现,作为PageRank对象上的方法。静态PageRant运行固定的迭代次数,而动态PageRank运行直到排名收敛【变化小于指定的阈值】。GraphOps运行直接方法调用这些算法。
2.代码实现
1 package graphx 2 3 import org.apache.log4j.{Level, Logger} 4 import org.apache.spark.graphx.GraphLoader 5 import org.apache.spark.sql.SparkSession 6 7 /** 8 * Created by Administrator on 2019/11/27. 9 */ 10 object PageRank { 11 Logger.getLogger("org").setLevel(Level.WARN) 12 def main(args: Array[String]) { 13 val spark = SparkSession.builder() 14 .master("local[2]") 15 .appName(s"${this.getClass.getSimpleName}") 16 .getOrCreate() 17 val sc = spark.sparkContext 18 val graph = GraphLoader.edgeListFile(sc, "D:\\software\\spark-2.4.4\\data\\graphx\\followers.txt") 19 // 调用PageRank图计算算法 20 val ranks = graph.pageRank(0.0001).vertices 21 // join 22 val users = sc.textFile("D:\\software\\spark-2.4.4\\data\\graphx\\users.txt").map(line => { 23 val fields = line.split(",") 24 (fields(0).toLong, fields(1)) 25 }) 26 // join 27 val ranksByUsername = users.join(ranks).map{ 28 case (id, (username, rank)) => (username, rank) 29 } 30 // print 31 ranksByUsername.foreach(println) 32 } 33 }
3.执行结果
四.ConnectedComponents连通体算法
1.简介
连通体算法实现把图划分为多个子图【不进行节点切分】,清除孤岛子图【只要一个节点的子图】。其使用子图中编号最小的顶点ID标记子图。
2.代码实现
1 package graphx 2 3 import org.apache.log4j.{Level, Logger} 4 import org.apache.spark.graphx.GraphLoader 5 import org.apache.spark.sql.SparkSession 6 7 /** 8 * Created by Administrator on 2019/11/27. 9 */ 10 object ConnectedComponents { 11 Logger.getLogger("org").setLevel(Level.WARN) 12 def main(args: Array[String]) { 13 val spark = SparkSession.builder() 14 .master("local[2]") 15 .appName(s"${this.getClass.getSimpleName}") 16 .getOrCreate() 17 val sc = spark.sparkContext 18 val graph = GraphLoader.edgeListFile(sc, "D:\\software\\spark-2.4.4\\data\\graphx\\followers.txt") 19 // 调用connectedComponents连通体算法 20 val cc = graph.connectedComponents().vertices 21 // join 22 val users = sc.textFile("D:\\software\\spark-2.4.4\\data\\graphx\\users.txt").map(line => { 23 val fields = line.split(",") 24 (fields(0).toLong, fields(1)) 25 }) 26 // join 27 val ranksByUsername = users.join(cc).map { 28 case (id, (username, rank)) => (username, rank) 29 } 30 val count = ranksByUsername.count().toInt 31 // print 32 ranksByUsername.map(_.swap).takeOrdered(count).foreach(println) 33 } 34 }
3.执行结果
五.TriangleCount三角计数算法
1.简介
当顶点有两个相邻的顶点且它们之间存在边时,该顶点是三角形的一部分。GraphX在TriangleCount对象中实现三角计数算法,该算法通过确定经过每个顶点的三角形的数量,从而提供聚类的度量。注意,TriangleCount要求边定义必须为规范方向【srcId < dstId】,并且必须使用Graph.partitionBy对图进行分区。
2.代码实现
1 package graphx 2 3 import org.apache.log4j.{Level, Logger} 4 import org.apache.spark.graphx.{PartitionStrategy, GraphLoader} 5 import org.apache.spark.sql.SparkSession 6 7 /** 8 * Created by Administrator on 2019/11/27. 9 */ 10 object TriangleCount { 11 Logger.getLogger("org").setLevel(Level.WARN) 12 def main(args: Array[String]) { 13 val spark = SparkSession.builder() 14 .master("local[2]") 15 .appName(s"${this.getClass.getSimpleName}") 16 .getOrCreate() 17 val sc = spark.sparkContext 18 val graph = GraphLoader.edgeListFile(sc, "D:\\software\\spark-2.4.4\\data\\graphx\\followers.txt", true) 19 .partitionBy(PartitionStrategy.RandomVertexCut) 20 21 // 调用triangleCount三角计数算法 22 val triCounts = graph.triangleCount().vertices 23 // map 24 val users = sc.textFile("D:\\software\\spark-2.4.4\\data\\graphx\\users.txt").map(line => { 25 val fields = line.split(",") 26 (fields(0).toLong, fields(1)) 27 }) 28 // join 29 val triCountByUsername = users.join(triCounts).map { case (id, (username, tc)) => 30 (username, tc) 31 } 32 val count = triCountByUsername.count().toInt 33 // print 34 triCountByUsername.map(_.swap).takeOrdered(count).foreach(println) 35 } 36 }
3.执行结果