招行笔试题,spark 实现共同好友查找

共同好友:求大量集合的两两交集
目标:令U为包含所有用户的一个集合:{U1,U2,...,Un},我们的目标是为每个(Ui,Uj)(i!=j)找出共同好友。
前提:好友关系是双向的

输入:<,>< >< >...

100,200 300 400 500 600
200,100 300 400
300,100 200 400 500
400,100 200 300
500,100,300

600,100

把每个人的好友,两两配对形成新的集合 比如第一行进行map以后为

(100,((200,300),(200,400,(200,500),200,600,(300,400

300,500,(300,600,(400,500),(400,500),(500,600))

然后顺着这个思路用flatMapValues 将所有的values拆分,然后进行reduceByKey 可以得出每一对的共同好友

值得注意的事,这里每一组的好友都是按照数字顺序,所以分组不需要对其排序,实际情况下可以先对每个人的好友

进行排序,避免重复

以下是实现代码

import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import scala.collection.mutable.ArrayBuffer


object CommonFriends {
  def main(args: Array[String]): Unit = {
    val conf=new SparkConf().setAppName("Friends").setMaster("local")
    val sc =new SparkContext(conf)
    //读取文件
    val rddFile=sc.textFile("/input/friends.txt")
    //按行用逗号切分 k,v
    val rddLine=rddFile.map(_.split(","))
    //让rddLine存入缓存
    rddLine.cache()
    //初始化一个空共同好友集合,将所有人两两配对
    val rddEmpty=rddLine.map(x=>("",x(0))).groupByKey().map(x=>{
      val person=x._1
      var paris:Array[Array[String]]=Array()
      val friends= x._2.toArray
      if(friends.length>=2){
        for (i<- 0 until friends.length-1){
          for(j<-i+1 until friends.length){
            val array=Array(friends(i),friends(j))
            paris=paris.++(array::Nil)
          }
        }
      }
      (person,paris)
    })
    //计算有共同好友的好友对  
    val rddSplit=rddLine.map(arr=>{
      //创建好友对数组
      var paris:Array[Array[String]]=Array()
      val person=arr(0)
       //将v 用空格切分为数组
      val friends=arr(1).split(" ")
        //两两配对
      if(friends.length>=2){
        for (i<- 0 until friends.length-1){
          for(j<-i+1 until friends.length){
            val array=Array(friends(i),friends(j))
            paris=paris.++(array::Nil)
          }
        }
      }
      (person,paris)
    })
    //将两个rdd关联,如果没有共同好友会显示空
    val rddGroups=rddSplit.union(rddEmpty)
    //对paris 进行拆分最为key ,然后聚合
    val rddResult=rddGroups.flatMapValues(value=>value.map(x=>x)).map(tuple=>((tuple._2(0),tuple._2(1)),tuple._1)).reduceByKey(_+" "+_)
    rddResult.saveAsTextFile("/output13")
    sc.stop()
  }
}

运行结果

招行笔试题,spark 实现共同好友查找_第1张图片

 
 

你可能感兴趣的:(hadoop,spark,scala)