2020年年初业务稳步增长,风控方面遇到了挑战,作为C2C(类似于得物、咸鱼)交易平台,难免会遇到用户团伙进行薅平台羊毛、自买自卖的行为,风控团队将用户的历史数据整合后,希望从中圈选出各个大大小小的团伙,来防止团伙内部和团伙之间进行交易,数据量大,纬度复杂,经过几个周的磨合尝试,以及和某些小额贷款公司的交流,终于确定了一套完整的团伙发现体系,最终走向数据的实时化,其中spark的GraphX和streaming占据重要位置。接下来简述1.0版本的应用。
更新中。。。
neo4j是一个开源的图数据库(集群版不开源,按节点收费,贼贵,单节点免费),同一业务拆分了一下,能满足当前的数据需求。只做查询,不做计算,之前也考虑过计算,效率低,内存消耗高,最终选择了SparkGraphX作为计算。
更新中。。。
sparkStreaming(有条件的用flink)做两件事:
数据源:binlog(kafka)
数据存储:neo4j、kafka、redis
处理过程:(1)、普通数据,A用户的a特征,直接存储到neo4j、kafka、redis
(2)、多重join的数据,需要两个topic进行join的,没有用直接用join,用的是窗口函数+groupByKey
窗口大小是4s钟,滑动间隔是2s钟(根据业务本身延时和数据本身延时决定,因为此动作触发后,app会有几秒的等待时间,以及多个动作后的结果,保证风控数据到位后,业务才会去调用,否则,当羊毛党都薅完羊毛了,才检测到有风险,岂不是有些扯淡,所以有些动作比较卡,不是数据拥挤导致的,也许就说程序员在里面写的sleep(n),哈哈哈)。比如uid和支付id的关联关系,需要两个表,表中关键字段分表是,(order_id, uid)(order_id, pay_id)
,先将两个topic合流,然后调出相同字段
.map(elem => (((elem._1, elem._2), elem._3), 1)) // ((提现表关联 ,order_id),uid/pay_id)
.reduceByKeyAndWindow((x:Int, y:Int)=>x+y, Seconds(30), Seconds(15))
.map(elem=>(elem._1._1, elem._1._2)) //
.groupByKey() // (统一表名 ,订单id) => (uid+pay_id)
.map(elem=>{
//整理数据,除了提现表关联,还有很多关联关系
}).foreach(存储)
neo4j
//更新关系
private def relationShip(session: Session, uid: Int, flag_label:String, flag_type:String, fuid: String): Any = {
val sql = s"""
|match (p1:User{userId:$uid})-[r:$flag_type]->(p2:$flag_label{flagId:"$fuid"}) return p1.userId as uid
""".stripMargin
val result: StatementResult = session.run(sql)
if (!result.hasNext) {
val sql1 =
s"""
|MERGE (p1:User{userId:$uid})
|MERGE (p2:$flag_label{flagId:"$fuid"})
""".stripMargin
session.run(sql1)
val sql =
s"""
|MATCH (p1:User{userId:$uid}),(p2:$flag_label{flagId:"$fuid"})
|MERGE (p1)-[r:$flag_type{score:1}]->(p2)
|RETURN p1.userId as uid
""".stripMargin
val rel: StatementResult = session.run(sql)
if (rel.hasNext) {
val record = rel.next()
val uid = record.get("uid").toString
println(uid)
}else{
System.err.println("error:"+uid+flag_label+flag_type+fuid)
}
}
}
/**
* 获取Driver
* @return
*/
def getDriver(): Driver = {
val url = "bolt://neo4j01:8687"
val user = "user"
val password = "password"
val driver = GraphDatabase.driver(url, AuthTokens.basic(user, password), Config.build()
.withMaxIdleSessions(1000)
.withConnectionLivenessCheckTimeout(10, TimeUnit.SECONDS)
.toConfig)
driver
}
/**
* 获取Session
* @param driver
* @return
*/
def getSession(driver: Driver): Session = {
val session = driver.session()
session
}
kafka
def resToKafka(ssc: StreamingContext, kafkaDStreamValue: DStream[(String, String, String, String)]): Unit = {
//广播KafkaSink
val kafkaProducer: Broadcast[KafkaSink[String, String]] = {
val kafkaProducerConfig = {
val p = new Properties()
p.put("group.id", "realtime")
p.put("acks", "all")
p.put("retries ", "1")
p.setProperty("bootstrap.servers", GetPropKey.brokers)
p.setProperty("key.serializer", classOf[StringSerializer].getName)
p.setProperty("value.serializer", classOf[StringSerializer].getName)
p
}
ssc.sparkContext.broadcast(KafkaSink[String, String](kafkaProducerConfig))
}
//写入Kafka
kafkaDStreamValue.foreachRDD(rdd => {
if (!rdd.isEmpty()) {
rdd.foreachPartition(partition => {
partition.foreach(elem => {
val flag_label = elem._3
if (!flag_label.equals("null")) {
val auth_info = elem._1
val uid = elem._2.toInt
val flag_type = elem._4
val value = dataJson(uid, auth_info, flag_label, flag_type)
kafkaProducer.value.send("risk_user_auth_info", value)
}
})
})
}
})
}
/**
* json格式化
*
* @param uid
* @param fid
* @param flag_label
* @param flag_type
* @return
*/
def dataJson(uid: Int, fid: String, flag_label: String, flag_type: String): String = {
val map = Map(
"user_id" -> uid,
"flag_id" -> fid,
"flag_label" -> flag_label,
"flag_type" -> flag_type
)
JSONObject.apply(map).toString()
}
数据源:risk_user_auth_info(1中写入kafka的延时队列)
数据存储:redis
处理过程:从延时队列中取出数据,到redis中查询出关系,归结到父节点(迭代版本中加入了算法进行合并和拆分图),再存入redis
更新中。。。