Flink:实时数据处理(9.Flink CEP)

文章目录

  • 1.CEP定义
  • 2.CEP特点
  • 3.Pattern API
    • 3.1 个体模式(Individual Patterns)
    • 3.2 组合模式(Combining Patterns,也叫模式序列)
      • 3.2.1 严格近邻(Strict Contiguity)
      • 3.2.2 宽松近邻( Relaxed Contiguity )
      • 3.2.3 非确定性宽松近邻( Non-Deterministic Relaxed Contiguity )
      • 3.2.4 不希望出现某种近邻关系
    • 3.3 模式的检测
    • 3.4 匹配事件的提取
    • 3.5 超时事件的提取

1.CEP定义

  • 复杂事件处理(Complex Event Processing,CEP)
  • Flink CEP是在 Flink 中实现的复杂事件处理(CEP)库
  • CEP 允许在无休止的事件流中检测事件模式,让我们有机会掌握数据中重要的部分
  • 一个或多个由简单事件构成的事件流通过一定的规则匹配,然后输出用户想得到的数据 —— 满足规则的复杂事件

2.CEP特点

Flink:实时数据处理(9.Flink CEP)_第1张图片

  • 目标:从有序的简单事件流中发现一些高阶特征
  • 输入:一个或多个由简单事件构成的事件流
  • 处理:识别简单事件之间的内在联系,多个符合一定规则的简单事件构成复杂事件
  • 输出:满足规则的复杂事件

3.Pattern API

  • 处理事件的规则,被叫做“模式”(Pattern)
  • Flink CEP 提供了 Pattern API,用于对输入流数据进行复杂事件规则定义,用来提取符合规则的事件序列
    Flink:实时数据处理(9.Flink CEP)_第2张图片
    案例演示:检测连续三次登录失败:
import org.apache.flink.cep.scala.CEP
import org.apache.flink.cep.scala.pattern.Pattern
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time

import scala.collection.Map
/**
 * @Author jaffe
 * @Date 2020/06/17  08:55
 */

// 检测连续三次登录失败的事件
object CepExample {

  case class LoginEvent(userId:String,ip:String,eventType:String,eventTime: Long)

  def main(args: Array[String]): Unit = {

    val env = StreamExecutionEnvironment.getExecutionEnvironment
    env.setParallelism(1)
    env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

    val stream = env
      .fromElements(
        LoginEvent("user_1", "0.0.0.0", "fail", 1000L),
        LoginEvent("user_1", "0.0.0.1", "fail", 2000L),
        LoginEvent("user_1", "0.0.0.2", "fail", 3000L),
        LoginEvent("user_2", "0.0.0.0", "success", 4000L)
      )
      .assignAscendingTimestamps(_.eventTime)
      .keyBy(_.userId)

    // 定义需要匹配的模板
    val pattern =Pattern
      .begin[LoginEvent]("first").where(_.eventType.equals("fail"))
      .next("second").where(_.eventType.equals("fail"))
      .next(("third")).where(_.eventType.equals("fail"))
        //.begin[LoginEvent]("S").where(_.eventType.equals("success"))
      .within(Time.seconds(10))// 10s之内连续三次登录失败

    // 第一个参数:需要匹配的流,第二个参数:模板
    val patternedStream =CEP.pattern(stream,pattern)

    patternedStream.select(func).print()

    env.execute()
  }

  val func = (pattern:Map[String,Iterable[LoginEvent]]) => {

    val first = pattern.getOrElse("first",null).iterator.next()
    val second = pattern.getOrElse("second",null).iterator.next()
    val third = pattern.getOrElse("third",null).iterator.next()
    //val s = pattern.getOrElse("S",null).iterator.next()

    first.userId + "连续三次登录失败!"
  }
}

3.1 个体模式(Individual Patterns)

组成复杂规则的每一个单独的模式定义,就是“个体模式”
在这里插入图片描述

 val pattern =Pattern
    .begin[LoginEvent]("x")
    .times(3)
    .where(_.eventType.equals("fail"))
    .within(Time.seconds(10))

1.个体模式可以包括“单例(singleton)模式”和“循环(looping)模式”

  • 单例模式只接收一个事件,而循环模式可以接收多个量词(Quantifier)
    量词(Quantifier):可以在一个个体模式后追加量词,也就是指定循环次数
    Flink:实时数据处理(9.Flink CEP)_第3张图片

2.条件:
每个模式都需要指定触发条件,作为模式是否接受事件进入的判断依据
CEP 中的个体模式主要通过调用 .where() .or() 和 .until() 来指定条件
按不同的调用方式,可以分成以下几类:

简单条件(Simple Condition)
通过 .where() 方法对事件中的字段进行判断筛选,决定是否接受该事件
在这里插入图片描述

组合条件(Combining Condition)
将简单条件进行合并;.or() 方法表示或逻辑相连,where 的直接组合就是 AND
在这里插入图片描述

终止条件(Stop Condition)
如果使用了 oneOrMore 或者 oneOrMore.optional,建议使用 .until() 作为终止条件,以便清理状态

迭代条件(Iterative Condition)
能够对模式之前所有接收的事件进行处理
调用 .where( (value, ctx) => {…} ),可以调用 ctx.getEventsForPattern(“name”)

3.2 组合模式(Combining Patterns,也叫模式序列)

  • 很多个体模式组合起来,就形成了整个的模式序列
  • 模式序列必须以一个“初始模式”开始

3.2.1 严格近邻(Strict Contiguity)

所有事件按照严格的顺序出现,中间没有任何不匹配的事件,由 .next() 指定
例如对于模式”a next b”,事件序列 [a, c, b1, b2] 没有匹配
Flink:实时数据处理(9.Flink CEP)_第4张图片

3.2.2 宽松近邻( Relaxed Contiguity )

允许中间出现不匹配的事件,由 .followedBy() 指定
例如对于模式”a followedBy b”,事件序列 [a, c, b1, b2] 匹配为 {a, b1}
Flink:实时数据处理(9.Flink CEP)_第5张图片

3.2.3 非确定性宽松近邻( Non-Deterministic Relaxed Contiguity )

进一步放宽条件,之前已经匹配过的事件也可以再次使用,由 .followedByAny() 指定
例如对于模式”a followedByAny b”,事件序列 [a, c, b1, b2] 匹配为 {a, b1},{a, b2}

3.2.4 不希望出现某种近邻关系

  • notNext() —— 不想让某个事件严格紧邻前一个事件发生
  • notFollowedBy() —— 不想让某个事件在两个事件之间发生

需要注意:
所有模式序列必须以 .begin() 开始
模式序列不能以 .notFollowedBy() 结束
“not” 类型的模式不能被 optional 所修饰
此外,还可以为模式指定时间约束,用来要求在多长时间内匹配有效:
在这里插入图片描述

3.3 模式的检测

  • 指定要查找的模式序列后,就可以将其应用于输入流以检测潜在匹配
  • 调用 CEP.pattern(),给定输入流和模式,就能得到一个 PatternStream
    Flink:实时数据处理(9.Flink CEP)_第6张图片

3.4 匹配事件的提取

  • 创建 PatternStream 之后,就可以应用 select 或者 flatselect 方法,从检测到的事件序列中提取事件了
  • select() 方法需要输入一个 select function 作为参数,每个成功匹配的事件序列都会调用它
  • select() 以一个 Map[String,Iterable [IN]] 来接收匹配到的事件序列,其中 key 就是每个模式的名称,而 value 就是所有接收到的事件的 Iterable 类型
    Flink:实时数据处理(9.Flink CEP)_第7张图片

3.5 超时事件的提取

  • 当一个模式通过 within 关键字定义了检测窗口时间时,部分事件序列可能因为超过窗口长度而被丢弃;为了能够处理这些超时的部分匹配,select 和 flatSelect API 调用允许指定超时处理程序
  • 超时处理程序会接收到目前为止由模式匹配到的所有事件,由一个 OutputTag 定义接收到的超时事件序列

案例演示1:订单超时需求

import org.apache.flink.cep.scala.CEP
import org.apache.flink.cep.scala.pattern.Pattern
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.scala._
import org.apache.flink.streaming.api.windowing.time.Time
import org.apache.flink.util.Collector
import scala.collection.Map

/**
 * @Author jaffe
 * @Date 2020/06/17  10:45
 */
object OrderTimeout {

  case class OrderEvent(orderId: String, eventType: String, eventTime: Long)

  def main(args: Array[String]): Unit = {

    val env = StreamExecutionEnvironment.getExecutionEnvironment
    env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)
    env.setParallelism(1)

    val stream = env
      .fromElements(
        OrderEvent("order_1", "create", 2000L),
        OrderEvent("order_2", "create", 3000L),
        OrderEvent("order_2", "pay", 4000L)
      )
      .assignAscendingTimestamps(_.eventTime)
      .keyBy(_.orderId)

    val pattern = Pattern
      .begin[OrderEvent]("create").where(_.eventType.equals("create"))
      .next("pay").where(_.eventType.equals("pay"))
      .within(Time.seconds(5))

    val patternedStream = CEP.pattern(stream, pattern)

    // 用来输出超时订单的侧输出标签
    val orderTimeOutput = new OutputTag[String]("timeout")

    // 用来处理超时订单的函数
    val timeOutFunc = (map: Map[String, Iterable[OrderEvent]], ts: Long, out: Collector[String]) => {
      println("ts" + ts)

      val orderStart = map("create").head
      // 将报警信息发送到侧输出流去
      out.collect(orderStart.orderId + "没有支付")
    }


    val selectFunc = (map: Map[String, Iterable[OrderEvent]], out: Collector[String]) => {
      val order = map("pay").head
      out.collect(order.orderId + "已经支付")
    }

    val outputStream = patternedStream
      // 第一个参数:用来输出超时事件的侧输出标签
      // 第二个参数:用来输出超时事件的函数
      // 第三个参数:用来输出没有超时的事件的函数
      .flatSelect(orderTimeOutput)(timeOutFunc)(selectFunc)


    outputStream.print()
    outputStream.getSideOutput(new OutputTag[String]("timeout")).print()

    env.execute()
  }

}

案例演示2:使用底层API实现订单超时需求

import org.apache.flink.api.common.state.ValueStateDescriptor
import org.apache.flink.streaming.api.TimeCharacteristic
import org.apache.flink.streaming.api.functions.KeyedProcessFunction
import org.apache.flink.streaming.api.scala._
import org.apache.flink.util.Collector

/**
 * @Author jaffe
 * @Date 2020/06/17  11:46
 */
object OrderTimeoutWithoutCep {

  case class OrderEvent(orderId: String, eventType: String, eventTime: Long)

  def main(args: Array[String]): Unit = {
    val env = StreamExecutionEnvironment.getExecutionEnvironment
    env.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)
    env.setParallelism(1)

    val stream = env
      .fromElements(
        OrderEvent("order_1", "create", 2000L),
        OrderEvent("order_2", "create", 3000L),
        OrderEvent("order_2", "pay", 4000L)
      )
      .assignAscendingTimestamps(_.eventTime)
      .keyBy(_.orderId)
      .process(new OrderTimeoutFunc)

    val timeoutOutput = new OutputTag[String]("timeout")

    stream.getSideOutput(timeoutOutput).print()
    stream.print()
    env.execute()
  }

  class OrderTimeoutFunc extends KeyedProcessFunction[String, OrderEvent, String] {

    lazy val orderState = getRuntimeContext.getState(
      new ValueStateDescriptor[OrderEvent]("save order", classOf[OrderEvent])
    )

    override def processElement(i: OrderEvent, context: KeyedProcessFunction[String, OrderEvent, String]#Context, collector: Collector[String]): Unit = {

      if (i.eventType.equals("create")) {
        if (orderState.value() == null) {
          orderState.update(i)
          context.timerService().registerEventTimeTimer(i.eventTime + 5000L)
        }
      } else {
        orderState.update(i)
        collector.collect("已经支付的订单ID是:" + i.orderId)
      }
    }
    
    override def onTimer(timestamp: Long, ctx: KeyedProcessFunction[String, OrderEvent, String]#OnTimerContext, out: Collector[String]): Unit = {
      val order = orderState.value()

      if (order != null && order.eventType.equals("create")) {
        ctx.output(new OutputTag[String]("timeout"), "超时订单的ID为:" + order.orderId)
      }

      orderState.clear()
    }
  }
}

你可能感兴趣的:(bigdata)