Flink 实时 metrics

Flink 实时 metrics
目前我们的 flink 任务跑在 yarn 集群上,在面对以下问题时

  1. 常驻实时 job 是否在稳定运行?
  2. 实时数据的处理能力如何?消费过慢?是否需要申请更多资源提升消费能力?
  3. 实时数据质量可靠?是否有丢数据的风险?
  4. 实时任务现有的资源是否足够支撑现有的数据量?资源是否闲置浪费?

虽然 flink web ui 提供了一些监控信息,但是对开发还是不够友好,所以我们利用 flink metrics + prometheus + grafana 搭建了一套实时监控看板,有利于收集 flink 任务的实时状态。

首先介绍下 Flink Metric

  1. Metric Types

    1. Counter: 表示收集的数据是按照某个趋势(增加/减少)一直变化的
    2. Gauge: 表示搜集的数据是一个瞬时的值,与时间没有关系,可以任意变高变低,往往可以用来记录内存使用率、磁盘使用率等。
    3. Histogram: 统计数据的分布情况。
    4. Meter:度量一系列事件发生的速率(rate)。
  2. Metric Reporters

    1. Metrics 信息可以通过 flink-conf.yaml 配置,在 job 启动的时候实时上报到外部系统上。
  3. System Metrics

    1. Flink 内部会预定义一些 Metrics 指标信息,包含 CPU,Memory, IO,Thread,Network,JVM GarbageCollection 等信息
  4. User Defined Metrics

    1. 用户可以自己根据自己的业务需要,自定义一些监控指标
val counter = getRuntimeContext()
  .getMetricGroup()
  .addGroup("MyMetricsKey", "MyMetricsValue")
  .counter("myCounter")

Metric 监控搭建

  1. 梳理监控指标
    a. 系统指标

    1. job 数量的监控

      1. 常驻 job 数量的监控
      2. 及时发现 job 运行过程中的重启,失败问题
    2. 算子消息处理的 numRecordsIn 和 numRecordsOut

      1. 线图趋势掌握任务处理的负载量
      2. 及时发现job资源分配是否合理,尽量避免消息波动带来的系统延迟增高
    3. 消息延迟监控

      1. Flink 算子之间消息传递的最大,最小,平均延迟。
      2. 及时发现任务消息的处理效率波动
    4. 内存,JVM GC 的状态

      1. taskmanager 的内存,GC 状态的线图波动。
      2. 及时发现系统中资源的利用率,合理分配集群资源。

    b. 自定义监控指标

    1. Source 端我们采用 kafka 作为数据的输入源
      a. 通过监控 kafka consumer group 的 lagOffset 来发现flow 的数据消费能力是否有降低。
    2. Sink 端我们自己实现了 clickhouse,hbase,hive,kafka 等多端输出,为了避免 Flink 的流式处理对 Sink 终端造成过大的写入压力,我们抽象了一个批次的 buffer cache,当数据的批次达到了阀值,或者 buffer cache 一定的时间间隔,就将 buffer cache 内的数据一次性 doFlush 到各端存储, 各个 sink实例 只需实现 BucketBufferedSink.doFlush 方法

由于 Sink 过程中,可能面临部分 buffer cache 中的数据在 flush 过程中因为某种原因失败而导致数据丢失,所以必须要及时发现数据不一致,以便重跑任务恢复数据。我们在 BucketBufferedSink 之上抽象了 SinkMetric,并在 BucketBufferedSink.addBuffer() 做了 sinkPushCounter.inc 埋点计数BucketBufferedSink.flush() 做了 sinkFlushCounter.inc()

  1. sinkPushCounter 统计进入到 buffercache 的数据条数
  2. sinkFlushCounter 统计 buffercache flush 出去的数据条数 *
  3. 实施搭建监控系统
    a. 系统部署图
    Flink 实时 metrics_第1张图片
    b. 在 flink-conf.yml 中 配置 flink metrics reporter,可让 flink 自动的上报 metric 信息

    # metrics configuration
    metrics.reporter.grph.class: org.apache.flink.metrics.graphite.GraphiteReporter
    metrics.reporter.grph.host: ${host}
    metrics.reporter.grph.port: ${port}
    metrics.reporter.grph.protocol: TCP
    # 运行时指定
    metrics.reporter.grph.prefix="flink.${JOB_NAME}"
    
    metrics.latency.interval: 30000
    1. 通过 flink run -yD metrics.reporter.grph.prefix="${JOB_NAME}" 的方式可动态指定各个实时任务的监控进行分组。
    2. 通过 metrics.latency.interval: 30000 设置每 30s flink 自动上报算子之间的延迟信息。

    c. Graphite-exporter 作为 prometheus 收集系统的网关,是所有metric 信息的上报入口

    1. 通过配置 mapping.yml 转化为有 label 维度的 Prometheus 数据,推送给 Prometheus
mappings:
- match: 'flink\.([\w-]+)\.(.*)\.taskmanager\.(\w+)\.Status\.(\w+)\.(\w+)\.([\w-]+)\.(\w+)'
  match_type: regex
  name: flink_taskmanager_Status_${4}_${5}_${6}_${7}
  labels:
    host: $2
    container: $3
    job_name: $1
- match: 'flink\.([\w-]+)\.(.*)\.taskmanager\.(\w+)\.([\w-]+)\.(.+)\.(\d+)\.Shuffle\.Netty\.(.*)'
  match_type: regex
  action: drop
  name: dropped
- match: 'flink\.([\w-]+)\.(.*)\.taskmanager\.(\w+)\.([\w-]+)\.(.+)\.(\d+)\.(.*)\.(Buffers|buffers)\.(.*)$'
  match_type: regex
  action: drop
  name: dropped
- match: 'flink\.([\w-]+)\.(.*)\.taskmanager\.(\w+)\.([\w-]+)\.(.+)\.(\d+)\.([\w]+)\-([\w]+)\.(\w+)'
  match_type: regex
  name: flink_taskmanager_operator_${7}_${9}
  labels:
    host: $2
    container: $3
    job_name: $1
    operator: $5
    task: $6
    custom_metric: $7
    sink_instance: $8
- match: 'flink\.([\w-]+)\.(.*)\.taskmanager\.(\w+)\.([\w-]+)\.(.+)\.(\d+)\.([\w-]+)\.(\w+)'
  match_type: regex
  name: flink_taskmanager_operator_${7}_${8}
  labels:
    host: $2
    container: $3
    job_name: $1
    operator: $5
    task: $6
- match: 'flink\.([\w-]+)\.(.*)\.jobmanager\.Status\.(.*)'
  match_type: regex
  name: flink_jobmanager_Status_$3
  labels:
    host: $2
    job_name: $1
- match: 'flink\.([\w-]+)\.(.*)\.jobmanager.(\w+)$'
  match_type: regex
  name: flink_jobmanager_${3}
  labels:
    host: $2
    job_name: $1
- match: 'flink\.([\w-]+)\.(.*)\.jobmanager.(.*)\.(\w+)'
  match_type: regex
  name: flink_jobmanager_${4}
  labels:
    host: $2
    job_name: $1
- match: 'flink\.([\w-]+)\.(.*)\.jobmanager.(.*)\.(.*)\.(.*)'
  match_type: regex
  name: flink_jobmanager_${4}_${5}
  labels:
    host: $2
    job_name: $1
- match: "."
  match_type: regex
  action: drop
  name: "dropped"

实时监控看板展示

  1. 通过 kafka lag 及时发现数据堆积导致的消费延迟。
    Flink 实时 metrics_第2张图片
  2. 通过检测在线运行 Job 数量,及时发现Job运行失败的问题。
    Flink 实时 metrics_第3张图片
  3. 通过统计 Source 端 和 Sink 端的消息处理速度,及时反应当前任务的处理能力。
  4. 通过消息的延时指标,发现 Job 的流处理的响应延迟。
    Flink 实时 metrics_第4张图片
  5. 通过 Jvm 内存及 GC 状态,合理分配系统资源。
    Flink 实时 metrics_第5张图片
  6. 通过Sink 算子的 Push to BufferCache 数量与 BufferCache Flush 到各端存储数量的对比,及时发现数据丢失问题。
    Flink 实时 metrics_第6张图片

引用文章

你可能感兴趣的:(Flink 实时 metrics)