重磅:SRS支持Prometheus Exporter

Written by 张俊勤, 孟晓伟.

SRS的可观测性是支撑业务的运营的能力,主要指监控(Prometheus Exporter)、分布式链路追踪(APM)、上下文日志(Cloud Logging)三个核心能力,以及基于这些能力的运营大盘、监控系统、问题排查、日志收集和分析等功能。

Why Important?

可观测性,在云原生中有详细的定义,参考OpenTelemetry.io,从可观测性上看其实就是三个问题:

  • 监控指标(Metrics):就是我们一般所理解的监控告警。监控一般是将一些数据聚合,体现系统在不同层面的状态,当达到某个状态后告警。比如区域的水位值,达到一定水位后就需要自动或人工扩容,或者调整调度降低这个区域的负载。
  • 分布式跟踪(Tracing):我们排查问题时,一般是按照会话或请求维度排查,在系统中会涉及多个服务器,比如播放一个流会经过API、调度、边缘、上游服务器、源站等,如何把这个全链路的信息给出来,就是分布式追踪(Tracing)。明显这是非常高效的解决问题的方法,问题迟迟得不到解决甚至不了了之,迟早会失去用户。
  • 日志(Logging): 就是我们一般所理解的日志,也是一般研发所依赖的排查问题的几乎唯一的方法。其实日志是最低效的方法,因为日志没有上下文,无法在分布式系统中分离出某个会话的多个日志。日志只有具备追踪的能力,或者在关联到Traceing中,这样才能更高效。

Note: 上图请参考Metrics, tracing, and logging

Note: SRS一直吹的可追踪日志,其实是在日志中加入了一定追踪能力,不过没有分布式追踪能力,也没有标准化(工具链就不完善,也无法让业务系统采用同样的日志,无法让整个系统具备可观测性)。

Note: SRS的错误日志还有堆栈信息,这对于Java或Go等现代语言是很普通的能力,但是对于C++就是对问题排查非常有用的能力了。

回头看我们之前分析的几个问题,如何使用这三个能力来解决:

  • 收到了系统告警:根据告警的信息,比如是错误率上升,还是耗时增加,在追踪(Tracing)系统中过滤,可以看到具体的请求和会话,就可以获取相关的详细日志。
  • 用户反馈的具体问题:根据业务ID,查询到请求或会话的信息,在追踪(Tracing)系统中可以看到整个链路,也可以查询到每个环节的详细日志。
  • 需要重复开发运营系统问题:标准化的可观测,可以直接对接到Prometheus和Grafana,以及云存储比如CLS,直接使用这些标准化的工具,不用再重复开发。

Note: 上图请参考Loki: Prometheus-inspired, open source logging for cloud natives

Note: 这套系统就没有问题吗?其实也有,那就是超级大规模的系统不能用,比如上千万并发的系统,产生的日志非常多,成本太高。如果你是SRS的用户,你就不用想了,你的系统达不到这么高量级。只有云计算本身的可观测性不能直接使用云原生的这套系统,而一般遵循这个标准定制。一般的业务规模,完全是够用的,而是成本非常非常低。

针对上面的问题,SRS的运营能力分成几个独立的部分,首先是提供了Prometheus可以对接的Exporter,Prometheus可以直接从SRS拉取监控数据,而不依赖外部第三方服务,如下图所示:

+-----+               +-----------+     +---------+
| SRS +--Exporter-->--| Promethus +-->--+ Grafana +
+-----+   (HTTP)      +-----------+     +---------+

Note: Promethus是云原生的标准监控系统,在K8s中部署也可以使用这个能力,比如通过Pod发现和采集数据。

下面是详细的使用说明。

Usage for SRS Exporter

首先,编译和启动SRS,要求SRS 5.0.86+

./configure && make
env SRS_ENV_ONLY=on SRS_EXPORTER_ENABLED=on SRS_LISTEN=1935 \
  ./objs/srs

Note: 我们使用环境变量方式配置SRS,不依赖配置文件。当然使用conf/prometheus.conf启动也可以。

Note: SRS启动成功后,可以打开http://localhost:9972/metrics验证,能看到返回指标数据就是成功了。

接着,我们启动FFmpeg推流:

docker run --rm -it ossrs/srs:encoder ffmpeg -re -i doc/source.flv -c copy \
  -f flv rtmp://host.docker.internal/live/livestream

然后,启动node_exporter,收集节点的数据,这样和SRS的服务器数据可以形成完整的监控数据:

docker run --rm -p 9100:9100 prom/node-exporter

Note: 用Docker启动node_exporter数据不准,需要特殊的权限而mac不支持。实际场景请使用二进制直接在主机上启动,可以从这里下载对应系统的二进制。

Note: node_exporter启动后,可以打开http://localhost:9100/metrics验证,能看到返回指标数据就是成功了。

最后,编写配置文件prometheus.yml,内容如下:

scrape_configs:
  - job_name: "node"
    metrics_path: "/metrics"
    scrape_interval: 5s
    static_configs:
      - targets: ["host.docker.internal:9100"]
  - job_name: "srs"
    metrics_path: "/metrics"
    scrape_interval: 5s
    static_configs:
      - targets: ["host.docker.internal:9972"]

Note: 默认scrape_interval是1m即一分钟,为了测试方便我们设置为5s

启动Prometheus:

docker run --rm -v $(pwd)/prometheus.yml:/etc/prometheus/prometheus.yml \
  -p 9090:9090 prom/prometheus

打开Prometheus: Targets,可以看到抓取数据的状态。打开Prometheus: Graph,输入一下语句,可以验证是否正常:

rate(srs_receive_bytes_total[10s])*8/1000

这个语句是计算输入的带宽,也就是直播流的码率,如下图所示:

虽然Prometheus也能生成图,不过一般是使用Grafana对接Prometheus展示图表。

Usage for Grafana

首先启动Grafana:

docker run --rm -it -p 3000:3000 \
  -e GF_SECURITY_ADMIN_USER=admin \
  -e GF_SECURITY_ADMIN_PASSWORD=12345678 \
  -e GF_USERS_DEFAULT_THEME=light \
  grafana/grafana

然后打开Grafana页面:http://localhost:3000/

输入用户名admin,以及密码12345678就可以进入Grafana后台了。

执行命令添加Prometheus的DataSource:

curl -s -H "Content-Type: application/json" \
    -XPOST http://admin:12345678@localhost:3000/api/datasources \
    -d '{
    "name": "prometheus",
    "type": "prometheus",
    "access": "proxy", "isDefault": true,
    "url": "http://host.docker.internal:9090"
}'

执行命令导入HelloWorld图表:

curl https://raw.githubusercontent.com/ossrs/srs-grafana/main/dashboards/helloworld.json | \
curl -s -H "Content-Type: application/json" \
    -XPOST http://admin:12345678@localhost:3000/api/dashboards/db \
    --data-binary @-

导入后就可以在仪表盘中看到了,如下图所示:

我们还提供了更加完整的仪表盘,可以在srs-grafana中看到,如下图所示:

欢迎一起来完善SRS仪表盘。

你可能感兴趣的:(重磅:SRS支持Prometheus Exporter)