目前关于监控指标, 主流的有 3 个方法(Method):
建议同时使用 RED 和 USE Method, 其中:
如果是通过 Prometheus 监控实现, 那么典型的指标示例如下:
Rate:
sum(rate(request_duration_seconds_count{job="…"}[1m]))
Errors:
sum(rate(request_duration_seconds_count{job="…", status_code!~"2.."}[1m]))
Duration:
histogram_quantile(0.99, sum(rate(request_duration_seconds_bucket{job="…"}[1m])) by (le))
在这里, Duration 推荐使用 50th/90th/99th percentile, 这些会更精确地反映用户真正关心的问题, 同时可以结合 Average Duration 来作为参考.
典型的仪表板示例如下:
这也是无奈之举, 开发并未基于 Prometheus Client 实现 Requests 的相关指标. 而是只记录了 Access 日志, 并将日志吐到 ES 中, 那么我们只能 workaround, 通过 ES 统计日志和关键词、Terms 以实现类似的效果。实现都是可以实现的,但是在实际使用中,也确实发现基于 ES 的监控,性能会差很多。
具体效果如下:
Rate(只能实现每分钟请求数):
以 2xx 举例, Query:
request_path.keyword:(-"/actuator/health" -"/metrics" -"*info*" -"*Eureka*") AND status_code:[200 TO 299]
如上, 排除微服务中场景的监控检查和监控类 url.
下方的 Metric:
Errors:
就是 5xx:
request_path.keyword:(-"/actuator/health" -"/metrics" -"*info*" -"*Eureka*") AND status_code:[500 TO 599]
Duration:
Query 不在区分 status code:
origin_path.keyword:(-"/actuator/health" -"/metrics" -"*info*" -"*Eureka*")
Percentiles 配置如下:
Percentiles
latency
(在我这边的实战中, latency
记录的是 Duration)50,99
即计算 50th, 99th percentilesAverage 配置如下:
Average
latency
最终的效果就是如下:
为了更方便基于 RED Method 的使用, 可以进行下钻排查, 还基于 Grafana Dashboard Links 做了个简单的关联, 方便跳转.
Notes:
关于 Grafana Dashboard Links, 应该会在后续文章中详细介绍.
我们来基于上图, 做一下实战分析.
在过去 7 天里, 发现最大并发 Error 数有 8 个, 最慢 p99 duration 有 6.29s(高于阈值 5s). 我们希望找到对应的 Error 和慢的请求的具体日志.
分析 Errors
对于 Errors, 点击 Rate & Errors
Panel 的 5xx
legend, 会显示如下:
在该 panel 中框选, 缩小时间段, 如下:
发现发生时间为: 2023-05-11 15:58 左右, 点击右上角的 Dashboard Link, 会跳转到 ElasticSearch 快速搜索仪表板 (跳转时会带上同样的时间范围).
因为是分析错误日志, 所以可以 status_code
varible 中, 选择: 500 TO 599
, 直接找到相关日志, 如下:
并可以进一步通过 Logs to Trace 定位.
分析慢请求:
同分析错误请求类似套路:
在 Durations panel 中缩小时间范围, 发现大概时间是: 2023-05-09 14:52 左右
通过 Dashboard Links 跳转到ElasticSearch 快速搜索仪表板
添加 ad hoc filter: latency>5000
, 找到具体日志:
本文介绍了 3 种常用的监控方法:
并重点基于 RED Method 介绍:
以及实际基于 RED Method 分析用例.
希望对各位读者有所帮助.
三人行, 必有我师; 知识共享, 天下为公. 本文由东风微鸣技术博客 EWhisper.cn 编写.