背景
在高可用Prometheus:问题集锦文章中有简单提到prometheus 的高可用方案,尝试了联邦、remote write 之后,我们最终选择了 thanos 作为监控配套组件,利用其全局视图来管理我们的多地域、300+集群的监控数据。本文主要介绍 thanos 的一些组件使用和心得体会。
prometheus官方的高可用有几种方案:
使用官方建议的多副本 + 联邦仍然会遇到一些问题,本质原因是prometheus的本地存储没有数据同步能力,要在保证可用性的前提下再保持数据一致性是比较困难的,基本的多副本 proxy 满足不了要求,比如:
目前大多数的 prometheus 的集群方案是在存储、查询两个角度上保证数据的一致:
实际需求
随着我们的集群规模越来越大,监控数据的种类和数量也越来越多:如master/node 机器监控、进程监控、4 大核心组件的性能监控,pod 资源监控、kube-stats-metrics、k8s events监控、插件监控等等。除了解决上面的高可用问题,我们还希望基于 prometheus 构建全局视图,主要需求有:
在调研了大量的开源方案(cortex/thanos/victoria/..)和商业产品之后,我们选择了 thanos,准确的说,thanos只是监控套件,与 原生prometheus 结合,满足了长期存储+ 无限拓展 + 全局视图 + 无侵入性的需求。
thanos 架构
thanos 的默认模式:sidecar 方式
除了 这个sidecar 方式,thanos还有一种不太常用的receive 模式,后面会提到。
Thanos是一组组件,在官网上可以看到包括:
除了官方提到的这些,其实还有:
看起来组件很多,但其实部署时二进制只有一个,非常方便。只是搭配不同的参数实现不同的功能,如 query 组件就是 ./thanos query,sidecar 组件就是./thanos sidecar,组件all in one,代码只有一份,体积很小。
其实核心的sidecar+query就已经可以运行,其他的组件只是为了实现更多的功能
最新版 thanos 在 这里下载release,对于 thanos这种仍然在修bug、迭代功能的软件,有新版本就不要用旧的。
组件与配置
下面会介绍如何组合thanos组件,来快速实现你的 prometheus 高可用,因为是快速介绍,和官方的 quick start有一部分雷同,且本文截止2020.1 月的版本,不知道以后会thanos 会迭代成什么样子
thanos 是无侵入的,只是上层套件,因此你还是需要部署你的 prometheus,这里不再赘述,默认你已经有一个单机的 prometheus在运行,可以是 pod 也可以是主机部署,取决于你的运行环境,我们是在 k8s 集群外,因此是主机部署。prometheus采集的是地域A的监控数据。你的 prometheus配置可以是:
启动配置:
"./prometheus--config.file=prometheus.yml --log.level=info --storage.tsdb.path=data/prometheus --web.listen-address='0.0.0.0:9090' --storage.tsdb.max-block-duration=2h --storage.tsdb.min-block-duration=2h --storage.tsdb.wal-compression --storage.tsdb.retention.time=2h --web.enable-lifecycle"
web.enable-lifecycle一定要开,用于热加载reload你的配置,retention保留 2 小时,prometheus 默认 2 小时会生成一个 block,thanos 会把这个 block 上传到对象存储。
采集配置:prometheus.yml
global: scrape_interval: 60s evaluation_interval: 60s external_labels: region: 'A' replica: 0rule_files:scrape_configs: - job_name: 'prometheus' static_configs: - targets: ['0.0.0.0:9090'] - job_name: 'demo-scrape' metrics_path: '/metrics' params: ...
这里需要声明external_labels,标注你的地域。如果你是多副本运行,需要声明你的副本标识,如 0号,1,2 三个副本采集一模一样的数据,另外2个 prometheus就可以同时运行,只是replica值不同而已。这里的配置和官方的 federation差不多。
对 prometheus 的要求:
关键的步骤来了,最核心莫过于 sidecar组件。sidecar是 k8s 中的一种模式
Sidecar 组件作为 Prometheus server pod 的 sidecar 容器,与 Prometheus server 部署于同一个 pod 中。 他有两个作用:
当然,这不意味着Prometheus可以是完全无状态的,因为如果它崩溃并重新启动,您将丢失2个小时的指标,不过如果你的 prometheus 也是多副本,可以减少这2h 数据的风险。
sidecar配置:
./thanos sidecar --prometheus.url="http://localhost:8090" --objstore.config-file=./conf/bos.yaml --tsdb.path=/home/work/opdir/monitor/prometheus/data/prometheus/"
配置很简单,只需要声明prometheus.url和数据地址即可。objstore.config-file是可选项。如果你要把数据存放在对象存储(这也是推荐做法),就配置下对象存储的账号信息。
thanos 默认支持谷歌云/AWS等,以 谷歌云为例,配置如下:
type: GCSconfig: bucket: "" service_account: ""
因为thanos默认还不支持我们的云存储,因此我们在 thanos代码中加入了相应的实现,并向官方提交了 pr。
需要注意的是:别忘了为你的另外两个副本 1号 和 2号prometheus都搭配一个 sidecar。如果是 pod运行可以加一个 container,127 访问,如果是主机部署,指定prometheus端口就行。
另外 sidecar是无状态的,也可以多副本,多个 sidecar 可以访问一份 prometheus 数据,保证 sidecar本身的拓展性,不过如果是 pod 运行也就没有这个必要了,sidecar和prometheus 同生共死就行了。
sidecar 会读取prometheus 每个 block 中的 meta.json信息,然后扩展这个 json 文件,加入了 Thanos所特有的 metadata 信息。而后上传到块存储上。上传后写入thanos.shipper.json 中
sidecar 部署完成了,也有了 3 个一样的数据副本,这个时候如果想直接展示数据,可以安装 query 组件
Query组件(也称为“查询”)实现了Prometheus 的HTTP v1 API,可以像 prometheus 的 graph一样,通过PromQL查询Thanos集群中的数据。
简而言之,sidecar暴露了StoreAPI,Query从多个StoreAPI中收集数据,查询并返回结果。Query是完全无状态的,可以水平扩展。
配置:
"./thanos query --http-address="0.0.0.0:8090" --store=relica0:10901 --store=relica1:10901 --store=relica2:10901 --store=127.0.0.1:19914 "
store 参数代表的就是刚刚启动的 sidecar 组件,启动了 3 份,就可以配置三个relica0、relica1、relica2,10901 是 sidecar 的默认端口。
http-address 代表 query 组件本身的端口,因为他是个 web 服务,启动后,页面是这样的:
和 prometheus 几乎一样对吧,有了这个页面你就不需要关心最初的 prometheus 了,可以放在这里查询。
点击 store,可以看到对接了哪些 sidecar。
query 页面有两个勾选框,含义是:
你可能注意到了,在第 3 步里,./thanos query有一条–store是 xxx:19914,并不是一直提到的 3 副本,这个 19914 就是接下来要说的store gateway组件。
在第 2 步的 sidecar 配置中,如果你配置了对象存储objstore.config-file,你的数据就会定时上传到bucket 中,本地只留 2 小时,那么要想查询 2 小时前的数据怎么办呢?数据不被 prometheus 控制了,应该如何从 bucket 中拿回来,并提供一模一样的查询呢?
Store gateway 组件:Store gateway 主要与对象存储交互,从对象存储获取已经持久化的数据。与sidecar一样,Store gateway也实现了store api,query 组可以从 store gateway 查询历史数据。
配置如下:
./thanos store --data-dir=./thanos-store-gateway/tmp/store --objstore.config-file=./thanos-store-gateway/conf/bos.yaml --http-address=0.0.0.0:19904 --grpc-address=0.0.0.0:19914 --index-cache-size=250MB --sync-block-duration=5m --min-time=-2w --max-time=-1h
grpc-address就是store api暴露的端口,也就是query 中–store是 xxx:19914的配置。
因为Store gateway需要从网络上拉取大量历史数据加载到内存,因此会大量消耗 cpu 和内存,这个组件也是 thanos 面世时被质疑过的组件,不过当前的性能还算可以,遇到的一些问题后面会提到。
Store gateway也可以无限拓展,拉取同一份 bucket 数据。
放个示意图,一个 thanos 副本,挂了多个地域的 store 组件
其中一个地域的数据统计:
查询一个月历史数据速度还可以,主要是数据持久化没有运维压力,随意扩展,成本低。
到这里,thanos 的基本使用就结束了,至于 compact 压缩和 bucket 校验,不是核心功能,compact我们只是简单部署了一下,rule组件我们没有使用,就不做介绍了。
有了多地域多副本的数据,就可以结合 grafana 做全局视图了,比如:
按地域和集群查看 etcd 的性能指标:
按地域、集群、机器查看核心组件监控,如多副本 master 机器上的各种性能
数据聚合在一起之后,可以将所有视图都集中展示,比如还有这些面板:
前面提到的所有组件都是基于 sidecar 模式配置的,但thanos还有一种Receive模式,不太常用,只是在Proposals中出现
因为一些网络限制,我们之前尝试过Receive方案,这里可以描述下Receive的使用场景:
不过Receive毕竟不是默认方案,如果不是特别需要,还是用默认的 sidecar 为好
压缩:官方文档有提到,使用sidecar时,需要将 prometheus 的–storage.tsdb.min-block-duration 和 –storage.tsdb.max-block-duration,这两个值设置为2h,两个参数相等才能保证prometheus关闭了本地压缩,其实这两个参数在 prometheus -help 中并没有体现,prometheus 作者也说明这只是为了开发测试才用的参数,不建议用户修改。而 thanos 要求关闭压缩是因为 prometheus 默认会以2,25,25*5的周期进行压缩,如果不关闭,可能会导致 thanos 刚要上传一个 block,这个 block 却被压缩中,导致上传失败。
不过你也不必担心,因为在 sidecar 启动时,会检查这两个参数,如果不合适,sidecar会启动失败
store-gateway: store 组件资源消耗是最大的,毕竟他要拉取远程数据,并加载到本地供查询,如果你想控制历史数据和缓存周期,可以修改相应的配置,如
--index-cache-size=250MB --sync-block-duration=5m --min-time=-2w 最大查询 1 周--max-time=-1h
store-gateway 默认支持索引缓存,来加快tsdb 块的查找速度,但有时候启动会占用了大量的内存,在 0.11.0之后的版本做了修复,可以查看这个issue
Prometheus 2.0 已经对存储层进行了优化。例如按照时间和指标名字,连续的尽量放在一起。而 store gateway可以获取存储文件的结构,因此可以很好的将指标存储的请求翻译为最少的 object storage 请求。对于那种大查询,一次可以拿成百上千个 chunks 数据。
而在 store 的本地,只有 index 数据是放入 cache的,chunk 数据虽然也可以,但是就要大几个数量级了。目前,从对象存储获取 chunk 数据只有很小的延时,因此也没什么动力去将 chunk 数据给 cache起来,毕竟这个对资源的需求很大。
store-gateway中的数据:
每个文件夹中其实是一个个的索引文件index.cache.json
prometheus数据越来越多,查询一定会越来越慢,thanos提供了一个compactor组件来处理,他有两个功能,
通过以上的方式,有效了优化查询,但是并不是万能的。因为业务数据总在增长,这时候可能要考虑业务拆分了,我们需要对业务有一定的估算,例如不同的业务存储在不同bucket里(需要改造或者多部署几个 sidecar)。例如有5个bucket,再准备5个store gateway进行代理查询。减少单个 store 数据过大的问题。
第二个方案是时间切片,也就是就是上面提到的store gateway可以选择查询多长时间的数据。支持两种表达,一种是基于相对时间的,例如–max-time 3d前到5d前的。一种是基于绝对时间的,19年3月1号到19年5月1号。例如想查询3个月的数据,一个store代理一个月的数据,那么就需要3个store来合作。
query组件启动时,默认会根据query.replica-label字段做重复数据的去重,你也可以在页面上勾选deduplication 来决定。query 的结果会根据你的query.replica-label的 label选择副本中的一个进行展示。可如果 0,1,2 三个副本都返回了数据,且值不同,query 会选择哪一个展示呢?
thanos会基于打分机制,选择更为稳定的 replica 数据, 具体逻辑在:https://github.com/thanos-io/thanos/blob/55cb8ca38b3539381dc6a781e637df15c694e50a/pkg/query/iter.go