Opentelemetry协议,是CNCF(Cloud Native Computing Foundation-云原生计算基金会)定义的最新一代的可观测规范(目前还在孵化中),该规范定义了可观测性的三大支柱:metrics、trace、log(指标、链路、日志)。但是如果仅仅是将这三支柱的数据收集起来,而不进行关联,那所谓的可观测性与传统的监控工具(APM、日志、zabbix等)又有何区别,难道说仅仅是一套监控工具的集合吗?所以这里引申出一个很重要的观念:TAG(标签),例如前后端打通的triceID,在某种程度上也可以看做是一个tag,将指标链路日志进行初步关联的host也可以看做是一个tag,其他的例如项目、环境、版本号等等都是一个个的tag!总之,通过TAG可以实现数据的关联,以及更多的自定义的可观测性玩法,就显得尤为重要。DF目前架构中所有的可观测项均支持tag的设置,理论上tag数量无上限。
举例:生活中常见的现象就是找工作或者hr招聘,招聘往往会有比较具体的要求,例如xx岗位,需要具备编程技能、计算机常识、本科学位、n年工作经验等等,这一个个要求就好比标签,只有满足标签的人才有可能得到这个岗位,那在IT系统里,就可以是,xx服务器上,跑了xx应用,xx数据库,xxnginx,环境是xx环境,负责人是xxx,当出现问题时,如果标签足够多,很快速的就可以知道哪台服务器有问题,具体影响了哪些业务,哪些应用组件,谁在负责相关的组件,这样就可以快速找到专业对口人员进行修复及弥补,从而提升解决问题的效率。
此文将利用DF从四个示例对tag的可拓展性及可玩性进行试验:
实验一:给服务器进行分组
背景:企业内部往往存在多个项目组或者事业部,不同项目组或事业部在做自己的业务开发时,往往会用专属于自己的基础设施,如果从基础设施到应用都接入了DF进行可观测性,那除了通过分工作空间之外,还有什么方式可以进行项目资源的区分吗?当然有,df设计之初就想到了这种情况,默认的datakit的主配置文件中,有一个global_tag的标签,该标签就是从基础设施层面进行标签的设定,该基础设施上的其他组件,例如应用、数据库都会默认带上这个标签。
1、修改datakit-inputs,配置global_tag
$ vim /usr/local/datakit/conf.d/datakit.conf
# 在global_tags 中添加标签,除默认的三个外,还可添加其他标签
$ [global_tags]
$ cluster = ""
$ project = "solution"
$ site = ""
同理,可将所有相关主机的datakit都加上这个标签。
2、DF-查看服务器分组
实验二:修改datakit识别的hostname
背景:datakit会默认采集主机层面的hostname,然后将识别到的hostname作为全局tag,将所有的指标、链路、日志、对象等数据进行关联,但是,在很多企业内部实际环境中,hostname是无规则的字符串,没有实际意义,而又因为hostname可能被用于连接应用或管理数据库等其他作用,企业内部无法评估更改hostname(将hostname变更为可识别的字符串)会带来怎样的隐患,所以不愿意变更hostname,为了避免风险,datakit内置的ENV_HOSTNAME就可以应对这种情况。
此方法生效后,新的hostname所在的主机数据会重新进行上传,原有hostname的主机数据将不再更新。
建议:如有更改hostname需要,最好在初次安装datakit时进行修改。
1、修改datakit-inputs,配置[environments]
$ vim /usr/local/datakit/conf.d/datakit.conf
# 在[environments]中修改ENV_HOSTNAME,改成方便识别的hostname
[environments]
ENV_HOSTNAME = "118.178.57.79"
2、DF-对比更改前后的数据
实验三:Nginx日志统计分服务进行数据展示
背景:企业内部的nginx,一般担负着域名转发或者服务转发的作用,往往nginx所对应的域名会将前端请求转发至后端多个不同的子域名或者多个不同端口的服务,也有可能nginx直接会承载着多个域名服务,针对这种情况,统一化的nginx监控根本无法满足,那df是如何解决这种问题的呢?
场景:nginx对外暴露18889跟80端口,分别转发至内网服务器118.178.57.79的8999及18999端口。
需求:分别统计nginx18889及80两个端口对应服务的数据,例如PV、UV、请求错误数量等数据。
前置条件:nginx的80及18889的访问日志已分别配置到不同的目录(或者配置成不同的日志文件名称)
1、配置nginx自身指标监控
详细配置参考[nginx可观测性最佳实践]https://www.yuque.com/dataflu...
开启nginx.conf自身性能指标统计模块
查看nginx的http_stub_status_module模块是否已打开
(此示例已打开)
在Nginx.conf中增添nginx_status的location转发
$ cd /etc/nginx
//nginx路径根据实际情况而定
$ vim nginx.conf
$ server{
listen 80;
server_name localhost;
//端口可自定义
location /nginx_status {
stub_status on;
allow 127.0.0.1;
deny all;
}
}
检查该模块是否已正常开通:
linux环境:curl http://127.0.0.1/nginx_status
会出现如下数据:
接下来执行 nginx -s reload重新加载nginx
Datakit中开启nginx.inputs:
$ cd /usr/local/datakit/conf.d/nginx/
$ cp nginx.conf.sample nginx.conf
$ vim nginx.conf
修改如下内容
[[inputs.nginx]]
url = http://localhost/nginx_status
保存nginx.conf文件后重启datakit
$ service datakit restart
2、分别配置配置80及18889服务对应的日志监控
$ cd /usr/local/datakit/conf.d/log/
$ cp logging.conf.sample nginx80.conf
$ vim nginx80.conf
## 修改log路径为正确的应用日志的路径
## source 、service 、pipeline 为必填字段,可以直接用应用名称,用以区分不同的日志名称
## 添加tag dominname
## 修改如下内容:
[[inputs.logging]]
logfiles = ["/var/log/nginx/80/access.log","/var/log/nginx/80/error.log" ]
source = "nginx"
service = "nginx"
pipeline = "nginx.p"
[inputs.logging.tags]
domainname = "118.178.226.149:80"
$ cd /usr/local/datakit/conf.d/log/
$ cp logging.conf.sample nginx18889.conf
$ vim nginx18889.conf
## 修改log路径为正确的应用日志的路径
## source 、service 、pipeline 为必填字段,可以直接用应用名称,用以区分不同的日志名称
## 添加tag dominname
## 修改如下内容:
[[inputs.logging]]
logfiles = ["/var/log/nginx/18889/access.log","/var/log/nginx/18889/error.log" ]
source = "nginx"
service = "nginx"
pipeline = "nginx.p"
[inputs.logging.tags]
domainname = "118.178.226.149:18889"
3、配置自定义视图(通过tag区分域名)
创建步骤参考[创建场景及视图]https://www.yuque.com/dataflu...
步骤:登录DF—>场景—>新建场景—>新建空白场景—>系统视图(创建NGINX)
重点:在系统模板上修改nginx视图相关配置
1、进入视图编辑状态,点击修改视图变量,添加视图变量
L::nginx:(distinct(domainname
)){host='#{host}'}
注释:继承nginx指标中的host,在L(日志)中查询nginx日志中不同的domainname
4、df-分服务数据展示
同理:可以通过打不同的tag,用以区分不同的project、不同的负责人、不同的业务模块、不同的环境等等等等,tag具体的能力取决于你的想象空间。
实验四:通过tag确认服务具体owner,进行告警通知
背景:企业内部随着企业业务的发展,微服务、容器被大量使用,服务组件越来越多,相应的开发及运维人员也越来越多,每个人的分工也越来越细,当业务系统或IT系统出现故障,最佳的告警实践就是可以直接指定相关负责人员,从而提高告警闭环的效率,这种方式常用的方式是告警只发送给相关的人员,或者是jira指派工单,那DF是怎么操作的呢?DF中只需要在具体的可观测inputs中添加tag(理论上支持无上限的tag数量),例如在nginx-inputs中添加自定义tag,owner = "xxx",然后在异常检测中将owner设置为变量,异常检测就可以自动识别该字段并发送至钉钉或企业微信群,效果如下:
例如在上述的nginx自定义日志中进行添加: