源码地址: https://github.com/coderTomato/microservicecloud
打开官网就可以看到对 Sleuth 的一个简单功能介绍。
(Spring Cloud Sleuth可以实现)针对Spring Cloud应用程序的分布式跟踪,兼容Zipkin、 HTrace 和基于日志的(如 Elk)跟踪。
Spring Cloud Sleuth 为 Spring Cloud 实现了一个分布式跟踪解决方案,大量借鉴了 Dapper、Zipkin 和 HTrace。对于大多数用户来说,Sleuth 是不可见的,并且你的当前应用与 外部系统的所有交互都是自动检测的。你可以简单地在日志中捕获数据,或者将其发送到远程收集器中。
Spring Cloud Sleuth 的官方文档中可以查看到服务跟踪的基本理论。
服务跟踪理论中存在有跟踪单元的概念,而跟踪单元中涉及三个重要概念:trace、span, 与 annotation。
Spring Cloud Sleuth 为服务之间调用提供链路追踪功能。为了唯一的标识 trace 与 span, 系统为每个 trace 与 span 都指定了一个 64 位长度的数字作为 ID,即 traceID 与 spanID。
(2) annotation
用于及时记录事件的实体,表示一个事件发生的时间点。这些实体本身仅仅是为了原理 叙述的方便,对于 Spring Cloud Sleuth 本身并没有什么必要性。这样的实体有多个,常用的有四个:
(1) 日志生成
只要在工程中添加了 Spring Cloud Sleuth 依赖, 那么工程在启动与运行过程中就会自动 生成很多的日志。Sleuth 会为日志信息打上收集标记,需要收集的设置为 true,不需要的设 置为 false。这个标记可以通过在代码中添加自己的日志信息看到。
(2) 日志采样率
Sleuth 对于这些日志支持抽样收集,即并不是所有日志都会上传到日志收集服务器,日 志收集标记就起这个作用。默认的采样比例为: 0.1,即 10%。在配置文件中可以修改该值。 若设置为 1 则表示全部采集,即 100%。
Sleuth 默认采用的是水塘抽样算法。
(1) 创建工程
复制 msc-provider-8081,并重命名为 msc-sleuth-provider-8081。
(2) 导入依赖
org.springframework.cloud
spring-cloud-starter-sleuth
(1) 创建工程
复制 msc-consumer8080,并重命名为 msc-sleuth-consumer8080
(2) 导入依赖
org.springframework.cloud
spring-cloud-starter-sleuth
先启动msc-eureka8761
再启动msc-sleuth-provider8081
最后启动msc-sleuth-consumer8080
访问
zipkin 是 Twitter 开发的一个分布式系统 APM(Application Performance Management,应 用程序性能管理)工具,其是基于 Google Dapper 实现的,用于完成日志的聚合。其与 Sleuth 联用,可以为用户提供调用链路监控可视化 UI 界面。
在 Spring Cloud Sleuth + Zipkin 系统中,客户端中一旦发生服务间的调用,就会被配置在 微服务中的 Sleuth 的监听器监听,然后生成相应的 Trace 和 Span 等日志信息,并发送给 Zipkin 服务端。发送的方式主要有两种,一种是通过 via HTTP 报文的方式,也可以通过 Kafka、 RabbitMQ 发送。
在终端执行命令curl -sSL https://zipkin.io/quickstart.sh | bash -s
java -jar zipkin.jar
复制 msc-sleuth-provider-8081,并重命名为 msc-via-sleuth-provider-8081
删除原来的 sleuth 依赖,导入 zipkin 依赖
打开 spring-cloud-starter-zipkin 依赖,可以看到其已经包含了 spring-cloud-starter-sleuth 依赖,所以可以将原来导入的 sleuth 依赖删除。
org.springframework.cloud
spring-cloud-starter-zipkin
在 spring 属性下注册 zipkin 服务器地址,并设置采样比例。
spring:
#指定zipkin服务器地址
zipkin:
base-url: http://localhost:9411/
#设置采样比例为1.0 即全部都需要,默认为0.1
sleuth:
sampler:
probability: 1.0
复制 msc-sleuth-consumer8080,并重命名为 msc-via-sleuth-consumer8080。
删除原来的 sleuth 依赖,导入 zipkin 依赖。
org.springframework.cloud
spring-cloud-starter-zipkin
在 spring 属性下注册 zipkin 服务器地址,并设置采样比例。
spring:
#指定zipkin服务器地址
zipkin:
base-url: http://localhost:9411/
#设置采样比例为1.0 即全部都需要,默认为0.1
sleuth:
sampler:
probability: 1.0
默认情况下,Sleuth 是通过将调用日志写入到 via 头部信息中的方式实现链路跟踪的, 但在高并发下,这种方式的效率会非常低,会影响链路信息查看的。此时,可以让 Sleuth 将其生成的调用日志写入到 Kafka 或 RabbitMQ 中,让 zipkin 从这些中间件中获取日志,效率会提高很多。
复制 msc-sleuth-provider8081,并重命名为 msc-sleuth-provider-kafka8081
添加 kafka 依赖
org.springframework.kafka
spring-kafka
(3) 修改配置文件
spring:
zipkin:
# 指定zipkin服务器的消息发送者是kafka
sender:
type: kafka
sleuth:
sampler:
probability: 1.0
# 指定当前Sleuth要连接的Kafka集群
kafka:
bootstrap-servers: node01:9092,node02:9092,node03:9092
复制 msc-sleuth-consumer8080,并重命名为 msc-sleuth-consumer-kafka8080
添加 kafka 依赖。
spring:
zipkin:
# 指定zipkin服务器的消息发送者是kafka
sender:
type: kafka
sleuth:
sampler:
probability: 1.0
# 指定当前Sleuth要连接的Kafka集群
kafka:
bootstrap-servers: node01:9092,node02:9092,node03:9092
java -DKAFKA_BOOTSTRAP_SERVERS=node01:9092 -jar zipkin.jar
访问 http://localhost:8080/consumer/depart/get/1