在大型系统的微服务化架构中,一个系统会被拆分成许多模块。这些模块负责不同的功能,组合成系统,最终可以提供丰富的功能。在这种架构中,一次请求往往需要涉及多个服务。互联网应用构建在不同的软件模块集上,这些软件模块,有可能是由不同的团队开发、可能使用不同的编程语言来实现、有可能部署在了几千台服务器上,横跨多个不同的数据中心,也就意味着这种架构形式也会存在一些问题:
分布式链路追踪(Distributed Tracing),就是将一次分布式请求还原成调用链路,进行日志记录,性能监控,并将一次分布式请求的调用情况集中展示。比如各个服务节点上的耗时、请求具体到达哪台机器上、每个服务节点的请求状态等等。
目前业界比较流行的链路追踪系统如:Twitter 的 Zipkin,阿里的鹰眼,美团的 Mtrace,大众点评的 cat 等,大部分都是基于 Google 发表的 Dapper。Dapper 阐述了分布式系统,特别是微服务架构中链路追踪的概念、数据表示、埋点、传递、收集、存储与展示等技术细节。
SpringCloud Sleuth 主要功能就是在分布式系统中提供追踪的解决方案,并且兼容支持了 Zipkin,只需要在 pom 文件中引入相应的依赖即可。
SpringCloud Sleuth 为 SpringCloud 提供了分布式根据的解决方案。它大量借用了 Google Dapper 的设计。先来了解一下 Sleuth 中的术语和相关概念。
SpringCloud Sleuth 采用的是 Google 的开源项目 Dapper 的专业术语。
span表示调用链路来源,通俗的理解span就是一次请求信息
trace 可以理解为整个调用链路。
Zipkin 是 Twitter 的一个开源项目,它基于 Google Dapper 实现,致力于收集服务的定时数据,以解决微服务架构中的延迟问题,包括数据的收集、存储、查找和展现。我们可以使用它来收集各个服务器上请求链路的跟踪数据,并通过它提供的 REST API 接口来辅助我们查询跟踪数据,以实现对分布式系统的监控程序,从而及时地发现系统中出现的延迟升高问题,并找出系统性能瓶颈的根源。除了面向开发的 API 接口之外,它也提供了方便的 UI 组件来帮助我们直观的搜索跟踪信息和分析请求链路明细,比如:可以查询某段时间内向各用户请求的处理时间等。Zipkin 提供了可插拔数据存储方式:In-Memory、MySQL、Cassandra 以及 Elasticsearch。
上图展示了 Zipkin 的基础架构,它主要由 4 个核心组件构成:
Zipkin 分为两端,一个是 Zipkin 服务端,一个是 Zipkin 客户端,客户端也就是微服务的应用。
客户端会配置服务端的 URL 地址,一旦发生服务间的调用的时候,会被配置在微服务里面的 Sleuth 的监听器监听,并生成相应的 Trace 和 Span 信息发送给服务端。
发送的方式主要有两种,一种是 HTTP 报文的方式,还有一种是消息总线的方式,如 RabbitMQ。
不论哪种方式,我们都需要:
从 SpringBoot 2.0 开始,官方就不再支持使用自建 Zipkin Server 的方式进行服务链路追踪,而是直接提供了编译好的 jar 包来给我们使用。可以从官网上下载 Zipkin 的 Web UI,下载地址:https://dl.bintray.com/openzipkin/maven/io/zipkin/java/zipkin-server/,我们这里下载的是 zipkin-server-2.12.9-exec.jar
在命令行输入 java -jar zipkin-server-2.12.9-exec.jar
启动 Zipkin Server。
http://127.0.0.1:9411
即可进入到 Zipkin Sever 的管理后台<dependency>
<groupId>org.springframework.cloudgroupId>
<artifactId>spring-cloud-starter-zipkinartifactId>
dependency>
修改 8001 及 80 服务的 application.yml,增加 zipkin 以及 sleuth 相关配置。
spring:
zipkin:
base-url: http://127.0.0.1:9411 # zipkin server 的请求地址
sender:
type: web # 请求方式,默认以 http 的方式向 Zipkin server 发送追踪数据
sleuth:
sampler:
probability: 1.0 # 采样的百分比
全部配置如下:
8001:
server:
port: 8001
spring:
application:
name: cloud-payment-service
zipkin:
base-url: http://127.0.0.1:9411 # zipkin server 的请求地址
sender:
type: web # 请求方式,默认以 http 的方式向 Zipkin server 发送追踪数据
sleuth:
sampler:
probability: 1.0 # 采样的百分比
datasource:
type: com.alibaba.druid.pool.DruidDataSource # 当前数据源操作类型
driver-class-name: com.mysql.cj.jdbc.Driver # mysql 驱动包
url: jdbc:mysql://localhost:3306/db2019?useUnicode=true&characterEncoding=utf-8&useSSL=false
username: root
password: root
mybatis:
mapper-locations: classpath:mapper/*.xml
type-aliases-package: com.atguigu.springcloud.entities # 所有 Entity 别名类所在包
eureka:
client:
register-with-eureka: true #表示是否将自己注册进EurekaServer,默认为true
fetch-registry: true # 是否从 EurekaServer 抓取已有的注册信息,默认为true。单节点无所谓,集群必须设置为true,才能配合ribbon使用负载均衡
service-url:
defaultZone: http://localhost:7001/eureka
instance:
instance-id: payment8001
prefer-ip-address: true
lease-renewal-interval-in-seconds: 1 # 客户端向服务端发送心跳的时间间隔,单位为秒(默认是30秒)
lease-expiration-duration-in-seconds: 2 # 服务端在收到最后一次心跳后等待时间上限,单位为秒(默认是90秒),超时将剔除
80:
server:
port: 80
spring:
application:
name: cloud-order-service
zipkin:
base-url: http://127.0.0.1:9411 # zipkin server 的请求地址
sender:
type: web # 请求方式,默认以 http 的方式向 Zipkin server 发送追踪数据
sleuth:
sampler:
probability: 1.0 # 采样的百分比
eureka:
client:
register-with-eureka: true
fetch-registry: true
service-url:
defaultZone: http://localhost:7001/eureka
instance:
instance-id: order80
prefer-ip-address: true
通过 spring.zipkin.base-url
来指定 Zipkin server 的地址
通过 spring.sleuth.sampler.probability
来指定需采样的百分比,默认为 0.1,即 10%,这里配置 1,表示记录全部的 Sleuth 信息,是为了收集到更多的数据(仅供测试用)。在分布式系统中,过于频繁的采用会影响系统性能,所以这里配置需要采用一个合适的值。
依次启动eureka7001/8001/80,浏览器访问:http://127.0.0.1/consumer/payment/get/31,打开 Zipkin service 控制台。
单击该 trace 可以看到请求的细节:
Zipkin Sever 默认是将追踪数据信息保存到内存,这种方式不适合生产环境。因为一旦 Service 关闭重启或者服务崩溃,就会导致历史数据消失。Zipkin 支持将追踪数据持久化到 MySQL 数据库或者存储到 elasticsearch 中。这里以 MySQL 为例。
可以从官网找到 Zipkin Server 持久化到 MySQL 的数据库脚本。
create database if not exists zipkin;
use zipkin;
CREATE TABLE IF NOT EXISTS zipkin_spans ( `trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means the trace uses 128 bit traceIds instead of 64 bit', `trace_id` BIGINT NOT NULL, `id` BIGINT NOT NULL, `name` VARCHAR(255) NOT NULL, `parent_id` BIGINT, `debug` BIT(1), `start_ts` BIGINT COMMENT 'Span.timestamp(): epoch micros used for endTs query and to implement TTL', `duration` BIGINT COMMENT 'Span.duration(): micros used for minDuration and maxDuration query' ) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE utf8_general_ci; ALTER TABLE zipkin_spans ADD UNIQUE KEY(`trace_id_high`, `trace_id`, `id`) COMMENT 'ignore insert on duplicate';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`, `id`)
COMMENT 'for joining with zipkin_annotations';
ALTER TABLE zipkin_spans ADD INDEX(`trace_id_high`, `trace_id`) COMMENT 'for
getTracesByIds';
ALTER TABLE zipkin_spans ADD INDEX(`name`) COMMENT 'for getTraces and
getSpanNames';
ALTER TABLE zipkin_spans ADD INDEX(`start_ts`) COMMENT 'for getTraces
ordering and range';
CREATE TABLE IF NOT EXISTS zipkin_annotations (
`trace_id_high` BIGINT NOT NULL DEFAULT 0 COMMENT 'If non zero, this means
the trace uses 128 bit traceIds instead of 64 bit',
`trace_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.trace_id',
`span_id` BIGINT NOT NULL COMMENT 'coincides with zipkin_spans.id',
`a_key` VARCHAR(255) NOT NULL COMMENT 'BinaryAnnotation.key or
Annotation.value if type == -1',
`a_value` BLOB COMMENT 'BinaryAnnotation.value(), which must be smaller
than 64KB',
`a_type` INT NOT NULL COMMENT 'BinaryAnnotation.type() or -1 if
Annotation',
`a_timestamp` BIGINT COMMENT 'Used to implement TTL; Annotation.timestamp
or zipkin_spans.timestamp',
`endpoint_ipv4` INT COMMENT 'Null when Binary/Annotation.endpoint is
null',
`endpoint_ipv6` BINARY(16) COMMENT 'Null when Binary/Annotation.endpoint
is null, or no IPv6 address',
`endpoint_port` SMALLINT COMMENT 'Null when Binary/Annotation.endpoint is
null',
`endpoint_service_name` VARCHAR(255) COMMENT 'Null when
Binary/Annotation.endpoint is null'
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE
utf8_general_ci;
ALTER TABLE zipkin_annotations ADD UNIQUE KEY(`trace_id_high`, `trace_id`,
`span_id`, `a_key`, `a_timestamp`) COMMENT 'Ignore insert on duplicate';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`,
`span_id`) COMMENT 'for joining with zipkin_spans';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id_high`, `trace_id`)
COMMENT 'for getTraces/ByIds';
ALTER TABLE zipkin_annotations ADD INDEX(`endpoint_service_name`) COMMENT
'for getTraces and getServiceNames';
ALTER TABLE zipkin_annotations ADD INDEX(`a_type`) COMMENT 'for getTraces';
ALTER TABLE zipkin_annotations ADD INDEX(`a_key`) COMMENT 'for getTraces';
ALTER TABLE zipkin_annotations ADD INDEX(`trace_id`, `span_id`, `a_key`)
COMMENT 'for dependencies job';
CREATE TABLE IF NOT EXISTS zipkin_dependencies (
`day` DATE NOT NULL,
`parent` VARCHAR(255) NOT NULL,
`child` VARCHAR(255) NOT NULL,
`call_count` BIGINT
) ENGINE=InnoDB ROW_FORMAT=COMPRESSED CHARACTER SET=utf8 COLLATE
utf8_general_ci;
ALTER TABLE zipkin_dependencies ADD UNIQUE KEY(`day`, `parent`, `child`);
java -jar zipkin-server-2.12.9-exec.jar --STORAGE_TYPE=mysql --
MYSQL_HOST=127.0.0.1 --MYSQL_TCP_PORT=3306 --MYSQL_DB=zipkin --MYSQL_USER=root -
-MYSQL_PASS=111111
配置好服务端之后,可以在浏览器请求几次。回到数据库查看会发现数据已经持久化到mysql中
在默认情况下,Zipkin 客户端和 Server 之间是使用 HTTP 请求的方式进行通信(即同步的请求方式),在网络波动、Server 端异常等情况下可能存在信息收集不及时的问题。Zipkin 支持与 RabbitMQ 整合,完成异步消息传输。
略
java -jar zipkin-server-2.12.9-exec.jar --RABBIT_ADDRESSES=127.0.0.1:5672
启动Zipkin Server之后,我们打开RabbitMQ的控制台可以看到多了一个Queue
其中 zipkin 就是为我们自动创建的 Queue 队列。
<dependency>
<groupId>org.springframework.amqpgroupId>
<artifactId>spring-rabbitartifactId>
dependency>
<dependency>
<groupId>org.springframework.cloudgroupId>
<artifactId>spring-cloud-starter-zipkinartifactId>
dependency>
导入 spring-rabbit 依赖,是 Spring 提供的对 Rabbit 的封装,客户端会根据配置自动的生产消息并发送到目标队列中。
spring:
zipkin:
base-url: http://127.0.0.1:9411 # zipkin server 的请求地址
sender:
type: rabbit
# type: web # 请求方式,默认以 http 的方式向 Zipkin server 发送追踪数据
sleuth:
sampler:
probability: 1.0 # 采样的百分比
rabbitmq:
host: localhost
port: 5672
username: guest
password: guest
listener: # 这里配置了重试策略
direct:
retry:
enabled: true
simple:
retry:
enabled: true
package com.atguigu.springcloud.config;
import com.rabbitmq.client.ConnectionFactory;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.autoconfigure.amqp.RabbitProperties;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import zipkin2.reporter.Sender;
import zipkin2.reporter.amqp.RabbitMQSender;
@Configuration
public class ZipkinConfig {
@Autowired
private RabbitProperties rabbitProperties;
@Bean
Sender rabbitSender2() {
ConnectionFactory connectionFactory = new ConnectionFactory();
connectionFactory.setHost(rabbitProperties.getHost());
connectionFactory.setPort(rabbitProperties.getPort());
connectionFactory.setPassword(rabbitProperties.getPassword());
connectionFactory.setUsername(rabbitProperties.getUsername());
return RabbitMQSender.newBuilder()
.connectionFactory(connectionFactory)
.queue("zipkin")
.addresses(rabbitProperties.getHost()+":"+rabbitProperties.getPort())
.build();
}
}
如果不添加此配置类,服务 8001 和 80 在启动时会报如下错误:
Description:
Parameter 2 of method reporter in org.springframework.cloud.sleuth.zipkin2.ZipkinAutoConfiguration required a bean of type 'zipkin2.reporter.Sender' that could not be found.
The following candidates were found but could not be injected:
- Bean method 'kafkaSender' in 'ZipkinKafkaSenderConfiguration' not loaded because @ConditionalOnClass did not find required class 'org.apache.kafka.common.serialization.ByteArraySerializer'
- Bean method 'rabbitSender' in 'ZipkinRabbitSenderConfiguration' not loaded because @ConditionalOnBean (types: org.springframework.amqp.rabbit.connection.CachingConnectionFactory; SearchStrategy: all) did not find any beans of type org.springframework.amqp.rabbit.connection.CachingConnectionFactory
- Bean method 'restTemplateSender' in 'ZipkinRestTemplateSenderConfiguration' not loaded because ZipkinSender org.springframework.cloud.sleuth.zipkin2.sender.ZipkinRestTemplateSenderConfiguration rabbit sender type
注意以上修改,服务 8001 和 80 均需要修改。
关闭Zipkin Server,并随意请求连接。打开rabbitmq管理后台可以看到,消息已经推送到rabbitmq。 当Zipkin Server启动时,会自动的从rabbitmq获取消息并消费,展示追踪数据
可以看到如下效果: