Sentinel是一个面向云原生微服务的流量控制、熔断降级组件。
替代Hystrix,针对问题:服务雪崩、服务降级、服务熔断、服务限流
Hystrix
:
服务消费者(自动投递微服务)—>调用服务提供者(简历微服务)
在调用方引入Hystrix—> 单独搞了一个Dashboard项目—>Turbine
Sentinel
:
Sentinel
分为两个部分:
核心库
:(Java 客户端)不依赖任何框架/库,能够运行于所有 Java 运行时环境,同时对 Dubbo / Spring Cloud
等框架也有较好的支持。控制台
:(Dashboard)基于 Spring Boot
开发,打包后可以直接运行,不需要额外的 Tomcat
等应用容器。Sentinel
具有以下特征:
丰富的应用场景
:Sentinel
承接了阿里巴巴近 10 年的双十一大促流量的核心场景,例如秒杀(即突发流量控制在系统容量可以承受的范围)、消息削峰填谷、集群流量控制、实时熔断下游不可用应用等。完备的实时监控
:Sentinel
同时提供实时的监控功能。您可以在控制台中看到接入应用的单台机器秒级数据,甚至 500
台以下规模的集群的汇总运行情况。广泛的开源生态
:Sentinel
提供开箱即用的与其它开源框架/库的整合模块,例如与 Spring Cloud、Dubbo
的整合。您只需要引入相应的依赖并进行简单的配置即可快速地接入 Sentinel
。完善的 SPI
:扩展点:Sentinel
提供简单易用、完善的 SPI
扩展接口。您可以通过实现扩展接口来快速地定制逻辑。例如定制规则管理、适配动态数据源等。Sentinel
的主要特性:
Sentinel
的开源生态:
下载地址: https://github.com/alibaba/Sentinel/releases 我们使用v1.7.1
启动:java -jar sentinel-dashboard-1.7.1.jar &
用户名/密码:sentinel/sentinel
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200831214937560.png
在我们已有的业务场景中,“自动投递微服务”调用了“简历微服务”,我们在自动投递微服务进行的熔断
降级等控制,那么接下来我们改造自动投递微服务,引入Sentinel核心包。
为了不污染之前的代码,复制一个自动投递微服务 riemann-service-autodeliver-sentinel-8099
1、pom.xml引入依赖
<dependency>
<groupId>com.alibaba.cloudgroupId>
<artifactId>spring-cloud-starter-alibaba-sentinelartifactId>
dependency>
2、application.yml
修改(配置sentinel dashboard
,暴露断点依然要有,删除原有hystrix
配置,删除原有OpenFeign
的降级配置)
server:
port: 8099
spring:
application:
name: riemann-service-autodeliver
cloud:
nacos:
discovery:
# 集群配置的话,以逗号连接起来
server-addr: 127.0.0.1:8848
sentinel:
transport:
dashboard: 127.0.0.1:8080 # sentinel dashboard/console 地址
port: 8719 # sentinel会在该端口启动http server,那么这样的话,控制台定义的一些限流等规则才能发送传递过来,
# 如果8719端口被占用,那么会依次+1
# 针对的被调用方微服务名称,不加就是全局生效
# riemann-service-resume:
# ribbon:
# NFLoadBalancerRuleClassName: com.netflix.loadbalancer.RoundRobinRule #负载策略调整
# springboot中暴露健康检查等断点接口
management:
endpoints:
web:
exposure:
include: "*"
# 暴露健康接口的细节
endpoint:
health:
show-details: always
# 针对的被调用方微服务名称,不加就是全局生效
riemann-service-resume:
ribbon:
# 请求连接超时时间
ConnectTimeout: 2000
# 请求处理超时时间
# Feign超时时长设置
ReadTimeout: 3000
# 对所有操作都进行重试
OkToRetryOnAllOperations: true
# 根据如上配置,当访问到故障请求的时候,它会再尝试访问一次当前实例(次数由MaxAutoRetries配置),
# 如果不行,就换一个实例进行访问,如果还不行,再换一次实例访问(更换次数由MaxAutoRetriesNextServer配置),
# 如果依然不行,返回失败信息。
MaxAutoRetries: 0 # 对当前选中实例重试次数,不包括第一次调用
MaxAutoRetriesNextServer: 0 # 切换实例的重试次数
NFLoadBalancerRuleClassName: com.netflix.loadbalancer.RoundRobinRule # 负载策略调整
logging:
level:
# Feign日志只会对日志级别为debug的做出响应
com.riemann.controller.service.ResumeServiceFeignClient: debug
3、上述配置之后,启动自动投递微服务,使用 Sentinel
监控自动投递微服务 此时我们发现控制台没有任何变化,因为懒加载,我们只需要发起一次请求触发即可
概 念 名 称 | 概念描述 |
---|---|
资 源 | 它可以是 Java 应用程序中的任何内容,例如,由应用程序提供的服务,或由应用程序调用 的其它应用提供的服务,甚至可以是一段代码。我们请求的API接口就是资源。 |
规 则 | 围绕资源的实时状态设定的规则,可以包括流量控制规则、熔断降级规则以及系统保护规 则。所有规则可以动态实时调整。 |
系统并发能力有限,比如系统A的QPS支持1个,如果太多请求过来,那么A就应该进行流量控制了,比
如其他请求直接拒绝。
资源名
:默认请求路径
针对来源
:Sentinel可以针对调用者进行限流,填写微服务名称,默认default(不区分来源)
阈值类型
/单机阈值
QPS
:(每秒钟请求数量)当调用该资源的QPS达到阈值时进行限流
线程数
:当调用该资源的线程数达到阈值的时候进行限流(线程处理请求的时候,如果说业务逻辑执行 时间很⻓,流量洪峰来临时,会耗费很多线程资源,这些线程资源会堆积,最终可能造成服务不可用, 进一步上游服务不可用,最终可能服务雪崩)
是否集群
:是否集群限流
流控模式
:
直接
:资源调用达到限流条件时,直接限流
关联
:关联的资源调用达到阈值时候限流自己 链路:只记录指定链路上的流量
流控效果
:
快速失败
:直接失败,抛出异常
Warm Up
:根据冷加载因子(默认3)的值,从阈值/冷加载因子,经过预热时⻓,才达到设置的QPS阈值
排队等待
:匀速排队,让请求匀速通过,阈值类型必须设置为QPS,否则无效 流控模式之关联限流
1、流控模式之关联限流
关联的资源调用达到阈值时候限流自己,比如用户注册接口,需要调用身份证校验接口(往往身份证校 验接口),如果身份证校验接口请求达到阈值,使用关联,可以对用户注册接口进行限流。
@RestController
@RequestMapping("/user")
public class UserController {
/**
* 用户注册接口
* @return
*/
@GetMapping("/register")
public String register() {
System.out.println("Register success!");
return "Register success!";
}
/**
* 验证注册身份证接口(需要调用公安户籍资源)
* @return
*/
@GetMapping("/validateID")
public String findResumeOpenState() {
System.out.println("validateID");
return "ValidateID success!";
}
}
模拟密集式请求/user/validateID
验证接口,我们会发现/user/register
接口也被限流了
2、流控模式之链路限流
链路指的是请求链路(调用链)
链路模式下会控制该资源所在的调用链路入口的流量。需要在规则中配置入口资源,即该调用链路入口 的上下文名称。
一棵典型的调用树如下图所示:(阿里云提供)
上图中来自入口 Entrance1
和 Entrance2
的请求都调用到了资源 NodeA
,Sentinel
允许只根据某个调用入口的统计信息对资源限流。比如链路模式下设置入口资源为 Entrance1
来表示只有从入口
Entrance1
的调用才会记录到 NodeA
的限流统计当中,而不关心经 Entrance2
到来的调用。
3、流控效果之Warm up
当系统⻓期处于空闲的情况下,当流量突然增加时,直接把系统拉升到高水位可能瞬间把系统压垮,比
如电商网站的秒杀模块。
通过 Warm Up
模式(预热模式),让通过的流量缓慢增加,经过设置的预热时间以后,到达系统处理请求速率的设定值。
Warm Up
模式默认会从设置的 QPS
阈值的 1/3
开始慢慢往上增加至 QPS
设置值。
4、流控效果之排队等待
排队等待模式下会严格控制请求通过的间隔时间,即请求会匀速通过,允许部分请求排队等待,通常用 于消息队列削峰填谷等场景。需设置具体的超时时间,当计算的等待时间超过超时时间时请求就会被拒 绝。
很多流量过来了,并不是直接拒绝请求,而是请求进行排队,一个一个匀速通过(处理),请求能等就等着被处理,不能等(等待时间>超时时间)就会被拒绝。
例如,QPS
配置为 5
,则代表请求每 200 ms
才能通过一个,多出的请求将排队等待通过。超时时间代表最大排队时间,超出最大排队时间的请求将会直接被拒绝。排队等待模式下,QPS 设置值不要超过 1000
(请求间隔 1 ms
)。
流控是对外部来的大流量进行控制,熔断降级的视⻆是对内部问题进行处理。
Sentinel
降级会在调用链路中某个资源出现不稳定状态时(例如调用超时或异常比例升高),对这个资 源的调用进行限制,让请求快速失败,避免影响到其它的资源而导致级联错误。当资源被降级后,在接 下来的降级时间窗口之内,对该资源的调用都自动熔断。
策略
Sentinel
不会像Hystrix
那样放过一个请求尝试自我修复,就是明明确确按照时间窗口来,熔断触发后, 时间窗口内拒绝请求,时间窗口后就恢复。
1、RT(平均响应时间 )
当 1s
内持续进入 >=5
个请求,平均响应时间超过阈值(以 ms 为单位),那么在接下的时间窗口 (以 s 为单位)之内,对这个方法的调用都会自动地熔断(抛出 DegradeException
)。注意 Sentinel
默认统计的 RT
上限是 4900 ms
,超出此阈值的都会算作 4900 ms
,若需要变更此上限 可以通过启动配置项 -Dcsp.sentinel.statistic.max.rt=xxx
来配置。
2、异常比例
当资源的每秒请求量 >= 5
,并且每秒异常总数占通过量的比值超过阈值之后,资源进入降级状态,即在接下的时间窗口(以 s 为单位)之内,对这个方法的调用都会自动地返回。异常比率的阈 值范围是 [0.0, 1.0]
,代表 0% - 100%
。
3、异常数
当资源近 1 分钟
的异常数目超过阈值之后会进行熔断。注意由于统计时间窗口是分钟级别的,若 timeWindow
小于 60s
,则结束熔断状态后仍可能再进入熔断状态。
时间窗口 >= 60s
@SentinelResource
注解类似于Hystrix
中的@HystrixCommand
注解
@SentinelResource
注解中有两个属性需要我们进行区分,blockHandler
属性用来指定不满足Sentinel
规则的降级兜底方法,fallback
属性用于指定Java运行时异常兜底方法。
1、在API接口资源处配置
@RestController
@RequestMapping("/autodeliver")
public class AutodeliverController {
@Autowired
private ResumeServiceFeignClient resumeServiceFeignClient;
/**
* @SentinelResource注解类似于Hystrix中的@HystrixCommand注解
*
* value:定义资源名
* blockHandlerClass:指定Sentinel规则异常兜底逻辑所在class类
* blockHandler:指定Sentinel规则异常兜底逻辑具体哪个方法
* fallbackClass:指定Java运行时异常兜底逻辑所在class类
* fallback:指定Java运行时异常兜底逻辑具体哪个方法
*/
@GetMapping("/checkState/{userId}")
@SentinelResource(value = "findResumeOpenState", blockHandlerClass = SentinelFallbackClass.class, blockHandler = "handleException", fallback = "handleError", fallbackClass = SentinelFallbackClass.class)
public Integer findResumeOpenState(@PathVariable Long userId) {
// 模拟降级:异常比例
int i = 1/0;
Integer defaultResumeState = resumeServiceFeignClient.findDefaultResumeState(userId);
return defaultResumeState;
}
}
2、自定义兜底逻辑类
public class SentinelFallbackClass {
// 整体要求和当时Hystrix一样,这里还需要在形参最后添加BlockException参数,用于接 收异常
// 注意:方法是静态的
public static Integer handleException(Long userId, BlockException blockException) {
return -100;
}
public static Integer handleError(Long userId) {
return -500;
}
}
目前,Sentinel Dashboard
中添加的规则数据存储在内存,微服务停掉规则数据就消失,在生产环境下
不合适。我们可以将Sentinel
规则数据持久化到Nacos
配置中心,让微服务从Nacos
获取规则数据。
1、自动投递微服务的pom.xml中添加依赖
riemann-service-autodeliver-sentinel-8099 微服务
<dependency>
<groupId>com.alibaba.cspgroupId>
<artifactId>sentinel-datasource-nacosartifactId>
dependency>
2、自动投递微服务的application.yml中配置Nacos数据源
spring:
application:
name: riemann-service-autodeliver
cloud:
nacos:
discovery:
# 集群配置的话,以逗号连接起来
server-addr: 127.0.0.1:8848
sentinel:
transport:
dashboard: 127.0.0.1:8080 # sentinel dashboard/console 地址
port: 8719 # sentinel会在该端口启动http server,那么这样的话,控制台定义的一些限流等规则才能发送传递过来,
# 如果8719端口被占用,那么会依次+1
datasource:
# 此处的flow为自定义数据源名
flow: # 流控规则
nacos:
server-addr: ${
spring.cloud.nacos.discovery.server-addr} data-id: ${
spring.application.name}-flow-rules
groupId: DEFAULT_GROUP
data-type: json
rule-type: flow # 类型来自RuleType类
degrade:
nacos:
server-addr: ${
spring.cloud.nacos.discovery.server-addr} data-id: ${
spring.application.name}-degrade-rules groupId: DEFAULT_GROUP
data-type: json
rule-type: degrade # 类型来自RuleType类
3、Nacos Server中添加对应规则配置集(public命名空间—>DEFAULT_GROUP中添加)
3.1 流控规则配置集 riemann-service-autodeliver-flow-rules
[{
"resource": "findResumeOpenState",
"limitApp": "default",
"grade": 1,
"count": 1,
"strategy": 0,
"controlBehavior": 0,
"clusterMode": false
}]
所有属性来自源码FlowRule
类
3.2 降级规则配置集 riemann-service-autodeliver-degrade-rules
[{
"resource": "findResumeOpenState",
"grade": 2,
"count": 1,
"timeWindow": 5
}]
所有属性来自源码DegradeRule
类
4、注意
json
数组。Sentinel
控制台中修改规则,仅是内存
中生效,不会修改Nacos
中的配置值,重启后恢复原来的值; Nacos
控制台中修改规则,不仅内存中生效,Nacos
中持久化规则也生效,重启后规则依然保持。