在微服务中,一个微服务往往依赖于多个其它微服务。如果服务提供者I发生了故障,当前的应用的部分业务因为依赖于服务I,因此也会被阻塞。依赖服务I的业务请求被阻塞,用户不会得到响应,则tomcat的这个线程不会释放,于是越来越多的用户请求到来,越来越多的线程会阻塞,服务器支持的线程和并发数有限,请求一直阻塞,会导致服务器资源耗尽,从而导致所有其它服务都不可用,那么当前服务也就不可用了。
微服务之间相互调用,因为调用链中的一个服务故障,引起整个链路都无法访问的情况,就是雪崩。
解决雪崩问题的常见方式:
如何避免因瞬间高并发流量而导致服务故障?流量控制
如何避免因服务故障引起的雪崩问题?超时处理,舱壁模式,熔断降级
早期比较流行的是Hystrix框架,但目前国内实用最广泛的还是阿里巴巴的Sentinel框架,对比如下:
Sentinel | Hystrix | |
---|---|---|
隔离策略 | 信号量隔离 | 线程池隔离/信号量隔离 |
熔断降级策略 | 基于慢调用比例或异常比例 | 基于失败比率 |
实时指标实现 | 滑动窗口 | 滑动窗口(基于 RxJava) |
规则配置 | 支持多种数据源 | 支持多种数据源 |
扩展性 | 多个扩展点 | 插件的形式 |
基于注解的支持 | 支持 | 支持 |
限流 | 基于 QPS,支持基于调用关系,热点数量的限流 | 有限的支持 |
流量整形 | 支持慢启动、匀速排队模式 | 不支持 |
系统自适应保护 | 支持 | 不支持 |
控制台 | 开箱即用,可配置规则、查看秒级监控、机器发现等 | 不完善 |
常见框架的适配 | Servlet、Spring Cloud、Dubbo、gRPC 等 | Servlet、Spring Cloud Netflix |
sentinel官方提供了UI控制台,方便对系统做限流设置。可以在GitHub下载。
将jar包放到任意非中文目录,执行命令:
java -jar sentinel-dashboard-1.8.1.jar
修改Sentinel的默认端口、账户、密码,可以通过下列配置:
配置项 | 默认值 | 说明 |
---|---|---|
server.port | 8080 | 服务端口 |
sentinel.dashboard.auth.username | sentinel | 默认用户名 |
sentinel.dashboard.auth.password | sentinel | 默认密码 |
修改端口:
java -Dserver.port=8090 -jar sentinel-dashboard-1.8.1.jar
访问http://localhost:8080页面,可以看到sentinel的控制台:账号和密码默认:sentinel
1.引入sentinel依赖
<dependency>
<groupId>com.alibaba.cloudgroupId>
<artifactId>spring-cloud-starter-alibaba-sentinelartifactId>
dependency>
2.修改配置文件
server:
port: 8088
spring:
cloud:
sentinel:
transport:
dashboard: localhost:8090
3.访问order-service的任意端点(http://localhost:8088/order/101),触发sentinel的监控
当请求进入微服务时,首先会访问DispatcherServlet,然后进入Controller、Service、Mapper,这样的一个调用链就叫做簇点链路。簇点链路中被监控的每一个接口就是一个资源。
默认情况下sentinel会监控SpringMVC的每一个端点(Endpoint,也就是controller中的方法),因此SpringMVC的每一个端点就是调用链路中的一个资源。
流控、熔断等都是针对簇点链路中的资源来设置的,因此可以点击对应资源后面的按钮来设置规则:
1.点击资源/order/{orderId}后面的流控按钮,就可以弹出表单
其含义是限制 /order/{orderId}这个资源的单机QPS为1,即每秒只允许1次请求,超出的请求会被拦截并报错。(default默认所有请求都检测)
2.给 /order/{orderId}资源设置流控规则,QPS不能超过 5
3.利用jmeter测试,2秒内发闪送20个请求,QPS是10
关联: 统计与当前资源相关的另一个资源,触发阈值时,对当前资源限流(A触发阈值对B限流)
使用场景:比如用户支付时需要修改订单状态,同时用户要查询订单。查询和修改操作会争抢数据库锁,产生竞争。业务需求是优先支付和更新订单的业务,因此当修改订单业务触发阈值时,需要对查询订单业务限流。
语法说明: 当/write资源访问量触发阈值时,就会对/read资源限流,避免影响/write资源。
案例:
@RestController
@RequestMapping("order")
public class OrderController {
@GetMapping("/query")
public String queryOrder() {
return "查询订单成功";
}
@GetMapping("/update")
public String updateOrder() {
return "更新订单成功";
}
}
200个用户,2秒,因此QPS为100,超过了设定的阈值5
发送http请求:
请求的目标是/order/update,这样这个断点就会触发阈值。限流的目标是/order/query,浏览器访问:
使用关联模式的满足条件:
链路: 只针对从指定链路访问都本资源的请求做统计(对请求来源做判断和限流)。
假如有两条请求链路,/test1->/common,/test2->/common,只希望统计从/test2进入到/common的请求,配置如下:
案例: 有查询订单和创建订单业务,两者都需要查询商品。针对从查询订单进入到查询商品的请求统计,并设置限流。
@SentinelResource("goods")
public void queryGoods(){
System.err.println("查询商品");
}
1.1修改配置文件,因为sentinel默认将controller方法做context整合导致链路模式失效
spring:
cloud:
sentinel:
web-context-unify: false # 关闭context整合
@GetMapping("/query")
public String queryOrder() {
// 查询商品
orderService.queryGoods();
// 查询订单
System.out.println("查询订单");
return "查询订单成功";
}
@GetMapping("/save")
public String saveOrder() {
// 查询商品
orderService.queryGoods();
// 查询订单
System.err.println("新增订单");
return "新增订单成功";
}
200个用户,50秒内发完,QPS为4,超过了我们设定的阈值2
一个http请求是访问/order/save:
运行的结果:完全不受影响。
另一个是访问/order/query:
运行结果:
流控模式有哪些?
流控效果是指请求达到流控阈值时应该采取的措施,包括三种:
warm up也叫预热模式,是应对服务冷启动的一种方案。请求阈值初始值是 maxThreshold / coldFactor,持续指定时长后,逐渐提高到maxThreshold值。而coldFactor的默认值是3.
假如设置QPS的maxThreshold为10,预热时间为5秒,那么初始阈值就是 10 / 3 ,也就是3,然后在5秒后逐渐增长到10.
案例: 给/order/{orderId}这个资源设置限流,最大QPS为10,利用warm up效果,预热时长为5秒
Jmeter测试:QPS为10.
刚刚启动时,大部分请求失败,成功的只有3个,说明QPS被限定在3:
随着时间推移,成功比例越来越高:
Sentinel控制台查看实时监控:
当请求超过QPS阈值时,快速失败和warm up 会拒绝新的请求并抛出异常。
排队等待则是让所有请求进入一个队列中,然后按照阈值允许的时间间隔依次执行。后来的请求必须等待前面执行完成,如果请求预期的等待时间超出最大时长,则会被拒绝。
例如:QPS = 5,意味着每200ms处理一个队列中的请求;timeout = 2000,意味着预期等待时长超过2000ms的请求会被拒绝并抛出异常。
使用队列模式做流控,所有进入的请求都要排队,以固定的200ms的间隔执行,QPS会变的很平滑:平滑的QPS曲线,对于服务器来说是更友好的。
案例: 给/order/{orderId}这个资源设置限流,最大QPS为10,利用排队的流控效果,超时时长设置为5s
Jmeter测试:QPS为15,已经超过了我们设定的10。
如果是之前的快速失败、warmup模式,超出的请求应该会直接报错。现在结果都通过了。
sentinel查看实时监控的QPS曲线:
QPS非常平滑,一致保持在10,但是超出的请求没有被拒绝,而是放入队列。因此响应时间(等待时间)会越来越长。
当队列满了以后,才会有部分请求失败:
流控效果有哪些?
之前的限流是统计访问某个资源的所有请求,判断是否超过QPS阈值。而热点参数限流是分别统计参数值相同的请求,判断是否超过QPS阈值。
例如,访问/goods/{id}的请求中,id参数值会有变化,热点参数限流会根据参数值分别统计QPS,统计结果:
当id=1的请求触发阈值被限流时,id值不为1的请求不受影响。
配置示例:代表的含义是:对hot这个资源的0号参数(第一个参数)做统计,每1秒相同参数值的请求数不能超过5,对查询商品这个接口的所有商品一视同仁,QPS都限定为5。
在实际开发中,可能部分商品是热点商品,例如秒杀商品,我们希望这部分商品的QPS限制与其它商品不一样,高一些。就需要配置热点参数限流的高级选项了:
结合上一个配置,这里的含义是对0号的long类型参数限流,每1秒相同参数的QPS不能超过5,有两个例外:
案例: 给/order/{orderId}这个资源添加热点参数限流,规则如下:
1.给order-service中的OrderController中的/order/{orderId}资源添加注解:
热点参数限流对默认的SpringMVC资源无效
@SentinelResource("hot")
@GetMapping("{orderId}")
public Order queryOrderByUserId(@PathVariable("orderId") Long orderId) {
return orderService.queryOrderById(orderId);
}
2.点击左侧菜单中热点规则菜单:点击新增,填写表单:
3.Jmeter测试:发起请求的QPS为5.
普通参数,QPS阈值为2
运行结果:
限流是一种预防措施,虽然限流可以尽量避免因高并发而引起的服务故障,但服务还会因为其它原因而故障。要将这些故障控制在一定范围,避免雪崩,就要靠线程隔离(舱壁模式)和熔断降级。
不管是线程隔离还是熔断降级,都是对客户端(调用方)的保护。需要在调用方 发起远程调用时做线程隔离、或者服务熔断。微服务远程调用都是基于Feign来完成的,因此我们需要将Feign与Sentinel整合,在Feign里面实现线程隔离和服务熔断。
1.修改OrderService的application.yml文件,开启Feign的Sentinel功能:
Sentinel会自动监护Feign客户端,把它变成链路中的一个资源
feign:
sentinel:
enabled: true # 开启feign对sentinel的支持
2.给FeignClient编写失败后的降级逻辑(业务失败后,不能直接报错,而应该返回用户一个友好提示或者默认结果,这个就是失败降级逻辑)
2.1.在feing-api项目中定义类,实现FallbackFactory:
@Slf4j
//指定给哪个feign客户端编写
public class UserClientFallbackFactory implements FallbackFactory<UserClient> {
@Override
public UserClient create(Throwable throwable) {
//创建UserClient接口实现类,实现其中的方法,编写失败降级的处理逻辑
return new UserClient() {
@Override
public User findById(Long id) {
//记录异常信息
log.error("查询用户异常", throwable);
//根据业务需求返回默认的数据,这里是空用户
return new User();
}
};
}
}
2.2.在feing-api项目中的DefaultFeignConfiguration类中注入UserClientFallbackFactory
public class DefaultFeignConfiguration {
@Bean
public Logger.Level feignLogLevel(){
return Logger.Level.BASIC; // 日志级别为BASIC
}
@Bean
public UserClientFallbackFactory userClientFallbackFactory(){
return new UserClientFallbackFactory();
}
}
2.3.在feing-api项目中的UserClient接口中使用UserClientFallbackFactory:
@FeignClient(value = "userservice", configuration = DefaultFeignConfiguration.class,fallbackFactory = UserClientFallbackFactory.class)
public interface UserClient {
@GetMapping("/user/{id}")
User findById(@PathVariable("id") Long id);
}
3.重启后,访问一次订单查询业务,然后查看sentinel控制台,可以看到新的簇点链路:
线程隔离: 调用者在调用服务提供者时,给每个调用的请求分配独立线程池,出现故障时,最多消耗这个线程池内资源,避免把调用者的所有资源耗尽。
线程隔离有两种方式实现:
线程池隔离:给每个服务调用业务分配一个线程池,利用线程池本身实现隔离效果(基于计数器模式,简单,开销小)
信号量隔离:不创建线程池,而是计数器模式,记录业务使用的线程数量,达到信号量上限时,禁止新的请求(基于线程池模式,有额外开销,但隔离控制更强)
案例: 给 order-service服务中的UserClient的查询用户接口设置流控规则,线程数不能超过 2。然后利用jemeter测试。
1.配置隔离规则
2.Jmeter测试
一次发生10个请求,有较大概率并发线程数超过2,而超出的请求会走之前定义的失败降级逻辑。
查看运行结果:发现虽然结果都是通过了,不过部分请求得到的响应是降级返回的null信息。
熔断降级: 在调用方这边加入断路器,统计对服务提供者的调用,如果调用的失败比例过高,则熔断该业务,不允许访问该服务的提供者了。
熔断降级是解决雪崩问题的重要手段。其思路是由断路器统计服务调用的异常比例、慢请求比例,如果超出阈值则会熔断该服务。即拦截访问该服务的一切请求;而当服务恢复时,断路器会放行访问该服务的请求。
断路器控制熔断和放行是通过状态机来完成的:
状态机包括三个状态:
断路器熔断策略有三种:慢调用、异常比例、异常数
业务的响应时长(RT)大于指定时长的请求认定为慢调用请求。在指定时间内,如果请求数量超过设定的最小数量,慢调用比例大于设定的阈值,则触发熔断。
解读: RT超过500ms的调用是慢调用,统计最近10000ms内的请求,如果请求量超过10次,并且慢调用比例不低于0.5,则触发熔断,熔断时长为5秒。然后进入half-open状态,放行一次请求做测试。
案例: 给 UserClient的查询用户接口设置降级规则,慢调用的RT阈值为50ms,统计时间为1秒,最小请求数量为5,失败阈值比例为0.4,熔断时长为5
1.设置慢调用
@Service
public class UserService {
@Autowired
private UserMapper userMapper;
public User queryById(Long id) throws Exception {
if (id == 1) {
Thread.sleep(60);
}
return userMapper.findById(id);
}
}
2.给feign接口设置降级规则:
超过50ms的请求都会被认为是慢请求
3.测试
在浏览器访问:http://localhost:8080/order/101,快速刷新5次,触发了熔断,请求时长缩短至5ms,快速失败了,并且走降级逻辑,返回的null
在浏览器访问:http://localhost:8088/order/102,也被熔断了:
异常比例或异常数:统计指定时间内的调用,如果调用次数超过指定请求数,并且出现异常的比例达到设定的比例阈值(或超过指定异常数),则触发熔断。
例如,异常比例设置:
解读: 统计最近1000ms内的请求,如果请求量超过10次,并且异常比例不低于0.4,则触发熔断。
一个异常数设置:
解读: 统计最近1000ms内的请求,如果请求量超过10次,并且异常比例不低于2次,则触发熔断。
案例: 给 UserClient的查询用户接口设置降级规则,统计时间为1秒,最小请求数量为5,失败阈值比例为0.4,熔断时长为5s
1.设置异常请求
@Service
public class UserService {
@Autowired
private UserMapper userMapper;
public User queryById(Long id) throws Exception {
if (id == 1) {
Thread.sleep(60);
}else if(id == 2){
throw new RuntimeException("故意抛出异常,触发异常比例熔断");
}
return userMapper.findById(id);
}
}
2.设置熔断规则
在5次请求中,只要异常比例超过0.4,也就是有2次以上的异常,就会触发熔断。
3.测试
在浏览器快速访问:http://localhost:8088/order/102,快速刷新5次,触发熔断:
访问本来应该正常的103:
Sentine熔断降级的策略有哪些?
慢调用比例:超过指定时长的调用为慢调用,统计单位时长内慢调用的比例,超过阈值则熔断
异常比例:统计单位时长内异常调用的比例,超过阈值则熔断
异常数:统计单位时长内异常调用的次数,超过阈值则熔断
授权规则可以对调用方的来源做控制,有白名单和黑名单两种方式。
允许请求从gateway到order-service,不允许浏览器访问order-service,那么白名单中就要填写网关的来源名称(origin)。
Sentinel是通过RequestOriginParser这个接口的parseOrigin来获取请求的来源。
public interface RequestOriginParser {
/**
* 从请求request对象中获取origin,获取方式自定义
*/
String parseOrigin(HttpServletRequest request);
}
默认情况下,sentinel不管请求者从哪里来,返回值永远是default,也就是说一切请求的来源都被认为是一样的值default。因此,需要自定义这个接口的实现,让不同的请求,返回不同的origin。
1.在order-service服务中,定义RequestOriginParser的实现类,获取origin
@Component
public class HeaderOriginParse implements RequestOriginParser {
@Override
public String parseOrigin(HttpServletRequest request) {
// 1.获取请求头
String origin = request.getHeader("origin");
// 2.非空判断
if (StringUtils.isEmpty(origin)) {
origin = "blank";
}
return origin;
}
}
获取请求origin的方式是从reques-header中获取origin值,所以必须让所有从gateway路由到微服务的请求都带上origin头。需要通过AddRequestHeaderGatewayFilter来实现。
2.修改gateway服务中的application.yml,添加一个defaultFilter:
spring:
cloud:
gateway:
default-filters:
- AddRequestHeader=origin,gateway #添加名为origin的请求头,值为gateway
routes:
# ...略
3.配置授权规则
4.测试,直接跳过网关,访问order-service服务:
5.通过网关访问:
默认情况下,发生限流、降级、授权拦截时,都会抛出异常到调用方。异常结果都是flow limmiting(限流)。这样不够友好,无法得知是限流还是降级还是授权拦截。
自定义异常时的返回结果,需要实现BlockExceptionHandler接口:
public interface BlockExceptionHandler {
/**
* 处理请求被限流、降级、授权拦截时抛出的异常:BlockException
*/
void handle(HttpServletRequest request, HttpServletResponse response, BlockException e) throws Exception;
}
三个参数:
BlockException包含多个不同的子类:
异常 | 说明 |
---|---|
FlowException | 限流异常 |
ParamFlowException | 热点参数限流的异常 |
DegradeException | 降级异常 |
AuthorityException | 授权规则异常 |
SystemBlockException | 系统规则异常 |
1.在order-service定义一个自定义异常处理类:
@Component
public class SentinelExceptionHandler implements BlockExceptionHandler {
@Override
public void handle(HttpServletRequest request, HttpServletResponse response, BlockException e) throws Exception {
String msg = "未知异常";
int status = 429;
if (e instanceof FlowException) {
msg = "请求被限流了";
} else if (e instanceof ParamFlowException) {
msg = "请求被热点参数限流";
} else if (e instanceof DegradeException) {
msg = "请求被降级了";
} else if (e instanceof AuthorityException) {
msg = "没有权限访问";
status = 401;
}
response.setContentType("application/json;charset=utf-8");
response.setStatus(status);
response.getWriter().println("{\"msg\": " + msg + ", \"status\": " + status + "}");
}
}
sentinel的所有规则都是内存存储,重启后所有规则都会丢失。在生产环境下,必须确保这些规则的持久化,避免丢失。
规则是否能持久化,取决于规则管理模式,sentinel支持三种规则管理模式:
修改OrderService,让其监听Nacos中的sentinel规则配置。
1.在order-service中引入sentinel监听nacos的依赖:
<dependency>
<groupId>com.alibaba.cspgroupId>
<artifactId>sentinel-datasource-nacosartifactId>
dependency>
2.在order-service中的application.yml文件配置nacos地址及监听的配置信息:
spring:
cloud:
sentinel:
datasource:
flow:
nacos:
server-addr: localhost:8848 # nacos地址
dataId: orderservice-flow-rules
groupId: SENTINEL_GROUP
rule-type: flow # 限流还可以是:degrade(降级)、authority(授权)、param-flow(热点参数)
# 配置多个
degrade:
nacos:
server-addr: localhost:8848 # nacos地址
dataId: orderservice-degrade-rules
groupId: SENTINEL_GROUP
rule-type: degrade # 限流还可以是:degrade(降级)、authority(授权)、param-flow(热点参数)
3.修改sentinel-dashboard源码
3.1解压sentinel源码包,用IDEA打开这个项目,结构如下:
3.2修改nacos依赖
在sentinel-dashboard源码的pom文件中,nacos的依赖默认的scope是test,只能在测试时使用,这里要去除:
<dependency>
<groupId>com.alibaba.cspgroupId>
<artifactId>sentinel-datasource-nacosartifactId>
<scope>testscope>
dependency>
3.3添加nacos支持
在sentinel-dashboard的test包下,已经编写了对nacos的支持,我们需要将其拷贝到main下。
4.修改nacos地址
修改其中的nacos地址,让其读取application.properties中的配置:
在sentinel-dashboard的application.properties中添加nacos地址配置:
nacos.addr=localhost:8848
5.配置nacos数据源
修改com.alibaba.csp.sentinel.dashboard.controller.v2包下的FlowControllerV2类:
6.修改前端页面,添加一个支持nacos的菜单。
修改src/main/webapp/resources/app/scripts/directives/sidebar/目录下的sidebar.html文件:
将其中的这部分注释打开:
修改其中的文本:
7.重新编译,打包项目
运行IDEA中的maven插件,编译和打包修改好的Sentinel-Dashboard:
8.启动
启动方式跟官方一样:
java -jar sentinel-dashboard.jar
修改nacos地址,需要添加参数:
java -jar -Dnacos.addr=localhost:8848 sentinel-dashboard.jar