【微服务】分布式下服务调用产生的问题之服务容错

服务容错

  • 前言
  • 模拟高并发场景
  • 压测测试
  • 服务雪崩效应
  • 常见容错方案
    • 隔离
    • 超时
    • 限流
    • 熔断
    • 降级
  • 常见的容错组件
    • Hystrix
    • Resilience4J
    • Sentinel
  • 总结

前言

上篇中,我们了解了Ribbon的概念,也实现了基于Ribbon的服务调用,但同样也引发了另一个问题,不知道大家有没有思考过。

如果服务与服务之间互相调用,那存不存在如果由于网络分区故障导致服务并不难100%可用?显而言之,是肯定存在的。那么该怎么解决这个问题呢?这时候就引入了一个新的概念,叫服务容错–Sentinel

在讲述服务容错之前,我们先模拟一个高并发导致网络故障的场景,让大家有更深层次的了解。

模拟高并发场景

这里,我们通过线程的休眠 Thread.sleep(100);来模拟网络故障。

@RestController
@Slf4j
public class OrderController2 {

	@Autowired
	private OrderService orderService;
	@Autowired
	private ProductService productService;
	
	@RequestMapping("/order/prod/{pid}")
	public Order order(@PathVariable("pid") Integer pid) {
	
		log.info("接收到{}号商品的下单请求,接下来调用商品微服务查询此商品信息", pid);
		//调用商品微服 务,查询商品信息
		Product product = productService.findByPid(pid); 
		log.info("查询到{}号商品的信息,内容是:{}", pid, JSON.toJSONString(product)); 
		
		//模拟一次网络延时
		try {
		
			Thread.sleep(100);
			
		} catch (InterruptedException e) {
			e.printStackTrace();
		}
		
		//下单(创建订单)
		Order order = new Order();
		order.setUid(1);
		order.setUsername("测试用户");
		order.setPid(pid);
		order.setPname(product.getPname()); 
		order.setPprice(product.getPprice());
		order.setNumber(1);
		
		//为了不产生太多垃圾数据,暂时不做订单保存
		//orderService.createOrder(order);
		log.info("创建订单成功,订单信息为{}", JSON.toJSONString(order));
		 return order;
		}
		
		@RequestMapping("/order/message")
		public String message() { 
			return "高并发下的问题测试";
			
		}
}

修改配置文件中tomcat的并发数

server:
port: 8091
tomcat:
max-threads: 10 #tomcat的最大并发值修改为10,默认是200

压测测试

接下来使用压测工具,对请求进行压力测试:

下载地址:https://jmeter.apache.org/

第一步:修改配置,并启动软件

进入bin目录,修改jmeter.properties文件中的语言支持为language=zh_CN,然后点击jmeter.bat 启动软件。

【微服务】分布式下服务调用产生的问题之服务容错_第1张图片

第二步:添加线程组

【微服务】分布式下服务调用产生的问题之服务容错_第2张图片

第三步:配置线程并发数:

【微服务】分布式下服务调用产生的问题之服务容错_第3张图片

第四步:添加Http取样

在这里插入图片描述

第五步:配置取样,并启动测试

【微服务】分布式下服务调用产生的问题之服务容错_第4张图片

访问message方法观察效果

结论:

此时会发现, 由于order方法囤积了大量请求, 导致message方法的访问出现了问题,这就是服务雪崩的雏形。

服务雪崩效应

从上面的高并发例子中,可能有点高并发基础的小伙伴已经反应过来了,这不就是雪崩的场景吗。

是的,这种在分布式微服务中,由于网络原因或自身的原因,服务一般无法保证 100% 可用。如果一个服务出现了问题,调用这个服务就会出现线程阻塞的情况,此时若有大量的请求涌入,就会出现多条线程阻塞等待,进而导致服务瘫痪。

由于服务与服务之间的依赖性,故障会传播,会对整个微服务系统造成灾难性的严重后果,这就是服务故障的 “雪崩效应” 。

【微服务】分布式下服务调用产生的问题之服务容错_第5张图片

雪崩发生的原因多种多样,有不合理的容量设计,或者是高并发下某一个方法响应变慢,亦或是某台机器的资源耗尽等等。

我们无法完全杜绝雪崩源头的发生,只有做好足够的容错,保证在一个服务发生问题,不会影响到其它服务的正常运行。也就是"雪落而不雪崩"。

常见容错方案

要防止雪崩的扩散,我们就要做好服务的容错,容错 :说白了就是保护自己不被猪队友拖垮的一些措施, 下面介绍常见的服务容错思路和组件。

常见的容错思路有隔离、超时、限流、熔断、降级这几种,下面分别介绍一下。

隔离

它是指将系统按照一定的原则划分为若干个服务模块,各个模块之间相对独立,无强依赖

当有故障发生时,能将问题和影响隔离在某个模块内部,而不扩散风险,不波及其它模块,不影响整体的系统服务。

常见的隔离方式有:线程池隔离信号量隔离

【微服务】分布式下服务调用产生的问题之服务容错_第6张图片

超时

在上游服务调用下游服务的时候,设置一个最大响应时间,如果超过这个时间,下游未作出反应,就断开请求,释放掉线程。

【微服务】分布式下服务调用产生的问题之服务容错_第7张图片

限流

限流就是限制系统的输入和输出流量已达到保护系统的目的。为了保证系统的稳固运行,一旦达到的需要限制的阈值,就需要限制流量并采取少量措施以完成限制流量的目的。

【微服务】分布式下服务调用产生的问题之服务容错_第8张图片

熔断

互联网系统中,当下游服务因访问压力过大而响应变慢或失败,上游服务为了保护系统整体的可用性,可以暂时切断对下游服务的调用。这种牺牲局部,保全整体的措施就叫做熔断

【微服务】分布式下服务调用产生的问题之服务容错_第9张图片

服务熔断一般有三种状态:

  • 熔断关闭状态(Closed)

服务没有故障时,熔断器所处的状态,对调用方的调用不做任何限制。

  • 熔断开启状态(Open)

后续对该服务接口的调用不再经过网络,直接执行本地的fallback方法。

  • 半熔断状态(Half-Open)

尝试恢复服务调用,允许有限的流量调用该服务,并监控调用成功率。如果成功率达到预期,则说明服务已恢复,进入熔断关闭状态;如果成功率仍旧很低,则重新进入熔断关闭状态。

降级

降级其实就是为服务提供一个托底方案,一旦服务无法正常调用,就使用托底方案。

【微服务】分布式下服务调用产生的问题之服务容错_第10张图片

常见的容错组件

Hystrix

Hystrix是由Netflflix开源的一个延迟和容错库,用于隔离访问远程系统、服务或者第三方库,防止级联失败,从而提升系统的可用性与容错性。

Resilience4J

Resilicence4J一款非常轻量、简单,并且文档非常清晰、丰富的熔断工具,这也是Hystrix官方推荐的替代产品。不仅如此,Resilicence4j还原生支持Spring Boot 1.x/2.x,而且监控也支持和prometheus等多款主流产品进行整合。

Sentinel

Sentinel 是阿里巴巴开源的一款断路器实现,本身在阿里内部已经被大规模采用,非常稳定。

如果是使用spring cloud alibaba的话,则推荐使用Sentinel做服务容错。

下面是三个组件在各方面的对比:

【微服务】分布式下服务调用产生的问题之服务容错_第11张图片

总结

本篇文章介绍了这么多,就是在说明,在分布式微服务中,服务调用之间产生的问题,以及解决方案。对于服务容错,本次采用Sentinel,下篇文章来讲解Sentinel 入门。

你可能感兴趣的:(微服务,微服务,分布式,java,服务调用,服务容错)