欢迎来到阿Q社区
https://bbs.csdn.net/topics/617897123
在微服务架构中,我们将业务拆分成一个个的服务,服务与服务之间可以相互调用,但是由于网络原因或者自身的原因,并不能保证服务的100%可用,如果单个服务出现问题,调用这个服务就会出现网络延迟,此时若有大量的网络涌入,会形成任务堆积,最终导致服务瘫痪。
接下来,我们来模拟一个高并发的场景
@GetMapping("/{pid}") public ShopOrder order(@PathVariable("pid") Long pid) { log.info("客户下单,这时候要调用商品微服务查询商品信息。。。"); //通过fegin调用商品微服务 ShopProduct product = productService.findByPid(pid); log.info("商品信息,查询结果:" + JSON.toJSONString(product)); //模拟一次网络延时 try{ Thread.sleep(100); }catch (InterruptedException e) { e.printStackTrace(); } log.info("当前用户信息为自己,假设我们设置为1"); ShopOrder shopOrder = new ShopOrder(); shopOrder.setUid(1L); shopOrder.setUsername("公众号:阿Q说代码"); shopOrder.setPid(product.getId()); shopOrder.setPname(product.getPname()); //为了不产生太多垃圾数据,暂时不做订单保存 // orderService.save(shopOrder); return shopOrder; }
修改配置文件中 tomcat 的并发数
server: port: 8091 tomcat: #tomcat的最大并发值修改为10,默认是200 max-threads: 10
接下来使用压测工具,对请求进行压力测试
下载地址 https://jmeter.apache.org/
进入 bin 目录,修改 jmeter.properties 文件中的语言支持为 language= zh_cn,然后点击 jmeter.bat 启动软件。
启动前
启动后
结论:此时会发现,由于 order 方法囤积了大量请求,导致 message 方法的访问变慢了,这就是服务雪崩的雏形。
在分布式系统中,由于网络原因或自身的原因,服务一般无法保证100%可用。如果一个服务出现了问题,调用这个服务就会出现线程阻塞的情况,此时若有大量的请求涌入,就会出现多条线程阻塞等待,进而导致服务瘫痪。
由于服务与服务之间的依赖性,故障会传播,会对整个微服务系统造成灾难性的严重后果,这就是服务故障的“雪崩效应”。
雪崩发生的原因多种多样,有不合理的容量设计,或者是高并发下某一个方法响应变慢,亦或是某台机器的资源耗尽。我们无法完全杜绝雪崩源头的发生,只有做好足够的容错,保证在一个服务发生问题,不会影响到其它服务的正常运行。也就是“雪落而不雪崩”。
要防止雪崩的扩散,我们就要做好服务的容错,容错说白了就是保护自己不被猪队友拖垮的一些措施。下面介绍常见的服务容错思路和组件。
常见的容错思路有隔离、超时、限流、熔断、降级这几种,下面分别介绍一下。
隔离
它是指将系统按照一定的原则划分为若干个服务模块,各个模块之间相对独立,无强依赖。当有故障发生时,能将问题和影响隔离在某个模块内部,而不扩散风险,不波及其它模块,不影响整体的系统服务。
常见的隔离方式有:线程池隔离和信号量隔离。
超时
在上游服务调用下游服务的时候,设置一个最大响应时间,如果超过这个时间,下游未作出反应,就断开请求,释放掉线程。
限流
限流就是限制系统的输入和输出流量已达到保护系统的目的。为了保证系统的稳固运行,一旦达到的需要限制的阈值,就需要限制流量并采取少量措施以完成限制流量的目的。
熔断
在互联网系统中,当下游服务因访问压力过大而响应变慢或失败,上游服务为了保护系统整体的可用性,可以暂时切断对下游服务的调用。这种牺牲局部,保全整体的措施就叫做熔断。
服务熔断一般有三种状态:
降级
降级其实就是为服务提供一个托底方案,一旦服务无法正常调用,就使用托底方案。
下面是三个组件在各方面的对比:
到这儿,高并发带来的问题及常见容错方案就结束了。下一篇将为大家带来容错组件 Sentinel 的文章,敬请期待吧!
后续的文章,我们将继续完善我们的微服务系统,集成更多的Alibaba组件。想要了解更多JAVA后端知识,请点击文末名片与我交流吧。留下您的一键三连,让我们在这个寒冷的东西互相温暖吧!