部门:美业测试
前言接口自动化测试是个老生常谈的话题,基本上每个测试团队都会涉及,市面上大部分文章会从如何设计框架去讲解。但是这一次我想回归自动化的根本价值,从持续演进的解决方案出发,讲解有赞测试团队的心路历程和对于接口自动化的理解,欢迎交流。
有赞测试团队肩负的一个使命是:打造高效且可靠的产品交付能力。为了完成这个使命,我们会借助各种工具,而接口自动化就是其中的一把利器。
如何让接口自动化的价值最大化,首先需要想清楚如何去评估接口自动化的质量,有赞测试团队是这样思考的:
最大化提升回归测试的效率
消灭更多的测试盲点
接下来介绍的持续演进的方案都是基于这两个方向去努力的
二、业务服务器架构为了让大家更好地理解我们的演进思路,我先简单介绍一下我们业务的服务器架构,接口自动化的测试目标。
客户端:渠道较多,分Web、H5、小程序、APP、Pad,通过域名请求,统一接入到公司网关层Nginx集群,反向代理转发到对应业务的Web服务器。
Web服务器:这一层是Nodejs实现,涉及逻辑主要是路由转发、登陆态校验。
后端服务器:电商系通用的Java微服务架构,API1和API2是接入层,涉及逻辑主要是请求转发和非业务相关的通用处理。Service1这一层才是真正的业务逻辑层,大概有30多个微服务应用,互相之间使用dubbo协议通信。
所以,接口自动化面临2种选型:
模拟客户端进行HTTP请求,优势是能快速覆盖用户场景,劣势是需要构建大量的数据,后期维护成本高。
基于dubbo协议进行请求,优势是能Mock依赖数据,劣势是前期脚本编写成本高,且不支持预发执行。
该如何选择呢?小朋友才做选择题,成年人我们都要了,两者互相结合,扬长避短。
这里需要从三个阶段来看:回归测试前、回归测试中、回归测试后。
回归测试前,我们通过2个事情来提升效率:
1、精准定位自动化测试覆盖范围
最原始的范围依据是根据功能测试用例来,但这不是客观合理的,我们从对外暴露的接口数和后端Service层应用的代码覆盖率去评估。
我们基于JaCoCo进行二次开发实现增量代码覆盖率统计,可以拿到每次执行自动化后的指令级覆盖(Instructions,C0coverage),分支(Branches,C1coverage)、圈复杂度(Cyclomatic Complexity)、行覆盖(Lines)、方法覆盖(non-abstract methods)、类覆盖(classes)。通过这些信息我们可以对我们的自动化进行查漏补缺。
通过解析前端路由文件,获取线上正在使用的接口数,作为基准,对比自动化执行请求的接口数,可以快速告诉各个模块负责人覆盖盲点。
2、高效编写自动化脚本 我们需要通过抓包工具来获取请求信息,这里面涉及到请求过滤、数据格式化、拷贝、顺序调用等工作,我们做了一个Chrome插件来代替这些大量的重复性工作,以提升自动化编写效率。 依下图所示,先Start开始抓包,操作被测页面,Stop停止,列表会过滤显示符合条件的XHR类型请求,请求信息自动格式化,支持手动单条删除or拷贝,点击Copy调用接口批量上传到自动化测试平台,是不是大大简化了前期获取原生数据的工作。 在我们测试平台进行用例的二次编辑,全部支持界面化。 回归测试中,只需要关注一个事情:执行时间。随着业务不断壮大,线上接口数接近2000+,对应的自动化接口请求数10000+,每次全量执行时间需要1个多小时,这样的速度是无法接受的,为了在10分钟之内解决战斗,我们做了3个事情: 1、延迟队列 废除了Sleep方式,将数据有延迟的校验放置到延迟队列中,支持自定义在一级模块or二级模块后再校验。 2、多级模块支持并发执行 我们采用官方的CompletableFuture异步线程类实现执行逻辑,Executors线程池管理,和业务账号池关联起来,一个线程对应一个执行账号资源,项目实际多模块并发的代码如下: 合理的使用线程池能够带来以下明显的好处:采用这个方式的优势:
自动化测试任务中途异常退出结束了,也可以清理掉已创建的数据
支持多份的同样数据清理,数据之间不受影响
无需用完立刻删除,统一清理,且支持并发,高效
线上流量采集,还原真实用户场景,覆盖率高
自动分析生成测试用例,省去手动编写和后期维护工作,大大提升效率
支持自定义Mock,将后端服务隔离,进行模块化测试,代替单元测试的完美方案
最后打个小广告
有赞测试团队持续招人中,大量岗位空缺
只要你来,就能帮你点亮全栈开发技能树
我们期待你的加入~
如果你也是聪明、皮实、有要性的小伙伴
如果你对零售、SaaS有更多想法
欢迎投递简历:xujing@
加入我们,一起enjoy