目录:导读
前言
一、背景
二、单元测试
三、UI自动化测试
3.1 拿风险测评页举例
3.2 技术选型
3.3 平台架构图
3.4 各个功能模块
四、接口测试
4.1 技术选型
4.2 接口自动化平台架构图
4.3 各个功能模块
4.4 接口自动化测试架构图(引自官方文档)
“如何保证质量”一直是产品或项目过程中关注的焦点,而测试是产品质量把控环节中非常关键的部分。本文结合我们的实践经验,总结出一套有效的自动化测试组合拳。
我们的测试工作经历了以下四个阶段。
第一阶段,产品需求评审完成,开发团队实现功能开发,然后草草提测,不写单元测试。测试人员进行人工测试,没有工具或系统做辅助,测试用例编写是在excel或脑图中呈现。这个阶段只对业务熟悉,开发只关注功能实现。
第二阶段,产品需求评审完成,开发团队实现功能开发,写自身功能相关的单元测试,组长review组内代码。测试方面,依然处于人工检测功能测试阶段,但开始有一些相关的小工具辅助测试。在两轮或多轮测试情况下,回归一直是一个问题,还有分支测试完成,主干回归的过程,测试环境、预发布环境、灰度环境、线上环境等测试回归效率很低,人工测试在这方面的不足格外明显。
第三阶段,随着业务的发展产品功能需要快速上线,同时系统技术不断迭代,质量也面临着从未有过的挑战,人肉战术不是长久之计。在此阶段部门做了很多改进,引入和开发了很多测试辅助工具,如项目管理工具、测试用例管理工具、BUG管理工具、自动发布系统、自动打包等。
搭建测试用例管理工具,方便编写及后期跟踪用例。一轮二轮测试人员如何分配;用例状态的管理是通过、挂起还是失败,一目了然。
BUG管理工具,主要是给开发和测试人员使用,通过文字和图片结合的方式描述功能问题,减少了开发和测试的沟通成本。
项目方面也开发出项目管理工具,方便查看项目状态和人力资源情况,在项目中做到很好的呈现。
在此阶段我们开始研发UI自动化测试工具,直观的想法是减少人工测试成本,提高测试效率。
自动化部署系统让开发环境、测试环境、灰度环境和线上环境做到很好的隔离,每个阶段更清晰,避免相互干扰引起的问题。
APP方面结合Jenkins可以实现自动打包,测试起来做到了开发和测试都以版本控制系统为主。
第四阶段,因为测试往往是最后一个环节,风险较大,“怎么实现降低风险提高人效,测试用例可以复用”变成了我们这个阶段的主要工作。之前的流程是开发完成提测,做一次冒烟。因为我们的产品是互联网金融APP,APP有服务端开发和前端开发,像web、wap、anroid、IOS等渠道,在研发过程中经常会出现以下场景:
需求只是项目中的一小部分,测试问产品要不要全量测?产品担心这次需求的研发会影响到其他部分,就要求全量测试,于是测试的工期会拉得很长,拉长了需求的整个工期。
测试抱怨开发的BUG多,还有阻塞流程的BUG,需要等待开发解决BUG后才能继续测试,导致整个测试工期加长。
手工测试偶有疏忽造成漏测试的点,需求上线后,客户反馈BUG。
产品上线时间有deadline;测试时间长,挤占开发时间;测试人手不够;测试的准确性达不到要求...要解决这些问题,必然要做自动化测试方案。针对业务和测试开发同事的特点,我们从单元测试、接口测试、UI自动化测试三个方面做了有效衔接和可持续使用的自动化测试方案。服务端开发完成,接口测试开始介入。
接口测试前期使用一些小工具,会在小工具里写一些脚本,来方便测试过程中的功能多次回归检验,是否有更好的方式来做这件事,于是我们搭建了接口自动化系统。之前测试是只对UI界面做功能测试,我们现在还实现了单元测试、UI自动化测试、接口自动化测试。第五阶段,测试团队全部人员转型测开,部分成员处在人工测试和自动化测试的边界上,实际上我们一直在做内训,让团队整体能更快地转型成为一个测试开发团队。这个阶段对成员要求相对较高,主要技术语言是python,还要对基础的系统架构及运维知识有更多了解,团队内部正在开发测试项目看板、重写用例管理工具、升级接口自动化工具等,后期计划实现APP多设备管理及测试。还有一些测试没有提到,但也包括在主流程中,比如安全测试、兼容性测试、分辨率测试等。目前项目的整体流程是这样的:
产品通过DM上传PRD,参与人员熟悉需求。
开需求分析会议,确定需求最终版。
需求定稿后,开发人员抽象基础功能、编写UI部分,测试人员通过testlink写测试用例。
测试用例编写完需要产品、开发、测试人员做测试用例评审。
开发人员根据测试用例,编写自己具体业务的单元测试用例。前端人员和自动化测试人员制定UI自动化测试点,定义好断言字典和模拟用户行为的方法名称,自动化测试人员编写自动化测试case。
开发人员开发的同时,接口测试人员根据接口文档,编写接口测试用例。
所有编码工作完成,开发人员单元测试通过后,进行接口测试验证,再进行UI自动化测试验证。UI自动化测试既要测试当前需求点,也要回归以往的case。
验证都通过后,手工测试人员介入。
手工测试完毕,自动化CASE反复测试通过的情况下,进行上线。
接下来分别介绍团队在单元测试、服务层自动化测试、UI层自动化测试的具体技术实现。
单元测试是对代码实现逻辑做测试,整体项目环节比较靠前,所以成本最小也最有效,但对开发人员的综合能力要求较高。前端代码中,用户交互的部分交给UI自动化测试,而作为业务基础的类和方法,适用单元测试,我们项目使用测试库mocha和断言库chai,配合开发工具WEBSTORM,可以非常方便地检测代码通过性。比如我们开发的公用方法叫tools.js,使用mocha来测试它的文件是tools.test.js,如下图:
UI自动化测试的目标有两个:回归测试和测试准入,也就是开发完毕后,必须通过UI自动化的测试,方可进入手工测试阶段,以节省手工测试的工作量,缩短测试工期。UI自动化测试的难点在于产品多变,而case和UI是强关联,如果UI变更,就会导致Case失效。如何解决case的稳定性,使之不受UI的影响,成为我们的重要目标。经过反复尝试,我们选择了这样的方案。测试工具对dom的选取,不再使用ID或者XPATH,而由前端人员在页面上定义专门用于UI自动化的属性,测试工具需要的断言也由前端人员在场景触发时输出到页面中供测试工具抓取。测试工具和前端代码维护共同的字典,保证双方取值的正确性。我们在每个页面都有一个ID名为assertWord的隐藏div,用来存放断言的值供测试工具抓取,用户不同操作的时候,会去更改这个值。
我们共用的字典如图:
进入页面的时候,会有
测试工具抓取到riskPage,说明进入到了风险测评页。当用户勾选完选项提交问卷后,如果接口返回正确,前端代码如下:
我们在弹出结果的时候,去更改assertWord的值,供测试工具断言。
通过前端给测试工具抛值的方式,做到了case和UI的解耦。我们选择前端来处理的原因是:UI改变也是前端来做,抛值也是前端来做,同一个人做相比前端和测试两个人做,避免了沟通产生的疏漏。另外,对于用户操作的模拟,有时候测试工具不如前端编写方便,比如这个风险测评页面有很多道题目,测试工具要是模拟用户挨个答题,相当费时间,而前端则只需要很少的代码就能完成,如图:
所以我们编写了很多模拟用户行为的方法,供测试工具调用。
目前UI自动化测试已实现了web平台化,功能测试人员通过web页面来组织、编辑、执行RFW(robotFrameWork)测试用例脚本,将测试用例的管理和执行统一到系统中。与传统的自动化测试相比,支持协同工作、分布式测试执行,提高了测试效率,同时也避免了功能测试人员在本地搭建一系列测试环境。
1)web框架:Flask简述:Flask是一个使用Python编写的轻量级Web应用框架。优点:
2)分布式任务队列:Celery简述:Celery 是一个分布式队列的管理工具, 可以用Celery提供的接口快速实现并管理一个分布式的任务队列。优点:
3)测试框架:Robot Framework简述:Robot Framework是一个基于Python的、可扩展的关键字驱动的测试自动化框架,用于端到端验收测试和验收测试驱动开发。优点:
4)UI测试库:SeleniumLibrary简述:SeleniumLibrary是针对Robot Framework开发的Selenium库,它也是Robot Framework下最流行的库之一,主要用于编写Web UI自动化测试。优点:
1)测试数据构造测试人员可以根据测试需求获取测试数据,简化测试步骤提高测试效率。
2)Mock服务切换该模块为了满足一些特殊测试场景,将待测服务调用第三方平台的请求转发到Mock server,以此来模拟那些服务,提供数据进行测试。
3)UI测试脚本编辑脚本的创建与编辑完全是通过页面操作的,平台展示页面清晰、简洁,支持协同工作。编辑页面仿照Robot Framework官方的Ride编辑软件,用类Excel表格的方式创建测试用例,同时支持关键字搜索、参数和使用提示,降低测试人员使用平台门槛。
脚本中使用的关键字分为两种:引用的Library和resource。library为第三方库,resource为自定义关键字集合。Resource关键字给我们提供的是一种类似于“函数”概念的用户自定义机制。我们可以将一些通用的业务过程封装为一个关键字,在编写测试用例时直接调用。一旦业务过程发生变化,我们只需要更改关键字中的业务逻辑即可,而不必更改每个测试用例。编写自定义关键字需要考虑它的健壮性、合理性,所以在任务的分配过程中这部分的编写都是由具有一定编程思想的测试人员实现的。
4)UI测试脚本运行测试执行需要选择脚本、测试环境和Mock地址(可选)。运行过程中可以实时查看任务队列中的执行状态和历史任务的测试报告。
接口测试主要的作用是提前降低风险,不至于等到APP端开发完成才发现问题,越往后时间成本和开发成本越高,风险越大。在多团队协作项目工期紧张的情况下,发现较大问题再调整产品需求几乎是不可能的,此类问题很消耗团队士气,团队被突如其来的问题影响,很容易被打乱节奏。在服务端开发完成提测,服务端测试可以有效拦截到一半左右的问题,很大程度降低风险,提高人效。在我们的项目中具体实施步骤如下:
同样接口自动化测试也实现了web平台化,支持自动化测试全流程,覆盖测试环境管理、测试项目管理、测试脚本开发、测试执行、测试报告生成等流程。平台具有良好的扩展性、易维护性,支持异步执行、定时任务,能与企业邮件系统集成发送测试报告,同时在项目不断迭代的过程中,测试用例能弹性调整和复用。
1)web框架:Django简述:最流行的python web框架,采用了MVC的框架模式,提供全套的web开发解决方案。优点:
2)分布式任务队列:Celery简述:Celery 是一个分布式队列的管理工具, 可以用Celery提供的接口快速实现并管理一个分布式的任务队列。优点:
3)测试框架:HttpRunner2.0简述:HttpRunner是一款面向 HTTP(S) 协议的通用测试框架,只需编写维护一份YAML/JSON脚本,即可实现自动化测试、性能测试、线上监控、持续集成等多种测试需求。优点:
1)项目管理用例以项目为维度进行管理,可以对项目进行增、删、改、查。创建项目需要添加一些简要描述信息,在项目列表页面可以选择单个或多个项目运行。
2)模块管理按照待测接口所属功能模块进行创建,支持模块的增、删、改、查。创建模块必须指定所属的项目,在模块列表页面可以选择单个或多个模块运行。
3)用例管理支持用例的增、删、改、查,创建的用例必须指定所属的项目和模块。用例的整体结构包括局部变量定义、请求响应hook配置、请求接口URL、请求数据、请求Header、接口断言和接口返回值的抽取
4)配置管理配置内可定义全局变量和全局hook,支持配置的增、删、改、查。5)测试套件通过测试套件,将服务于同一个测试目的或同一运行环境下的一系列测试用例有机的组合起来。支持测试套件的增、删、改、查。
6)Json Schema管理接口测试断言部分采用Json Schema进行json数据内容校验。每个接口对应着一个Json Schema的配置。支持增、删、改、查。
7)报告管理支持测试报告的可持久化存储,可以在线查看、下载和删除。报告基于extentreport实现。
8)测试环境管理
录入新的测试环境信息,支持增、删、改、查。
9)用例执行执行方式分为同步和异步两种,可以按照项目、模块、用例和测试套件执行。手动触发需要选择运行环境和执行方式,定时任务执行支持添加项目级别和模块集合,遵循crontab表达式。
上面谈了一些大家都在关注的点,我尽量用通俗易懂的话表达出来。这些也是我自己工作中曾经遇到的一些问题,希望看到这篇文章的同学,能对你当下面临的问题有所帮助。
----------------------------------------------------------------------
最后,为方便大家自学软件测试,特意给大家准备了一份13G的超实用干货学习资源,涉及的内容非常全面。
包括软件学习路线图,上课视频、8个突击实战项目,60余个软件测试用软件,25份测试文档,55个软件测试相关问题,15篇测试经验级文章,上千份测试真题分享,还有2022软件测试面试宝典,还有软件测试求职的各类精选简历,希望对大家有所帮助…..
如果对你有帮助的话,点个赞收个藏,给作者一个鼓励。也方便你下次能够快速查找。