2023年浙江省职业院校技能大赛(高职组)
“软件测试"赛项竞赛规程
—赛项名称
赛项名称:软件测试
赛项组别:高职组
赛项归属产业:电子信息大类
二、竞赛目的
(一) 引领职业院校专业建设与课程改革
本赛项竞赛内容以《国家职业教育改革实施方案》为设计方针,以电 子信息产业发展的人才需求为依据,以软件测试岗位真实工作过程为载体, 全面检验高等职业院校人才培养方案和用人单位岗位要求的匹配程度,检 验学生的软件测试工程实践能力和创新能力,通过“以赛促学、以赛促教、 以赛促改",持续推进专业目录、专业教学标准、课程标准、顶岗实习标准、 实训条件建设标准建设,从而提高人才培养的针对性、有效性和专业建设 水平。
(二) 促进产教融合、校企合作、产业发展
目前人才培养供给侧和产业需求侧在结构、质量、水平上还不能完全 适应,“两张皮''问题仍然存在。深化产教融合,促进教育链、人才链与产业 链、创新链有机衔接,是当前推进人力资源供给侧结构性改革的迫切要求, 对新形势下全面提高教育质量、扩大就业创业、推进经济转型升级、培育 经济发展新动能具有重要意义。本赛项按照行业企业软件测试岗位真实工 作过程设计竞赛内容,促进教学过程与生产过程对接、课程内容与职业标 准对接、专业设置与产业需求对接,最大限度匹配与适应人才培养供给侧 和产业需求侧,从而促进产教融合、校企合作、产业发展。
(三)展示职教改革成果及师生良好精神面貌
本赛项按照行业企业软件测试岗位真实工作过程设计竞赛内容,通过 把真实测试项目流程引入教学与备赛,带动全国高职院校培养出一批懂专 业、重实践的“双师型''教师。借助本赛项可以考查参赛选手的实际动手能力、 规范操作水平、创新创意水平,以及综合职业能力,从而树立广大师生对 质量、效率、成本和规范的意识,为中国软件产业发展输送专业的软件测 试人才,展示职教改革成果及参赛师生良好精神面貌。
三' 竞赛内容
竞赛以“资产管理系统"为被测对象,采用实际操作形式,完成软件测试 工作。竞赛突出实战过程,既满足软件产业对高素质技能人才的需求特点, 又符合高等职业院校基于工作过程的课程教学特点。
比赛围绕软件测试应用领域的主流技术及应用,考察选手面对实际问 题的综合分析能力,对测试用例、测试方法的设计能力,对软件测试相关 技术的掌握程度。考核内容包括:功能测试计划制定、测试用例设计、测 试执行和提交Bug、测试总结报告编写;自动化测试要求分析、测试工具 使用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执 行;单元测试设计测试数据,编写测试脚本,完成编译和程序运行,进行 界面截图;接口测试要求分析、测试工具使用和测试执行;团队合作能力 以及应用创新能力等职业素养。
竞赛过程包括以下任务:
序号 |
内容模 块 |
具体内容 |
说明 |
任务一 |
制定功 能测试 计划 |
根据软件测试竞赛项 目需求,制定功能测 试计划 |
能够根据需求文档进行需求理解和分析。 功能测试范围划分和界定。 功能测试任务分解。 对功能测试难度进行预估。 能够对功能测试工作量和进度进行预估。 文档编写规范等。 |
设计功 能测试 用例 |
根据软件测试竞赛项 目需求,设计功能测 试用例 |
能使用典型测试方法进行功能测试用例 设计。 对功能测试用例的输入、预计输出、实际 输出等规范描述。 文档编写规范等。 |
|
执行功 能测试 用例 |
执行功能测试用例, 提交缺陷报告 |
根据功能测试用例进行测试,发现并记录 Bugo 对Bug描述、输入、预计输出、实际输 出等规范描述,并对Bug截图。 文档编写规范等。 |
|
编写功 能测试 总结报 告 |
编写功能测试总结报 告 |
根据功能测试用例执行结果编写功能测 试总结报告。 Bug汇总统计等。 Bug分类、Bug严重等级分析统计等。 文档编写规范等。 |
|
任务二 |
自动化 测试 |
根据软件自动化测试 的要求,编写并执行 自动化测试脚本 |
根据自动化测试要求,考查自动化测试理 论知识、浏览器基本操作、页面元素进行 识别并定位、Selenium基本方法使用、U nittest框架、数据驱动、数据断言、Page Object设计模式、数据驱动+Page Obje ct模式等,以及自动化测试脚本编写,执 行自动化测试脚本。 |
任务三 |
性能测 试 |
根据软件性能测试的 要求,执行性能测试 |
根据性能测试要求分析性能测试的压力 点,使用性能测试工具(JMeter及LoadRu nner),添加脚本,设置场景,执行性能 测试,截取过程及结果截图。 |
任务四 |
单元测 试 |
根据软件测试竞赛项 目需求,编写应用程 序,设计测试数据并 得出测试结果,编写 单元测试报告 |
根据单元测试要求,编写应用程序、设计 测试数据,考查语句、判定、条件等覆盖 方法,考察JUnit断言、参数化设置、测 试套件等方法,并最终得出测试结果,编 写单元测试报告。 |
任务五 |
接口测 试 |
根据软件接口测试的 要求,执行接口测试 |
根据接口测试要求,使用接口测试工具, 考查用例接口请求设置、用例参数设置、 变量设置、测试断言、数据驱动、添加c ookie等,执行接口测试,截取过程及结 果截图。 |
竞赛各任务分值权重和时间分布如下:
序号 |
任务名称 |
竞赛时间 |
任务一 |
制定测试计划,权重5% |
300分钟 |
设计测试用例,权重15% |
||
执行测试用例,权重15% |
||
编写测试总结报告,权重5% |
||
任务二 |
自动化测试,权重20% |
|
任务三 |
性能测试,权重20% |
|
任务四 |
单元测试,权重10% |
|
任务五 |
接口测试,权重5% |
|
职业素养,权重5% |
四、竞赛方式
1.本赛项为团体赛,同一学校的报名参赛队伍不超过2支。
2.每支参赛队由2名选手组成。团体赛参赛队可配指导教师,指导教 师须为本校专兼职教师,每队限报2名指导教师,竞赛期间不允许指导教 师进入赛场进行现场指导。参赛选手和指导教师报名确认后不得随意更换。
五' 竞赛流程
日期 |
时间 |
内容 |
04月 25日 |
14:00-18:00 |
各参赛队报到 |
15:00-16:00 |
领队会、赛前说明 |
|
16:00-16:30 |
选手熟悉赛场 |
|
04月 26日 |
07:00-08:00 |
赛场检录 |
08:00-09:00 |
信息加密,入场等候 |
|
09:00-14:00 |
比赛进行 |
|
15:00-20:00 |
成绩评定 |
六、 竞赛试题
本赛项样题详见《附件一》。
七、 竞赛规则
八' 竞赛环境
九、技术规范
参赛代表队在实施竞赛项目时要求遵循如下规范:
序号 |
标准号 |
中文标准名称 |
1 |
GB/T15532—2008 |
计算机软件测试规范 |
2 |
GB/T16260—2006 |
软件工程产品质量 |
3 |
GB/T9385—2008 |
计算机软件需求规格说明规范 |
4 |
GB/T18905—2002 |
软件工程产品评价 |
5 |
GB/T8567-2006 |
计算机软件文档编制规范 |
6 |
GB/T25000.1-2010 |
软件质量要求与评价(SQuaRE)指南 |
7 |
GB/T25000.10-2016 |
软件质量要求与评价(SQuaRE)第10部分:系 统与软件质量模型 |
8 |
GB/T25000.51-2016 |
软件质量要求与评价(SQuaRE)第51部分:商 业现货 (COTS)软件产品的质量要求与评测细则 |
9 |
GB/T25000.62-2014 |
软件质量要求与评价(SQuaRE)易用性测试报告 行业通用格式(CIF) |
十' 技术平台
设备类别 |
数量 |
设备用途 |
基本配置 |
客户端 |
毎支参赛 队2台 |
竞赛选手比赛使用。 |
性能相当于2.0GHZ 处理器,4G及以上内 存。 |
北京四合天地科技有限公司提供的比赛技术平台:《四合天地软件测
试实训系统》。
(三)相关软件
设备类别 |
软件类别 |
软件名称 |
客户端自 带软件 |
操作系统 |
Windows 10 64 位 |
浏览器 |
Chrome 67 IE11 |
|
浏览器驱动 |
Cluome 67 对应驱动-Cluomedriver |
|
浏览器插件 |
SwitchyOmegaCluomium |
|
文档编辑器 |
WPS |
|
截图工具 |
Windows 10系统自带 |
|
输入法 |
搜狗拼音输入法、搜狗五笔输入法 |
|
性能测试工具 |
Apache-JMeter-5.4.1 FiddlerSetiip JDK-11.0.1 l_Windows-X64_bin.exe LoadRuimer 12.55_Conmiunity_Edition 英 文版及以上 |
|
自动化测试工 具 |
Python-3.5.0-amd64 Selenium 版本 3.141.0 ddt版本141 PyChann (2017.1.1) |
|
单元测试工具 环境 |
JDK-14.0.2_W indows-X64_bin.exe Eclipse_Version:2022-03(4.23.0) j unit-4.13.2.jar hamcrest-core-1.3 .jai' hamcrest-libraiy-1.3 .jar |
|
接口测试工具 |
Postman-win64-6.6.1-Setup |
卜一、成绩评定
(一)评分细则(总分100分)
任 务 |
考查点 |
评分标准 |
评分细则 |
分值 (分) |
任 务 |
制定测 试计划 |
测试计划应包括测试目的、 测试范围、测试人员、测试 环境、测试人员进度安排与 模块划分等。 |
1.概述说明清晰。 |
5 |
2.测试任务说明清晰。 |
||||
3.测试资源说明清晰。 |
||||
4.功能测试计划列出全部功能 |
主要评分点包括明确测试 范围、合理并完备的进行任 务分配、制定有效完备的测 试策略等。 |
点O |
|||
5.对每个功能点进行分工。 |
||||
6.功能点的测试分工合理。 |
||||
7.测试整体进度安排说明清晰。 |
||||
8.相关风险说明清晰。 |
||||
设计功 能测试 用例 |
测试用例包括功能测试用 例。测试用例文档应包括: 测试用例编号、功能点、用 例说明、前置条件、输入、 执行步骤、预期结果、重要 程度。 |
1.用例数量。每写一条规范的测 试用例得分=4/用例数量(不能 有重复的测试用例,编写要符合 需求且正确)。 |
15 |
|
2.重点测试用例数量。每发现1 个得分=10/重点测试用例数量 (不能有重复的测试用例,编写 要符合需求且正确)。 |
||||
3.测试用例编写符合测试用例 规范。 |
||||
执行功 能测试 用例 |
Bug提交包括功能缺陷等。 Bug提交文档应包括缺陷 编号、角色、模块名称、摘 要描述、操作步骤、预期结 果、实际结果、缺陷严重程 度、提交人、截图等。 |
l.Bug数量。每发现一个Bug得 分=4/Bug数量(Bug描述要规范 且正确,重复的Bug不计入Bug 数量)。 |
15 |
|
2.重点Bug数量。每发现一个重 点Bug得分=10/重点Bug数量(B ug描述要规范且正确,重复的B ug不计入Bug数量)。 |
||||
3.测试Bug缺陷报告清单编写 符合规范,每一项均需要填写, 否则得0分。 |
||||
编写测 试总结 报告 |
测试总结报告应包括测试 目的、测试环境、测试人员、 测试进度情况、Bug汇总、 测试结论等。 主要评分点包括:测试总结 报告内容完整。 |
1.测试概述、测试参考文档、项 目组成员、测试设计介绍填写完 整。 |
5 |
|
2.用例汇总填写完整。 |
||||
3.测试进度回顾填写完整。 |
||||
4.功能测试回顾描述清晰合理。 |
||||
5.缺陷汇总填写完整。 |
||||
6.测试结论描述清晰合理。 |
||||
任 务 |
自动化 测试执 行 |
自动化测试执行包括自动 化测试脚本编写,执行自动 化测试脚本,完成自动化测 试总结报告。 |
1.术语定义描述清晰 |
20 |
2.自动化测试脚本代码正确性。 |
||||
任 务 |
性能测 试执行 |
性能测试执行包括使用性 能测试工具,添加脚本、回 放脚本、配置参数、设置场 景、执行性能测试,对测试 |
1.术语定义描述清晰。 |
20 |
2.测试策略描述清晰。 |
||||
3.性能测试实施过程执行截图 正确性。 |
||||
过程和结果进行截图,完成 性能测试报告。 |
4.执行结果填写完整。 |
|||
任 务 四 |
单元测 试执行 |
按照要求编写Java程序, 设计测试用例,执行单元测 试,编写单元测试报告 |
1.程序源代码 |
10 |
2.测试数据和测试方法代码 |
||||
3.执行结果截图 |
||||
任 务 五 |
接口测 试执行 |
接口测试执行包括使用接 口测试工具进行设置,对测 试过程和结果进行截图,完 成接口测试总结报告。 |
1.术语定义描述清晰。 |
5 |
2.接口测试实施过程执行截图 正确性。 |
||||
职业素 养 |
竞赛现场符合企业“5S"(整 理、整顿、清扫、清洁和素 养)原则, |
1.团队分工明确合理。 |
5 |
|
2.操作规范。 |
||||
3.文明竞赛。 |
(二)组织分工
(三)评分方法
竞赛设团体奖。竞赛奖以实际参赛队数为基数,设定为:一等奖占比1 0%,二等奖占比20%,三等奖占比30%,小数点后四舍五入。
获得一等奖的参赛队指导教师获“优秀指导教师奖"。 十三' 赛项预案
赛场备用工位:赛场提供占总参赛队伍10%的备用工位。
竞赛系统可靠性:竞赛系统使用的服务器应进行冗余,数据库、存储 应使用高可用架构。提前开始运行,经过多次压力测试,由学校组织的真 实竞赛环境测试。
竞赛备用服务器:现场提供占总参赛队伍10%的备用服务器。
现场应急预案详情,如下:
(一) 服务器问题预案
若服务器在比赛过程中出现卡顿、死机等情况,参赛选手举手示意裁 判,在裁判与技术支持人员确定情况后,可更换服务器。更换服务器的等 待时间,可在比赛结束后延时。
(二) 交换机问题预案
若交换机在比赛过程中出现传输速度慢或无故中断等情况,参赛选手 举手示意裁判,在裁判与技术支持人员确定情况后,可更换交换机。更换 交换机的等待时间,可在比赛结束后延时。
(三)PC机问题预案
若PC机在比赛过程中出现死机、蓝屏等现象(重启后无法解决),参 赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换备用工 位或更换PC机进行答题。
十四' 赛项安全
赛事安全是技能竞赛一切工作顺利开展的先决条件,是赛事筹备和运 行工作必须考虑的核心问题。釆取切实有效措施保证大赛期间参赛选手、 指导教师、裁判员、工作人员及观众的人身安全。
(一)比赛环境
许随便携带书包进入赛场。
(二) 生活条件
(三) 组队责任
(四) 应急处理
比赛期间发生意外事故时,发现者应在第一时间报告,同时采取措施, 避免事态扩大。立即启动预案予以解决。出现重大安全问题的赛项可以停 赛,是否停赛由大赛执委会决定。事后,承办校应向大赛执委会报告详细 情况。
(五) 处罚措施
十五' 竞赛须知
(一)参赛队须知
等处理。其中,对于比赛过程及有关活动造成重大影响的,以适当方式通 告参赛院校或其所属地区的教育行政主管部门依据有关规定给予行政或纪 律处分,同时停止该院校参加全国职业院校技能大赛1年(届)。涉及刑 事犯罪的移交司法机关处理。
(二) 指导教师须知
(三) 参赛选手须知
(四)工作人员须知
十六' 申诉与仲裁
附件1:软件测试赛项竞赛任务书(样卷)
2023年浙江省职业院校技能大赛高职组
“软件测试''赛项竞赛任务书(样卷)
2023年3月
一、竞赛时间、内容及成绩组成
(-)竞赛时间
本次竞赛时间共为5小时,参赛选手自行安排任务进度,休息、饮水、 如厕等不设专门用时,统一含在竞赛时间内。
(二) 竞赛内容
本次竞赛考核技能点包括:功能测试计划制定、测试用例设计、测试 执行和提交Bug、测试总结报告编写;自动化测试要求分析、测试工具使 用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执行; 单元测试设计测试数据,编写测试脚本,完成编译和程序运行,进行界面 截图;接口测试要求分析、测试工具使用和测试执行;团队合作能力以及 应用创新能力等职业素养。
(三) 竞赛成绩组成
“软件测试''赛项竞赛成绩为100分,其中职业素养占5分,竞赛任务占 95分。各项竞赛任务占总分权重如下:
序号 |
竞赛任务名称及占总分权重 |
任务一 |
制定测试计划,权重5% |
设计测试用例,权重15% |
|
执行测试用例,权重15% |
|
编写测试总结报告,权重5% |
|
任务二 |
自动化测试,权重20% |
任务三 |
性能测试,权重20% |
任务四 |
单元测试,权重10% |
任务五 |
接口测试,权重5% |
二、竞赛须知
1、 本次竞赛平台地址、用户名及密码,功能接口测试被测系统地址、 用户名及密码,性能自动化测试被测系统地址、用户名及密码以竞赛现场 发放为准;
2、 本次竞赛提交的所有成果物及U盘中不能出现参赛队信息和参赛选 手信息,竞赛文档需要填写参赛队及参赛选手信息时以工位号代替;
3、 本次竞赛提交的U盘中只能保存竞赛成果文档,与竞赛成果无关的 文件均不能出现在此U盘中;
4、 请不要擅自更改竞赛环境,对于擅自更改竞赛环境所造成的后果, 由参赛选手自行承担,对于恶意破坏竞赛环境的参赛选手,根据大赛制度 予以处理;
5、 竞赛过程中参赛选手必须及时保存需要提交的文档(Wrod及Excel 文档),未及时保存而造成相关文档内容缺失或无法保存,后果由参赛选 手自行承担;
6、 自动化测试严格按照《A7-BS资产管理系统自动化测试要求》编写 自动化测试脚本,擅自恶意编写无限循环或破坏环境脚本造成系统死机或 软件出现问题,后果由参赛选手自行承担;
7、 性能测试请严格按照《A9-BS资产管理系统性能测试要求》设置并 发数量和执行时间,擅自提高并发数量和延长执行时间造成的后果由参赛 选手自行承担;
8、性能测试过程中,参赛选手可根据需要重置数据库或者重启Tomca t服务。重置数据库后数据恢复到开赛初始状态,此结果由参赛选手自行承 担(严禁使用JMeter、LoadRunner访问性能测试-重置数据库和重启Tome at服务地址)。重置数据库和重启Tomcat服务的动作以服务器日志记录为 准。重置数据库或者重启Tomcat服务不设专门用时(包括现场技术支持), 统一含在竞赛时间内;
9、 单元测试过程中,JDK所含内容及其在系统中的路径设置擅自进行 删除、修改;Eclipse中已建好的项目工程、已安装的相关jar包擅自删除; Workspace的默认目录擅自修改;以上事项若擅自进行而造成程序无法编 译、运行的后果,由参赛选手自行承担;
10、 竞赛结束后请竞赛选手不要关闭竞赛设备,由于竞赛选手关闭竞 赛设备造成的数据丢失等后果由参赛选手自行承担;
11、 竞赛中出现各种问题请及时向现场裁判举手示意,不要影响其他 参赛选手。
三、任务说明
(-)竞赛环境
竞赛环境由服务器(线上环境,通过VPN连接访问)、客户机1、客 户机2组成。
服务器说明:服务器中部署竞赛平台(下载文档,上传文档)、功能 接口测试被测系统、性能自动化测试被测系统,VPN成功连接后可通过浏 览器直接访问上述系统网址。
客户机部署说明:客户机1已安装PostMan、Eclips、PyCharm、WPS 相关环境;客户机2已安装LoadRunner, JMeter、WPS等相关环境。
系统访问说明:客户机1、2均可访问竞赛平台、功能接口测试被测系
统、性能自动化测试被测系统。
(二)竞赛任务文档
序号 |
文档名 |
文档下载位置 |
1 |
A1-BS资产管理系统需求说明书.doc |
竞赛平台 |
2 |
A2-功能测试计划模板.doc |
|
3 |
A3-功能测试用例模板.xls |
|
4 |
A4-功能测试Bug缺陷报告清单模板.xls |
|
5 |
A5-功能测试总结报告模板.doc |
|
6 |
A6-BS资产管理系统自动化测试要求.doc |
|
7 |
A7-自动化测试报告模板.doc |
|
8 |
A8-BS资产管理系统性能测试要求.doc |
|
9 |
A9-性能测试报告模板.doc |
|
10 |
A10-单元测试要求.doc |
|
11 |
All-单元测试报告模板.doc |
|
12 |
A12-BS资产管理系统接口测试要求.doc |
|
13 |
A13-接口测试报告模板.doc |
(三)任务组成
任务一:功能测试(40分)
一、制定功能测试计划(5分)
1、 任务描述
根据《Al-BS资产管理系统需求说明书》进行需求分析,划分和界定 测试范围,分解测试任务,预估测试风险、测试工作量和测试进度。按照 《A2-功能测试计划模板》完成功能测试计划文档。
2、 任务要求
功能测试计划文档应包括以下内容:
(1) 概述:编写目的、项目背景。
(2) 测试任务:测试目的、测试参考文档、测试范围、测试提交文档。
(3) 测试资源:软件配置、硬件配置、人力资源分配。
(4) 功能测试计划:整体功能模块划分。
(5) 功能测试整体进度安排。
(6) 相关风险。
3、 任务成果
XX-A2-功能测试计划.doc (XX代表工位号)
二、设计功能测试用例(15分)
1、 任务描述
根据《Al-BS资产管理系统需求说明书》和功能测试计划进行需求分 析,理解业务功能,设计功能测试用例。按照《A3-功能测试用例模板》完 成功能测试用例文档。
2、 任务要求
功能测试用例文档应包括以下内容:
(1) 按模块汇总功能测试用例数量。
(2) 功能测试用例应包含以下项目:测试用例编号、功能点、用例说 明、前置条件、输入、执行步骤、预期输出、重要程度、执行用例测试结 果。
3、任务成果
XX-A3-功能测试用例.xls (XX代表工位号)
三、执行功能测试用例(15分)
1、 任务描述
根据《Al-BS资产管理系统需求说明书》和功能测试用例,执行功能 测试,发现Bug、记录Bug并对Bug截图。按照《A4-功能测试Bug缺陷 报告清单模板》完成功能测试Bug缺陷报告清单文档。
2、 任务要求
(1) Bug缺陷报告清单文档应包括以下内容:
(2) 浏览器要求:
①使用谷歌浏览器(Chrome)执行Web端功能测试(含界面测试);
3、 任务成果
XX-A4-功能测试Bug缺陷报告清单.xls (XX代表工位号)
四、编写功能测试总结报告(5分)
1、 任务描述
根据功能测试情况,按照《A5-功能测试总结报告模版》完成功能测试 总结报告文档。
2、 任务要求
功能测试总结报告文档应包括以下内容:
(1) 测试概述:编写目的、项目背景。
(2) 测试参考文档。
(3) 项目组成员。
(4) 测试设计介绍:测试环境与配置、测试用例设计方法、测试方法。
(5) 用例汇总:用例汇总。
(6) 测试进度:测试进度回顾、功能测试回顾。
(7 ) Bug汇总:Bug汇总。
(8)测试结论。
3、 任务成果
XX-A5-功能测试总结报告.doc (XX代表工位号)
任务二:自动化测试(20分)
1、任务描述
根据《A6-BS资产管理系统自动化测试要求》文档,对页面元素进行 识别和定位、编写自动化测试脚本并执行脚本,将脚本粘贴在自动化测试 报告中。按照《A7-自动化测试报告模板》完成自动化测试报告文档。
2、任务要求
(1)自动化测试报告文档应包括以下内容:
(2)自动化测试工具要求:
使用1号客户机上安装的PyCharm作为编写自动化测试脚本工具。
注意:运行自动化测试脚本过程中,出现报错(网址输入错误、定位 元素没有找到等原因),属于脚本编写错误,请自行调整;在PyCharm中 编写自动化测试脚本时对于单引号、双引号、括号和点要在英文状态下进 行编写;在将自动化测试脚本粘贴到自动化测试报告时要和在PyCharm中 的脚本格式保持一致,同时在粘贴时不要出现将所有代码粘贴在一行中或 出现空行情况。
3、任务成果
XX-A7-自动化测试报告.doc (XX代表工位号)
任务三:性能测试(20分)
1、任务描述
根据《A8-BS资产管理系统性能测试要求》文档,使用性能测试工具 添加脚本、回放脚本、配置参数、设置场景、执行性能测试,对测试过程 和结果进行截图。按照《A9-性能测试报告模板》完成性能测试报告文档。
2、任务要求
(1) 性能测试报告文档应包括以下内容:
(2) 性能测试工具要求。
使用2号客户机 上安装的JMeter、LoadRunner作为性能测试工具。
注意:1、性能测试过程中,出现录制失败、回放失败、脚本执行失败、 白屏、500错等情况,属于性能测试工具使用或配置错误,请调试。2、使 用LoadRunner进行性能测试时,点击开始录制后若弹出"安全警告",点 击“是”即可;结束录制后若弹出“根证书存储”,点击“是”即可,具体图示 参考《LoadRunner已知常见问题汇总》一七。
3、任务成果
XX-A9-性能测试报告.doc (XX代表工位号)
任务四:单元测试(10分)
1、任务描述
根据《A10-单元测试要求》文档进行Java应用程序的编写,设计测试 数据,编写单元测试脚本,使用Eclipse T执行,完成编译和程序运行,运 行结果进行界面截图。按照《All-单元测试报告模板》完成单元测试报告 文档。
2、 任务要求
(1) 单元测试报告文档应包括以下内容:
1) 程序源代码;
2) 单元测试代码;
3) 单元测试结果截图。
注意:1、全部测试数据组数须以最少量来达到测试要求。2、单元测 过程中,启动Eclipse后使用默认Workspacce (不可更改),必须在GsTe st-src-GsCode中自行新建并完成相关代码设计(Referenced Libraries中 已将 junit、hamcrest-core、hamcrest-library 等 jar 包导入完毕,若参赛选 手删除jar包后果自行承担)。
(2) 单元测试要求:
使用1号客户机上提供的Eclipse相关环境完成单元测试。
3、 任务成果
XX-A11-单元测试报告.doc (XX代表工位号)
任务五:接口测试(5分)
1、 任务描述
根据《A12-BS资产管理系统接口测试要求》,使用接口测试工具进行 发送请求、变量设置等内容,对测试过程和结果进行截图。按照《A13-接 口测试报告模板》完成接口测试报告文档。
(1)接口测试报告文档应包括以下内容:
(2)接口测试工具要求。
使用1号客户机上安装的Postman作为接口测试工具。
XX-A13-接口测试报告.doc (XX代表工位号)
四、竞赛结果提交
1、 提交方式
任务成果文档需同时在竞赛平台和U盘中进行提交(所有文档在竞赛 平台和U盘中不得以压缩包形式提交),如果竞赛平台和U盘中提交的文 档内容不一致,以U盘为准。提交前请按照竞赛提交文档检查表进行检查。 在U盘中以XX工位号建一个文件夹(例如01),将所有竞赛成果文档保 存至该文件夹中,不按照要求命名后果自行承担。
注意:要求使用谷歌浏览器(Chrome)访问竞赛平台。
2、 文档要求
竞赛提交的所有文档中不能出现参赛队信息和参赛选手信息,竞赛文 档需要填写参赛队信息时以工位号代替(XX代表工位号),竞赛文档需要 填写参赛选手信息时以工位号和参数选手编号代替(举例:21_03, 21代表 工位号,03代表3号参赛选手)。
3、竞赛提交文档检查表
序号 |
文档名(XX代表工位号) |
提交方式 |
1 |
XX-A2-功能测试计划.doc |
竞赛平台和U盘 |
2 |
XX-A3-功能测试用例.xls |
|
3 |
XX-A4-功能测试Bug缺陷报告清单.xls |
|
4 |
XX-A5-功能测试总结报告.doc |
|
5 |
XX-A7-自动化测试报告.doc |
|
6 |
XX-A9-性能测试报告.doc |
|
7 |
XX-A11-单元测试报告.doc |
|
8 |
XX-A13-接口测试报告.doc |