毕业论文-IT服务外包教学实验中心网站测试用例设计与实现.docx_第1页
毕业论文-IT服务外包教学实验中心网站测试用例设计与实现.docx_第2页
毕业论文-IT服务外包教学实验中心网站测试用例设计与实现.docx_第3页
毕业论文-IT服务外包教学实验中心网站测试用例设计与实现.docx_第4页
毕业论文-IT服务外包教学实验中心网站测试用例设计与实现.docx_第5页
已阅读5页,还剩30页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

盐 城 师 范 学 院 毕业设计 IT服务外包教学实验中心网站测试用例设计与实现学生姓名 学 院 信息工程学院 专 业 计算机科学与技术 班 级 12(2) 学 号 指导教师 2016 年 3月 10 日盐城师范学院毕业设计IT服务外包教学实验中心网站测试用例设计与实现摘 要测试用例的设计是软件测试的核心,依据IT服务外包教学实验中心网站需求规格说明书,结合等价类、边界值、因果图、错误推断、正交分解法等技术进行测试用例的设计,完成了IT服务外包教学实验中心网站中的新闻动态频道、师资队伍频道和实验设备等频道进行了功能测试、性能测试、自动化回归测试。其中,对于系统的兼容性测试采取手动测试策略,使用Selenium对系统各模块进行自动化测试,对系统性能使用Loadrunner完成压力测试。结合测试结果分析,为进一步优化系统功能,提升系统性能提供了可靠的数据。关键词:测试用例;需求规格说明书;正交分解法;自动化测试;压力测试AbstractThe design of the test cases is the core of software testing, The test cases of unit test, integration test and system test of IT outsourcing Teaching Center site are designed, including News channel, teacher channel, laboratory equipment and other channels. All the tests are complemented according to the given test cases. The mainly testing technology is black box testing. Manual test and automatic test are for this system. The manual testing achieved based on test cases, and the automation test achieved by means of Selenium test tool, the stress test achieved by means of the LoadRunner test tool. The IT outsourcing Teaching Center site is improved much.Keywords: Test Cases; Requirements Specifications; Orthogonal Decomposition Method; Automated Test; Stress Test 目 录1.引言51.1课题研究背景及意义51.2研究的主要内容52.IT服务外包教学实验中心系统测试方案12.1测试环境12.2测试计划22.2.1文档标识22.2.2测试系统概述32.2.3文档概述32.2.4基线32.2.5引用文件32.3测试方案32.3.1测试方案概述32.3.2实现测试方法43.IT服务外包教学实验中心系统功能测试用例的设计43.1 使用等价类划分法进行测试用例的设计与分析43.1.1等价类划分法的定义43.1.2等价类划分法在本系统测试中的应用43.1.3等价类划分法设计测试用例的步骤53.1.4等价类划分法在本系统中应用举例53.2使用边界值法进行测试用例的设计与分析63.2.1边界值分析法的定义63.2.2边界值分析法在本系统测试中的应用63.3 使用因果图法进行测试用例的设计与分析73.3.1因果图法的定义73.3.2因果图法在本系统测试中的应用83.3.3因果图法设计测试用例步骤如下:83.3.4使用因果图法设计测试用例83.4使用错误分析法进行测试用例的设计与分析93.4.1错误分析法的定义103.4.2错误分析法在本系统测试中的应用103.4.3错误分析法设计测试用例的步骤103.4.4使用错误分析法设计测试用例103.5使用正交分解法进行测试用例的设计与分析113.5.1正交分解法的定义113.5.2正交分解法在本系统测试中的应用113.5.3正交分解法设计测试用例的步骤124.IT服务外包教学实验中心系统回归测试用例的设计124.1回归测试的依据124.1.1回归测试的定义124.1.2本系统中回归测试的依据124.1.3根据错误分析法和等价类划分法对系统举例134.2回归测试工具与方法144.2.1测试工具Selenium 的主要功能包括:144.2.2使用方法144.3回归测试结果分析185. IT服务外包教学实验中心系统性能测试用例的设计195.1性能测试的依据195.2性能测试的工具与方法195.2.1测试工具195.3性能测试结果分析286.总结与展望28参考文献29致 谢311.引言1.1课题研究背景及意义网站开发存在的缺陷越来越多。因此,开发人员的压力也日益增大。一个不起眼的缺陷可能导致整个网站的瘫痪,也会极大的增加开发商的维修费和用户的成本费。基于此,网站的质量问题成为一个网站产品的首要问题,它是网站成败的关键。所以,网站测试成为了开发中的重点,它在整个网站开发中所占用的时间也越来越多。目前的网站测试技术虽然取得了一些成就,但在具体的情况下执行全面、完整的测试仍然没有可以依赖的行业标准。为了保证该系统推出市场能达到一定的质量标准,就必须要进行较全面的测试。根据系统需求说明、系统架构、细节设计等来设计测试用例,运行程序,发现错误。1.2研究的主要内容1)根据IT服务外包教学实验中心网站需求分析说明书进行需求分析,并据此拟定软件测试计划。2)确定软件测试环境,录制生成测试用例,设计测试步骤,进行手动测试。3)使用Loadrunner11测试工具对系统登录用户进行压力测试,Selenium自动化开源框架完成自动化测试。 4)实施测试、错误跟踪,总结分析系统各方面的性能。2.IT服务外包教学实验中心系统测试方案2.1测试环境IT服务外包教学实验中心网站系统测试硬件配置,电脑硬件配置信息数据如表2-1所示,自动化测试工具环境信息如表2-2和表2-3所示;表2-1 测试设备信息本系统使用的测试工具是高并发的,因此对于测试环境的硬件要求较高,最低要求是:处理器主频在2GHz以上,内存在1GB以上,安装测试工具的磁盘空间至少剩余500MB,操作系统至少是windows7。在对本系统测试时,选择的测试环境是处理器2.6GHz,内存4GB,硬盘空间剩余21GB,操作系统为windows7。表2-2 测试设备信息环境分类功能工具及版本工具名称Selenium工具版本Selenium IDE2.9.0浏览器Firefox 浏览器版本Firefox 28.0数据库Access本系统自动化测试使用的是selenium测试工具,工具版本为Selenium IDE2.9.0,使用的浏览器为Firefox 28.0,数据库为Access。Selenium IDE以ADDON方式安装,只支持Firefox。而Selenium IDE2.9.0与Firefox 40+版本不兼容,因此本文选择Firefox 28.0进行测试.表2-3 测试设备信息环境分类功能工具及版本工具名称Loadrunner工具版本Loadrunner12浏览器Internet Explorer 浏览器版本Internet Explorer 12数据库Access本系统性能测试使用的测试工具为Loadrunner,版本为Loadrunner12,浏览器版本为Internet Explorer 11,数据库为Access。由于Loadrunner12与IE11是兼容的,而Loadrunner11最高只支持IE9.0,因此选择Loadrunner12测试版本。2.2.测试计划2.2.1文档标识测试文档标识信息如表2-4所示。表2-4 测试文档标识版本文件状态完成人修改内容审核批准时间V1.0 【 】草稿 【】正式发布 【 】正在修改蔡冬琴创建文档全体2016-03-10测试文档标识信息包括版本、文件状态、完成人、修改内容、审核、批准和时间等信息,本文为1.0版本,已经通过全体测试人员的审核,并与2016.3.10号完成文档创建工作。2.2.2测试系统概述(1)软件名称:IT服务外包教学实验中心网站系统。(2)软件功能:该教学实验中学网站主要是方便学员信息通讯提升教学办公便捷性。盐城师范学院IT服务外包实验教学中心依托信息科学与技术学院及合作办学的IT企业,实现学校与信息科学与技术学院的二级管理,统筹调配实践教学资源,保证优质资源共享和高效利用;协同学校校企合作与创新创业就业指导中心联系合作办学企业所管理的IT服务外包工程实践教育基地,安排学生培养计划所规定的实习、实训以及毕业设计等校外实践教学工作。(3)用户:管理用户:学校教学中心系统管理员。教师用户:在校任职教师。学生用户:学生成绩,个人信息,学院通知公告等信息查看。浏览用户:查询学院动态,了解学院相关信息。2.2.3文档概述IT服务外包教学实验中心网站系统测试计划说明书主要是为了规范整个项目的测试过程,使整个测试过程有条不紊的进行,这个文档包含了整个测试流程,主要有系统功能测试、性能测试、自动化回归测试的测试用例的设计过程和各测试工具的使用情况。2.2.4基线基于IT服务外包教学实验中心网站系统需求规格说明书基于IT服务外包教学实验中心网站系统测试计划说明书2.2.5引用文件毕业论文(设计)开题报告(2015)。毕业设计技术报告格式参考(2015)。2.3测试方案2.3.1测试方案概述由于项目需求明确、项目实现相对简单,本系统采用V模型进行测试。主要进行了功能测试,性能测试,兼容性测试,自动化回归测试,。功能测试策略:使用QTP测试系统功能是否正确,以及是否符合需求规格说明书中的要求。性能测试策略:使用Loadrunner测试系统负载能力,系统响应时间等性能指标情况,根据测试报告结果分析,提出优化意见,进一步提高系统性能。兼容性测试策略:采取手动测试方式测试系统运行的软硬件环境,包括浏览器版本、操作系统、数据库管理系统和应用服务器版本等。回归测试方案:对系统修改模块,使用selenium自动化测试工具,生成自动化测试脚本,验证修改没有引起新的错误,保证系统功能正确性。2.3.2实现测试方法功能性的单元测试、集成测试、易用性测试都采用的执行方式是手工测试,回归测试采用了自动化测试工具Selenium进行,系统稳定性采用Loadrunner对系统进行压力测试。3.IT服务外包教学实验中心系统功能测试用例的设计3.1 使用等价类划分法进行测试用例的设计与分析3.1.1等价类划分法的定义为了减少测试工作量,需要对测试用例进行适当的选取,等价类划分法提供了一种选取测试用例的方法,即根据需求规格说明书,仔细分析和推敲说明书的各项内容,把说明在对输入和输出的要求加以区分和分解。3.1.2等价类划分法在本系统测试中的应用(1)本系统后台的栏目管理模块中,调用别名一项,只允许字母、数字、下划线,即输入条件规定了必须满足的条件,因此,在测试时,测试用例的编写采用等价划分法,可划分为一个有效等价类、一个无效等价类。输入值是字母、数字、下划线类型的数据,有效等价类为字母、数字、下划线类型的数据,无效等价类为非字母、数字、下划线类型数据。(2)本系统后台登录模块,要求密码非空,即划分为一个有效等价类、一个无效等价类,有效等价类为非空密码,无效等价类为空密码。(3)本系统后台,在系统中输入一个日期值,系统返回输入日期的下一个日期。年份、月份、日期分别满足:2000=年份=2020,1=月份=12,1=日期=31。(4)本系统后台模型配置模块中的排序序号必须在1-100之间,即输入条件规定了取值范围,有效等价类为:1=序号=100;无效等价类为:序号100。3.1.3等价类划分法设计测试用例的步骤(1)对每个输入条件进行等价类划分,画出等价类表,并为每个等价类进行编号。(2)设计测试用例,使其尽可能多的覆盖有效等价类,重复这一步,直到所有的有效等价类被覆盖。(3)设计测试用例,使每个测试用例只覆盖一个无效等价类。3.1.4等价类划分法在本系统中应用举例针对系统返回当前输入日期的下一个日期功能,设计测试用例,部分测试用例如表3-1所示。现给出两种测试用例划分方案。划分方案一:根据输入条件有范围,可确定一个有效等价类和两个无效等价类,划分结果如下。表3-1等价类划分结果(一)条件有效等价类编号无效等价类编号年2000,20201年20205月1,122月127日1,313日319部分组合方式得到的测试用例如下:覆盖等价类1,2,3:测试输入=(2005,3,9),预期结果=“2005年3月10日”。覆盖等价类4,2,3:测试输入=(1999,3,4),预期结果=“输入错误!”。覆盖等价类5,2,3:测试输入=(2027,8,27),预期结果=“输入错误!”。覆盖等价类1,6,3:测试输入=(2007,-2,17),预期结果=“输入错误!”。覆盖等价类1,7,3:测试输入=(2008,17,28),预期结果=“输入错误!”。覆盖等价类1,2,8:测试输入=(2018,6,-3),预期结果=“输入错误!”。覆盖等价类1,2,9:测试输入=(2016,8,33),预期结果=“输入错误!”。划分方案二:考虑测试问题的关键点,平年、闰年,大月、小月,并将大月和31号组合,小月与30号组合,闰年、2月与29号组合,来设计测试用例,获得的测试用例结果如下。表3-2等价类划分结果(二)条件有效等价类编号无效等价类编号年闰年1年202012月1,3,5,7,8,103月121425126日1,287日31163093110覆盖等价类2,3,10:测试输入=(2003,7,30),预期结果=“2003年7月31日”。覆盖等价类2,4,9: 测试输入=(2005,4,30),预期结果=“2005年5月1日”。覆盖等价类1,5,8:测试输入=(2004,2,29),预期结果=“2004年3月1日”。覆盖等价类2,6,7:测试输入=(2001,12,28),预期结果=“2001年12月29日”。覆盖等价类11,3,7:测试输入=(1999,5,22),预期结果=“输入错误!”。覆盖等价类12,3,7:测试输入=(2027,3,22),预期结果=“输入错误!”。覆盖等价类1,13,7:测试输入=(2008,-2,27),预期结果=“输入错误!”。覆盖等价类1,14,7:测试输入=(2008,16,25),预期结果=“输入错误!”。覆盖等价类1,3,15:测试输入=(2010,8,-3),预期结果=“输入错误!”。覆盖等价类1,3,16:测试输入=(2018,7,34),预期结果=“输入错误!”。3.2使用边界值法进行测试用例的设计与分析 3.2.1.边界值分析法的定义边界值分析法是黑盒测试方法,是补充等价类划分的方法,选择等价类中的边界测试用例,既要重视输入范围的边界,又要从输出范围中导出测试用例。3.2.2边界值分析法在本系统测试中的应用本系统后台师资队伍栏目中的内容管理模块,赞成人数和反对人数必须大于等于0,即输入条件为大于等于0的整数,测试用例应当包括0,以及略小于0和略大于0的值。本系统后台模型配置模块中的排序序号必须在1-100之间,即输入条件为1-100之间的整数,利用边界值分析法设计测试用例,即输入变量的最小值1,略大于最小值2,输入范围内的任意值,略小于最大值99,最大值100。3.使用边界值法设计测试用例,部分测试用例如表3-3所示。表3-3边界值法设计测试用例用例编号测试项数据描述输入数据输入步骤预期结果实际结果结果分析UT-100排序序号输入最小值1进入内容管理模块,添加序号输入正确添加成功添加成功UT-101排序序号输入略大于最小值的数据2进入内容管理模块,添加序号输入正确添加成功添加成功UT-102排序序号输入范围内的任意值56进入内容管理模块,添加序号输入正确添加成功添加成功UT-103排序序号输入略小于最大值的数据99进入内容管理模块,添加序号输入正确添加成功输入正确添加成功UT-103排序序号输入最大值100进入内容管理模块,添加序号输入正确添加成功输入正确添加成功3.3 使用因果图法进行测试用例的设计与分析3.3.1.因果图法的定义因果图法是一种黑盒测试方法,从程序的规格说明书中寻找因果关系,即输入条件与输出和程序状态之间联系,通过因果图产生决策表。3.3.2因果图法在本系统测试中的应用因果图中有四种关系,恒等、非、或、与,在本系统中主要涉及的是恒等,与,这两种关系。(1)新闻动态中的内容管理模块,选择不同类别显示相应类别下的文章,即原因与结果之间存在恒等关系,若原因出现则结果出现,原因不出现则结果也不出现。出现相应文章内容 选择类别图3-1 类别内容恒等关系图(2)新闻动态中的内容管理模块,同时选择不同的类别和属性,显示相应条件下的文章,即有两个原因都出现,结果才出现,有一个原因不出现,结果也不出现。图3-2因果图的四种关系3.3.3因果图法设计测试用例步骤如下:(1)分析程序规格说明书中的原因和结果,对应到测试用例的测试输入和预期输出。(2)将原因和结果画成因果图。(3)在因果图上表明约束条件。(4)把因果图转化为决策表。(5)针对决策表中的每一列设计测试用例。3.3.4使用因果图法设计测试用例部分测试用例如表3-4所示。表3-4 因果图法设计测试用例用例编号测试项数据描述输入数据输入步骤预期结果实际结果结果分析UT-200内容管理模块类别选择选择下拉菜单中的可选类别选择所有类别进入后台中心概况模块,点击内容管理,选择所有类别列出所有类别内容列出所有类别内容UT-201内容管理模块类别选择选择下拉菜单中的可选类别选择发展历程类别进入后台中心概况模块,点击内容管理,选择发展历程类别列出发展历程的内容列出发展历程的内容UT-203内容管理模块类别选择和属性选择选择下拉菜单中的可选类别,同时选择可选属性选择所有类别,同时选择评论属性进入后台中心概况模块,点击内容管理,选择所有类别,同时选择评论属性列出评论性的所有类别文章列出了可选类别的所有属性的文章,不仅仅是评论型,还有推荐型对于类别和属性这两个因素没有做“与”运算处理3.4使用错误分析法进行测试用例的设计与分析3.4.1.错误分析法的定义基于测试经验和直觉,结合常识来推测可能存在的各种错误,针对这些错误,设计测试用例。3.4.2错误分析法在本系统测试中的应用(1)浏览器的后退按钮。测试一条已经成功提交的记录,点击后退按钮后再次提及,系统的处理方式。检查多次使用back键的情况下,再回到原来的界面,系统是否会报错。(2)对表单多次提交。对提交按钮快速多次点击,检查是否会在数据库中形成多条记录。当网速或响应过快,而用户的网速较慢时,用户容易多次点击提交。此时,捕获在提交时生成的URL,绕过页面,再次对服务器发起请求,分析结果。(3)Tab键是否功能正确。执行操作后,光标是否停留在合适位置。如后台登陆界面,在输入完用户名以后,光标是否停留在密码输入框内。3.4.3错误分析法设计测试用例的步骤(1)列举出程序中所有可能和容易发生的错误。(2)根据这些错误,设构造测试用例。3.4.4使用错误分析法设计测试用例部分测试用例如表3-5所示。表3-5错误分析法设计测试用例用例编号测试项数据描述输入数据输入步骤预期结果实际结果结果分析UT-300表单提交添加符合要求的数据调用别名:123_abc类别名称:中心信息进入中心概况模块栏目类别,添加数据,并快速多次点击提交表单按钮系统提示提交成功,且数据库中只保存一条记录数据库中保存多条相同记录数据库没有去重复操作3.5使用正交分解法进行测试用例的设计与分析3.5.1正交分解法的定义依据Galois理论,从大量的测试用例中挑选适量的,有代表性的用例,从而合理地安排测试的一种测试用例设计方法。正交表,是一个二维数字表格。正交表的次数(Runs)是正交表中行的个数,对应的是测试用例的个数。正交表的因素数(Factors)是正交表中列的个数,对应变量的个数的最大值。正交表的水平数(Levels)是某个变量取值个数的最大值。正交表中的包含的值为从1到水平数n。正交表通常用下面的形式表示:L次数(水平数 因素数) L Runs(Levels Factors)3.5.2正交分解法在本系统测试中的应用在本文中,使用正交分析法对系统进行兼容性测试,影响系统兼容性的因素有:浏览器版本,操作系统,数据库管理系统,因此,对各个因素进行不同状态取值,可以得到表3-6所示的因子状态表,该表列出了,影响系统兼容性的各因素的取值情况。表3-6因子-状态表因子状态浏览器版本操作系统数据库管理系统1IE 9.0Windows XpAccess2IE 10.0Windows 7SQL Server3IE 11.04FireFox 2.0根据表3-6,可以得到表3-7所示的测试用例。表3-7正交表测试用例设计 因子测试用例浏览器版本操作系统数据库管理系统1IE 9.0Windows XpAccess2IE 9.0Windows 7SQL Server3IE 10.0Windows XpSQL Server4IE 10.0Windows 7Access5IE 11.0Windows XpSQL Server6IE 11.0Windows 7Access7FireFox 2.0Windows XpAccess8FireFox 2.0Windows 7SQL Server3.5.3正交分解法设计测试用例的步骤(1)根据需求说明,构造因子-状态表。(2)加权筛选,生成因素分析表。(3)利用正交表构造测试用例。4.IT服务外包教学实验中心系统回归测试用例的设计4.1回归测试的依据4.1.1回归测试的定义当软件发生改变,再次测试已经通过的测试模块,以验证修改的正确性及其影响。其目的是检验已有缺陷修改是否正确,以及修改是否引起新的缺陷。4.1.2本系统中回归测试的依据 做回归测试,一个重要的前提是有组织管理良好的测试用例库,确保用例库中的用例是没有过时、冗余的,且达到一定的覆盖率。在本系统中,测试用例库是良好的,由于客户需求发生变化,系统发生变化,因此需进行回归测试。在本系统中,在完成一轮测试后,由于客户需求改变,系统发生了变化,因此需要进行回归测试,根据经验,只需对登录模块进行测试即可,检验系统修改后登录功能能否正确执行。4.1.3根据错误分析法和等价类划分法对系统举例登录模块进行了自动化回归测试,部分测试用例设计如表4-1所示。表4-1 登录模块回归测试用例用例编号测试项数据描述输入数据输入步骤预期结果实际结果结果分析UT-001登录用户名正确,密码正确用户名:admin密码:admin888进入登陆页面,输入用户名:admin码:admin888,点击登陆进入系统与预期结果相同UT-002登录用户名大小写混合,密码正确用户名:adMIN密码:admin888进入登陆页面,输入用户名 :adMIN 密码:admin888,点击登陆提示:用户名错误,请注意大写锁定键进入了系统没有对用户名大写进行判断UT-003登录用户名全部大写,密码正确用户名:ADMIN密码:admin888进入登陆页面,输入用户名: ADMIN 密码:admin888,点击登陆提示:用户名错误,请注意大写锁定键进入了系统没有对用户名大写进行判断UT-004登录用户名错误,密码正确用户名:qweert密码:admin888进入登陆页面,输入用户名qweert密码admin888,点击登陆用户名错误用户名或密码错误没有对用户名错误进行判断UT-005登录用户名错误,密码错误用户名:qweert密码:789456进入登陆页面,输入用户名qweert密码789456,点击登陆用户名错误,密码错误用户名或密码错误没有对用户名错误和密码错误进行判断UT-006登录用户名正确,密码错误用户名:admin 密码:789456进入登陆页面,输入用户名admin密码789456,点击登陆密码错误用户名或密码错误没有对密码错误进行判断UT-007登录用户名为空,密码为空用户名密码都不输入进入登陆页面,直接点击登陆用户名不能为空密码不能为空用户名或密码错误没有对用户名密码为空进行判断UT-008登录用户名为空,密码不为空只输入密码,如:admin888进入登陆页面,输入密码admin888点击登陆用户名不能为空用户名或密码错误没有对用户名为空进行判断4.2回归测试工具与方法4.2.1测试工具Selenium 的主要功能包括:1)测试系统在不同浏览器上运行的兼容性。2)测试系统功能,通过录制/回放脚本,生成自动化测试用例,简化重复测试的工作。4.2.2使用方法(1)打开Selenium IDE 录制界面,录制用户操作过程,生成自动化测试脚本。a.下载 Selenium IDE:/download/b.安装插件:将安装文件的目录复制到火狐浏览器的地址栏,在出现的软件安装对话框中选择要安装的xpi文件,点击立即安装,安装后重启火狐浏览器。(2)启动 Selenium IDE 插件,在firefox的Tools中选择Selenium IDE,弹出录制界面对话框图4-1 启动Firefox浏览器的Selenium IDE插件(3)打开Selenium IDE 录制窗口,在Base URL中选择要录制的起始页地址,点击录制按钮,开始录制图4-2 Selenium IDE 录制窗口(4)录制过程中,输入用户名密码,按照设计好的测试用例进行输入,录制结束后,点击Selenium IDE录制界面的停止录制按钮,将回放速度调整为中间值,回放录制过程,在Table状态框中查看生成的测试用例。图4-3 系统后台登陆界面图4-4 登录模块部分测试用例登录模块测试用例设计依据的方法有正交分解法,边界值法,等价类划分法,包括输入数据的大小写判断、字符串长度判断、字符类型合法性判断等。(5)测试结果如图4-5所示,Table中显示了几组输入数据,生成了测试用例,回放脚本运行成功。图4-5 selenium测试结果(6)在Selenium IDE导出 JUnit 代码,生成测试用例,以便在JAVA IDE中运行测试用例,生成的测试用例如图4-6所示。图4-6 在Selenium IDE导出 JUnit 代码(7)运行测试用例将Junit测试用例导入 Java IDE 中执行测试,须要客户端驱动支持(用于 Eclipse 编译)和RC Server:Selenium RC Server 下载:/download/Selenium Client Driver:/download/执行命令 java jar selenium-server-standalone-2.5.0.jar图4-7启动 Selenium RC Server启动后,可以在 Eclipse 中运行测试用例,RC Server 启动新窗口,自发主动依照录制脚本进行测试,在 Eclipse 中查看运行结果。(8)构建 JUnit 测试容器以持续测试 Selenium 的测试用例图4-8自动化测试框架利用这套框架能自发主动识别测试用例,读取配置文件,以测试套件运行多种的测试用例。此外,被合并到项目持续集成软件中,定期地持续进行基于 Web 的功能性测试,并将报告导出给管理人员。(9)导出测试报告图4-9 测试报告4.3回归测试结果分析1)实际测试进度与测试计划一致,全部测试用例执行正常,无缺陷发现。2)由于客户需求改变,在系统界面方面进行了修改,此修改已经回归更新到需求、概要设计、详细设计和测试计划中,进行回归测试后,无缺陷发现。3)根据测试报告,系统符合需求规格说明书中的需求,前台界面正常显示,后台修改管理无缺陷和错误。5. IT服务外包教学实验中心系统性能测试用例的设计5.1性能测试的依据1)当并发用户数量达到一定上限时,要保证系统的正常访问和使用。2)根据历史数据分析。通过一段时间的试运行,收集相关数据:用户的递增速度,使用最频繁的功能模块是哪些,以及所占的比例,每天、每周,每月的峰值业务量是多少等。通过分析这些数据,评估系统的需求指标,进行性能测试。3)根据前期的需求分析与定位,分析确定系统性能指标。在本系统中,使用时间一般为工作日,使用最密集的时间段为每学期期末,管理员对于后台各模块的管理是否方便,界面是否人性化等,通过需求分析,获取明确的性能指标。5.2性能测试的工具与方法5.2.1测试工具LoadRunner用于测试应用程序的性能,在可控制的峰值负载条件下测试系统。录制脚本注意事项:(1)确保IT服务外包教学实验中心网站能在服务器运行正常。(2)录制前先试访问IT服务外包教学实验中心网站注册一个测试用户。(3)选择录制协议,IT服务外包教学实验中心网站是一个B/S架构的web网站,使用常用协议“web(HTTP/HTML)”录制。(4)录制选项的设置,特别注意录制时的HTTP/HTML级别的选择是“基于HTML的脚本”。(5)录制完脚本后,先保存脚本,再回放一遍。 虚拟用户的活动包含在测试脚本中,因此选择首页中的创建/编辑脚本,打开VU Gen,新建脚本。图5-1 VU Gen起始页 由于本系统测试的是浏览器与web服务器之间的通信,因此选择Web(HTTP/HTML)协议图5-2 选择 Web(HTTP/HTML)协议 输入系统url,设置录制选项图5-3 设置录制选项 【应用程序类型】:Microsoft Internet Explorer 【要录制的程序】:web浏览器。 【URL地址】:测试系统链接。 【录制到操作】:选择操作录制到哪里,loadrunner自动将测试脚本分为vuser_init、vuser_end、aciton三部分,Vuser_init和Vuser_end一般用户存放应用程序初始化的脚本和注销关闭时的脚本。在重复执行的时候,这两部分内容只执行一次。Action用于存放实际的脚本操作,这部分脚本可以多次执行,还可以创建多个Action脚本。 开始录制脚本图5-4 开始录制脚本界面 编译、验证回放脚本图5-5 VUGEN脚本回放 参数化设置 a.username参数名设置,打开参数列表,新建参数username和password。图5-6 username参数设置过程 b.password参数名设置。图5-7 password参数设置过程 脚本优化回放验证成功后,可以进行事务、参数、并发用户的设置、脚本运行时设置。事务:根据项目需要,除了衡量整个脚本的性能外 ,还想获取到脚本中的某一段或几段操作,例如:想知道从单击确定按钮到显示首页这一登录过程的性能数据,以便更详细的知道具体是用户的哪些动作对系统性能的影响比较大。这时候,可以将登录的运行脚本标记在一个事务内。参数化:所谓参数化,对脚本中某些常量,设置名字唯一的变量名,供多个虚拟用户测试脚本的使用。并发用户:也可以在第二个环节运行负载测试时再设置。脚本运行时设置:可以设置每个action的执行次数、设定思考时间图5-8 脚本运行时设置图5-9 思考时间设置 迭代次数:每个action的执行次数。 思考时间:模拟真实用户在操作时的处理和反应的时间,使得测试更加符合实际情况。 关联设置由于在录制的时设置了关联规则,在脚本中可以使用自动扫描脚本中关联值快捷键Ctrl+F8,扫描结果切换树形视图,可以看到如图5-10图5-10脚本树形视图 点击“关联”,返回到脚本页面。图5-11 脚本界面 创建场景 点击VuGen工具选项卡下的创建场景,描述测试活动中的各个事件。5-12 创建场景创建场景时,要选择手动场景,将虚拟用户数设置为10,场景组名称为测试脚本名。Vuser group mode,在该模式中,为每个脚本都分配一个虚拟用户组,并为每个虚拟用户组分配一个Vuser数量。默认的,同一个组中的所有vuser都在同一负载生成器上运行同一个脚本,在图5-13中,显示了已经创建的场景组的信息。图5-13场景组可以为同一个组中的不同用户分配不同的脚本、负载生成器,如图5-14。图5-14 同一个组中的不同用户分配不同的脚本、负载生成器 为场景定义一个场景计划,设置场景计划的名称、计划方式、运行模式,对场景设置全局计划,包括:初始化、启动Vuser、持续时间、停止Vuser等。初始化为在每个Vuser运行前将其初始化,启动Vuser为每30秒启动10个,持续时间为3分钟,停止Vuser为每30秒停止10个。图5-15场景计划压力测试的目的就是检验系统的最大吞吐量,对IT服务外包教学实验中心网站在各种压力下的运行状况,检验系统的运行瓶颈,获取系统的处理能力等等。具体实施行为:测试服务器在承受100个虚拟用户下的状态。监控并分析服务器的性能指标,测试目的是为了监控性能并找出性能瓶颈。预期模拟场景共100个虚拟用户运行一个脚本。场景:每30载10个虚拟用户,之后持续运行,直到点击率呈现下滑趋势时,手动停止虚拟用户的执行。 启动和监视场景启动场景,监视应用程序的执行情况以及可能存在瓶颈的位置。 压力测试结果图分析图5-16 Vuser-整个场景图 对正在运行的Vuser-整个场景图分析,可以监控指定时间正在运行的Vuser数量。由图可见,Vuser以每分钟30个Vuser的速度逐渐开始运行。图5-17 事务响应时间-整个场景图通过事务响应时间-整个场景图分析,可以监控完成每个事务所花费的时间,由图可见,在第30秒的时刻,响应时间最长为8秒,随着越来越多的虚拟用户运行,事务响应时间增加,服务水平降低。图5-18每秒点击次数-整个场景图通过每秒点击次数-整个场景图分析,可以监控场景运行的每一秒内虚拟用户在服务器上的单击次数,由图可知,每秒点击次数最大值为700,平均值为658.247次。5.3性能测试结果分析利用loadrunner的Analysis组件实现对整个测试场景的结果分析,场景结束后在controller中可以点击【结果】【结果分析】,即可实现。图5-19 测试结果分析通过摘要报告,可以看出,运行的Vuser最大数目为50,平均每秒点击次数为669.209,事务通过率低,说明系统负载能力弱,无法承受高频率的用户点击访问。 1)通过对响应时间分析,发现用户进行业务操作所用时间主要消耗在网络部分。 2)网络环境模拟多用户并发访问该教育网,发现多台应用服务器中应用服务器的CPU利用率很高其余应用服务器CPU利用率很低,经分析发现所有的请求连接需先经过应用服务器跳转。 3)配置较低,导致出现性能瓶颈。更换高配置的服务器后各应用服务器的硬件资源利用情况基本平衡;不断增加并发用户数测试中,先后出现一些错误信息如连接超时、请求被关闭、HTTP503错误等。对以上错误进行逐个分析并进行相应的调整,该教育网的性能有较大的提升,所支持的并发用户数由500增大到1000。6.总结与展望在导师的细心指导下,并通过查阅大量与软件测试相关的参考资料并借助网络,花费三个多月的时间,完成了

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论