旅游大数据平台方案_第1页
旅游大数据平台方案_第2页
旅游大数据平台方案_第3页
旅游大数据平台方案_第4页
旅游大数据平台方案_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、旅游研究院大数据挖掘与分析科研平台建设方案22背景1.1 数据挖掘和大数据分析行业背景和发展趋势移动互联网、 电子商务以及社交媒体的快速发展使得企业需要面临的数据量 成指数增长。根据 IDC 数字宇宙 (Digital Universe) 研究报告显示, 2020 年 全球新建和复制的信息量已经超过 40ZB,是2015年的12倍;而中国的数据量则 会在2020年超过8ZB,比2015年增长22倍。数据量的飞速增长带来了大数据 技术和服务市场的繁荣发展。IDC亚太区(不含日本)最新关于大数据和分析(BDA) 领域的市场研究表明, 大数据技术和服务市场规模将会从 2012年的 5.48 亿美元

2、增加到 2017年的 23.8 亿美元,未来 5年的复合增长率达到 34.1%。该市场涵盖 了存储、服务器、网络、软件以及服务市场。数据量的增长是一种非线性的增长 速度。据IDC分析报道,最近一年来,亚太区出现了越来越广泛的大数据和分析领 域的应用案例。在中国,从互联网企业,到电信、金融、政府这样的传统行业, 都开始采用各种大数据和分析技术,开始了自己的大数据实践之旅 ; 应用场景也 在逐渐拓展,从结构化数据的分析,发展到半结构化、非结构化数据的分析,尤 其是社交媒体信息分析受到用户的更多关注。用户们开始评估以Hadoop数据库一体机以及内存计算技术为代表的大数据相关新型技术。最新调研结果显示

3、, 提高竞争优势, 降低成本以及吸引新的客户是中国用户 对大数据项目最期望的三大回报。 目前现有的大数据项目主要集中在业务流程优 化以及提高客户满意度方面的应用。IDC发现很多用户希望大数据能够为企业带 来业务创新, 并且开始使用高级分析的解决方案以管理复杂的数据环境。 过去一 年中用户对社交数据的收集和分析应用的关注度增加明显。 未来,地理位置信息 分析将会增长迅速,这也会推动用户对大数据安全和隐私管理的关注。 在亚太区, 澳大利亚和新加坡的用户对大数据的相关投资主要在咨询服务方面, 更关注如何 根据新的最佳实践需求设计和实施方案。 中国和印度在大数据领域的硬件投资则 非常明显,更倾向于数据

4、中心相关的基础架构的投资。在传统的数据分析与商业数据挖掘中, 人们通常遵循二八原则。 也就是任务 20%的用户提供了 80%的价值,因此利用优势资源用户对于少数用户的服务。随 着互联网的发展, 越来越多的低价值用户进入到商业体系中, 这部分用户成为商 业企业竞争的目标。 比如电商行业, 大量顾客都是传统意义上的低价值客户, 数 据表明对于这部分用户价值的挖掘可以改变二八原则, 甚至可达到价值的几乎均 匀分布。并且由于计算技术的发展,对于大数据的分析也成为了可能。1.2 旅游行业开展大数据分析及应用的意义旅游行业有行业广、 规模大、移动性强的特点, 因此更加依赖大数据。 当前, 旅游业也在 “新

5、常态”下迎来了升级的挑战和变革的机遇, 新常态对于一般的经 济部门是经济速度放慢、人均 GDP 增速减小,很多传统行业在调整结构,但新 常态对旅游行业却是速度加快的。 旅游大数据的解决之道, 在于整合国内多途径 的大数据源, 形成旅游大数据生态, 为国内旅游业提供大数据解决方案, 促进旅 游业的转型升级。1.3 数据挖掘与大数据分析科研平台建设的必要性数据挖掘与大数据分析是以计算机基础为基础, 以挖掘算法为核心, 紧密面 向行业应用的一门综合性学科。其主要技术涉及概率论与数理统计、数据挖掘、 算法与数据结构、 计算机网络、 并行计算等多个专业方向, 因此该学科对于科研 平台具有较高的专业要求。

6、 科研平台不仅要提供基础的编程环境, 还要提供大数 据的运算环境以及用于科学研究的实战大数据案例。 这些素材的准备均需完整的 科研平台作为支撑。目前,在我国高校的专业设置上与数据挖掘与大数据分析相关的学科专业包 括:计算机科学与技术、信息管理与信息系统、统计学、经济、金融、贸易、生 物信息、旅游以及公共卫生等。 这些专业的在使用科研平台时的侧重点各不相同, 使用人员层次水平也不相同, 对算法的使用也不相同, 因此,需要建设一个便利、 操作简易、算法全面、可视化的大数据科研平台是非常有必要的。数据挖掘与大数据分析科研平台总体规划2.1科研平台规划科研平台建设的基本原则是科研为主,同时为教学实验提

7、供部分计算资源及 安全资源,系统在授权范围内共享科研系统的计算资源, 提高教学实验的真实性。项目的总体架构如图1所示大数据科研环境可视化计算 集1群UU千兆数据2 U2 U2 U2 U2 U2 U2 U2 U22 U2 U2 U2 U2 U2 U2 U交换机Hadoou集群2 U2 U2 U2 U2 U2 U2 U2 U2 U2 U2 U2 UUO虚拟化实验 集群U交换机核心交换机图1.总体架构图系统整体由千兆核心交换机作为核心节点, 并以两个千兆接入交换机作为科 研与实验环境的交换节点。 科研环境由我司开发的商业 Hadoop 集群为基础, 上 层集成便于操作的大数据科研应用系统, 集成 1

8、0TB 大数据案例集及可拖拽的数 据算法和可视化算法。2.2 科研平台功能规划本科研平台针对数据挖掘有大数据分析研究内容,兼顾科研与教学的需求, 既能满足科研工作中对大数据分析高性能平台要求也具有教学实验平台简单易 用的特点。1) 大数据资源规划内置商业级数据资源,按常见科研分类规划数据资源,可以直接用于科学研 究,具有数据资源授权管控功能。2) 大数据分析功能规划建设以商业版Hadoop为核心的大数据分析平台,系统提供MapReduce以及Spark 等大数据挖掘功能。系统具有完整的管理调度功能。3) 硬件资源功能规划系统具有24个In tel Xeon E5 CPU 计算能力,提供超过40

9、TB的存储能力以 及仃以上的内存,可满足1000任务共时计算内能,方便扩充。数据挖掘与大数据分析科研平台建设方案3.1大数据科研平台设备架构高性能交换机主节点."' 接口节点接口节点计算节点计算节点 机架i高性能交换机备份主节点计算节点计算节点计算节点计算节点机架2高性能交换机管理节点计算节点计算节点计算节点计算节点机架3图3设备架构3.1.1主节点和备份主节点主节点负责整个分布式大数据平台的运行。主节点始终在内存中保存整个文 件系统的目录结构,每个目录有哪些文件,每个文件有哪些分块及每个分块保存 在哪个计算上,用于处理读写请求。同时,主节点还负责将作业分解成子任务, 并将这

10、些子任务分配到各个计算节点上。备份主节点在主节点发生故障时承担主 节点的各种任务,使得分布式大数据平台仍然能够正常运行。3.1.2管理节点管理节点用于管理整个分布式大数据平台,可进行节点安装、配置、服务配 置等,提供网页窗口界面提高了系统配置的可见度,而且降低了集群参数设置的复杂度。3.1.3接口节点终端用户通过接口节点连接和使用分布式大数据平台,提交任务并获得结果,并可以用其他数据分析工具做进一步处理,与外界进行数据交互(如连接关系型数据库)。3.1.4计算节点分布式大数据平台包含了多个计算节点。计算节点是系统中真正存储数据和 做数据运算的节点。每个计算节点周期性地和主节点通信, 还时不时和

11、客户端代 码以及其他计算节点通信。计算节点还维护一个开放的 socket服务器,让客户 端代码和其他计算节点通过它可以读写数据,这个服务器还会汇报给主节点。3.2大数据科研平台底层架构管理监控(Ho nyaES-datO)大数据科研平台低层架构以我司自主研发的商业版 Hadoop为基础架构,包 含和大数据分析、数据挖掘、机器学习等功能模块,并以 HDFS以及Hbase作 为存储基础。任务执行调度接口数据交互接口统计建模(Shell)(JDBC, ODBC)(R)批处理交互式SQL引擎机器学习算法库内存计算(MapReduce, Pig)(Hive)(Mahout)(Spark)分布式资源调度管

12、理(YARN)分布式存储(Sentry)分布式持久化数据存储分布式实时数据库(HDFS)(Hbase)图2.软件架构3.2.1 分布式持久化数据存储HDFSHadoop 分布式文件系统( HDFS )被设计成适合运行在通用硬件上的分布 式文件系统。 它和现有的分布式文件系统有很多共同点。 但同时,它和其他的分 布式文件系统的区别也是很明显的。 HDFS 是一个高度容错性的系统, 适合部署 在廉价的机器上。 HDFS 能提供高吞吐量的数据访问, 非常适合大规模数据集上 的应用。 HDFS 放宽了一部分 POSIX 约束,来实现流式读取文件系统数据的目 的。3.2.2 分布式实时数据库 HBase

13、HBase 是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的 Google 论文“ Bigtable :一个结构化数据的分布式存储系统”。就像 Bigtable 利用了 Google 文件系统(所提供的分布式数据存储一样, HBase 在 Hadoop 之上提供了类似于 BigTable 的能力。 HBase 是 Apache 的 Hadoop 项 目的子项目。 HBase 不同于一般的关系数据库,它是一个适合于非结构化数据 存储的数据库。另一个不同的是 HBase 基于列的而不是基于行的模式。3.2.3 分布式资源调度管理 YARNYarn 是 Hadoop2.

14、0 的 MapReduce 框架。 YARN 分层结构的本质是 ResourceManager 。这个实体控制整个集群并管理应用程序向基础计算资源的 分配。 ResourceManager 将各个资源部分(计算、内存、带宽等)精心安排给 基 础 NodeManager ( YARN 的 每 节 点 代 理 ) 。 ResourceManager 还 与 ApplicationMaster 一起分配资源, 与 NodeManager 一起启动和监视它们的基 础应用程序。 在此上下文中, ApplicationMaster 承担了以前的 TaskTracker 的 一些角色, ResourceMa

15、nager 承担了 JobTracker 的角色。3.2.4 交互式 SQL 引擎 HiveHive 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射 为一张数据库表,并提供简单的 SQL 查询功能,可以将 SQL 语句转换为 MapReduce 任务进行运行。 其优点是学习成本低,可以通过类 SQL 语句快速 实现简单的 MapReduce 统计,不必开发专门的 MapReduce 应用,十分适合数 据仓库的统计分析。3.2.5 内存计算 SparkSpark 是 UC Berkeley AMP 实验室所开源的类 Hadoop MapReduce 的通用 的并行计算框架。

16、 Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS ,因此 Spark 能更好地适用于数据挖掘与机器学习等需要 迭代的 MapReduce 算法。3.3 科研平台的功能3.3.1 科研项目管理在科研平台中, 科研计算是以计算项目来保存的, 包括了计算项目建立、 计 算项目维护、计算项目设计、 计算项目运行和结果可视化等几个环节。 从技术角 度来说,计算项目中也包括了算法组件、算法流程和数据集,一旦设计完后,就 可用于计算,后期还可以调整算法和基于新的数据资源进行计算。计算项目完

17、成后, 可以训练出算法模型, 在新的计算项目中使用已经训练好 的模型进行数据的预测,形成一次训练多次使用的算法实现。3.3.2 平台内置数据集在科研工作中, 如何获取到海量高质量大数据资源是最大的难点。 目前在互 联网等渠道是很难找到科研工作所需的数据源, 尤其是经过数据清洗和治理后的 高质量数据。数据超市平台利用以下模式, 通过外部的资源, 为高校的科研工作提供优质 数据资源:1)通过商务合作的模式,直接与数据所有权拥有者进行灵活的商务沟通, 获得科研的数据使用授权;2)邀请行业内优质的第三方数据服务提供商入驻数据超市平台;3)通过数据采集的方式,经过数据寻源、采集、治理、清洗后,引入具有

18、公开版权的数据资源;所有引入数据都会经过数据工程师的严格审核,保证数据的清洁和质量,可 以直接用于数据计算。如平台内置的专利数据,包括了国内近 2000 万各类商业数据,并且不断更 新,可以直接用于旅游各方面的科学研究。 有别区目前行业提供的数据库, 数据 超市直接提供了原始的数据, 可以打通其他的行业数据, 用于深层次的数据分析 和经济预测。3.3.3 科研数据上传科研老师已有的数据可以上传到平台参与数据计算, 老师可以在平台上建立 数据表,然后把本地数据文件上传到数据表中。也可以维护外部的 JDBC 数据 源,平台会把外部数据自动抽取到平台中进行计算和预测。3.3.4 集成算法组件为了便于

19、科研老师快速进行科研数据的加工、 分析和计算, 数据超市平台集 成了 50 多种通用大数据算法组件,包括回归算法、分类算法、聚类算法、关联 规划算法、推荐算法、预测评估、数据预处理算法、机器学习等。所有的算法无 须重新编程,只需要拖拽绘图完成即可进行计算,如下图:4?jkE>博细些MMJIT /叫嵐血号因吟+特征丄柑*+ "轴SOLMPt|46E "" j+ XJIiJ归一曲面*事可視化_-Z丰目再1.11 、)9X.>AW0riaB|4sa1砌“70算法组件经过配置可以实现强大的自定义计算功能和效果,调整后的模型可 以完成老师需要的数据分析和预测。司

20、KiSdRS/參规* e3回 Maidter50QlnitMcxiek-nieans|妙lol0.01335科研平台可视化功能提供20余种可视化展示模式,一键选择,一键切换,可按使用者需求展示大数据之美,根据需要展示对应的纬度,并可以一键生成高质量PNG文件,保存到本地后可用于科研报告和论文等。數揚分布图目主虱0出Of四. 平台数据集清单科研平台为方便用户快速开展科学研究、生成科研数据报告,平台提供了一 些通用的数据集,包括各类标准科研数据等。平台也内置了数百款可选数据集,分为多个数据包,总量近10TB,并且随商务和采集工作推进,仍在不断增加中。五. 定制数据服务根据科研老师的需求,数据超市平

21、台提供数据采集和商务合作等定制数据引 入模式,数据引入后,可以直接引入数据超市,由老师来进行使用。如老师需要旅游服务评价类数据进行服务情况的分析和预测, 可以直接通过 数据超市内的数据定制模块提出数据需求, 经数据超市平台管理员汇总后,可以 通过数据超市平台进行数据的准备,交给老师进行使用。六. 科研平台算法清单平台集成的算法包括72种,全部来自科研网站,经过了商业机构的验证, 引入平台后完成了分布式优化,可以高效执行,详细如下表:序号算法分类算法名称算法描述1回归算法线性回归利用线性模型对数值型变量进行拟合。2回归算法决策树回归利用平方误差最小化准则,进行特征选择,生成二叉树,从而对对数值型

22、变量进行拟合3回归算法随机森林回归以回归决策树为基模型,将一定数量的基模型组合 对数值型变量拟合,并对基模型的预测结果平均作 为算法的最终结果4回归算法梯度提升回归树以二叉回归决策树为基函数的加法模型与前向分 步结合的算法,通过对损失函数在当前模型的预 测值的梯度作为近似残差进行拟合,从而对数值型 变量预测。5分类算法逻辑回归二分类对目标变量为二值型分类变量,建立参数化逻辑斯 谛分布,即sigmoid函数,近似条件概率分布,以 实现二值分类。6分类算法逻辑回归多分类逻辑回归多分类,k个独立的logistic回归分类器与 onevsall结合的分类模型,分类对象类别之间不是互斥的7分类算法Sof

23、tmax回归多分类Softmax回归就是逻辑回归的一般形式,是logistic回归模型在多分类问题上的推广,分类对象类别是互斥的8分类算法决策树分类禾U用信息增益准则或基尼指数最小化准则,进行特 征选择,生成二叉树,从而对对目标变量为离散变 量的数据进行分类9分类算法随机森林分类以分类决策树为基模型,将一定数量的基模型组合 对离散型的目标变量拟合,并根据基模型的预测结 果进行投票,以占多数结果的种类作为算法的最终 结果10分类算法梯度提升分类树以二叉分类决策树为基函数的加法模型与前向分 步结合的算法,通过对损失函数在当前模型的预测 值的梯度作为近似残差进行拟合,从而对分类型目 标变量预测。11

24、分类算法BP神经网络以感知器为基函数,通过将当前基函数的的输出作 为下一个感知器的输入,从而实现对离散型分类变 量的分类12分类算法贝叶斯分类基于贝叶斯定理与特征条件独立假设,对给定数据集,学习输入输出的联合概率分布,利用贝叶斯原理输出后验概率最大的预测类作为预测结果13分类算法支持向量机分类在感知机的基础上,通过在特征空间上间隔最大和核技巧,实现对二类目标变量分类14聚类算法K均值聚类将无标记样本根据特征空间中的数据结构,划入K个不相交的子集中15聚类算法二分K均值聚类K均值聚类的改进版,能克服原算法收敛局部最小 的缺点,每次选其中一簇分成两簇。16聚类算法高斯混合模型对于符合高斯分布的数据

25、,假设存在 K个高斯模 型,将数据反复迭代,期望极大化。将样本聚到后 验概率最大的模型类下。17关联规则算法频繁项集挖掘算法(FP-Growth)主要分为两个步骤:FP-tree构建、递归挖掘FP-tre® 挖掘出共同出现的频繁物品集。18推荐算法协同过滤算法协同过滤是在海量数据中挖掘出某部分与目标客 户行为类似的数据,并根据某种指标对其进行排 序。19预测评估分类预测及评估分类算法中,在已有训练数据训练模型的基础上, 将未训练的数据代入算法中,预测结果与实际目标 变量比对评估,检测模型的性能。20预测评估回归预测及评估回归算法中,在已有训练数据训练模型的基础上, 将未训练的数据代入

26、算法中,预测结果与实际目标 变量比对评估,检测模型的性能。21预测评估聚类预测及评估聚类算法中,在已有训练数据训练模型的基础上, 将未训练的数据代入算法中,预测结果与实际数据 类型比对评估,检测模型的性能。22预测评估推荐评估推荐算法中,在已有训练数据训练模型的基础上, 将未训练的数据代入算法中,预测结果与物品类目 比对评估,检测模型的性能。23数据预处理归一化将有量纲的数据转化为无量纲的数据,min-max标准化24数据预处理Joi n-两表关联类似sql join的功能,将两张表通过一个字段对或者多个字段对的相等关系关联合成一张表25数据预处理类型转换(string类型转换数值类型)将不同

27、数据的类型按需要进行转换26数据预处理Union对不同数据集取并集27数据预处理标准化/正则化标准化是将数据缩放到一个区间范围内,如正态分 布,小数定标,逻辑斯谛分布。正则化是利用先验 知识,对模型增加约束,防止过拟合。28数据预处理缺失值填充对数据中某项数值所对应的某些样本缺失,通过某 种先验假设,根据样本其他已知数据项对缺失值拟 合预测。29数据预处理拆分按照比例拆分样本集,如设置0.6,切分成60:40两 个样本集。30数据预处理随机采样当数据量过大或模型训练批容量有限时,随机采取 一定量/比例的样本集。31数据预处理增加序列号在数据表第一列追加ID列。32数据预处理Select数据库查

28、询操作,查询某限定条件下的样本33数据预处理Select_Distinct数据库查询操作,查询某限定条件下并过滤掉重 复的样本34数据预处理Select_Where数据库查询操作,查询指定条件下的样本35数据预处理Select_And_Or数据库查询操作,查询条件的交集与并集36数据预处理Select_OrderBy数据库查询操作,查询结果按某指标排序37数据预处理Select_Limit数据库查询操作,查询某限定段的数据38数据预处理Select_Like数据库查询操作,查询包含指定字段的数据39特征工程主成分分析数据降维去噪常用方法,对数据的协方差矩阵取前K个最大方差方向作为新的数据方向。

29、40特征工程Onehot编码用户将特征值进行二元编码映射成二元向量,并与数值向量进行拼接42特征工程特征尺度变换由于计算需要或根据数据特点将某特征对应数据 项进行缩放,不改变样本间该数值项的相对大小43特征工程特征重要性分析指根据数据集各项特征在算法模型中对目标变量的相对重要程度的分析,从而提出冗余特征,关注重要特征,提高算法模型的效率准确性44特征工程特征离散对连续型特征按某方法转换为离散型变量45文本分析SplitWord分布式jieba分词接口,基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所 构成的有向无环图(DAG);采用了动态规划查找 最大概率路径,找出基于词

30、频的最大切分组合;对 于未登录词,采用了基于汉字成词能力的HMM模型,使用了 Viterbi算法46文本分析文档主题生成模型(LDA )LDA(Latent Dirichlet allocation),是一种主题模型,它可以将文档集中每篇文档的主题按照概率分布 的形式给出。同时它是一种无监督学习算法,在训 练时不需要手工标注的训练集,需要的仅仅是文档 集以及指定主题的数量k即可。LDA首先由DavidM. Blei、An drew Y. Ng 和 Michael I. Jordan 于 2003 年提出,目前在文本挖掘领域包括文本主题识别、 文本分类以及文本相似度计算方面都有应用。47文本分析

31、TF特征将文本文档的集合转换为词频计数的向量。48文本分析HashingTF 特征使用散列技巧将一系列词语映射到其词频的向量, Hash in gTF的过程就是对每一个词作了一次哈希 并对特征维数取余得到该词的位置,然后按照该词 出现的次数计次。所以就不用像传统方法一样每次 维护一张词表,运用 HashingTF就可以方便的得 到该词所对应向量元素的位置。当然这样做的代价 就是向量维数会非常大,好在spark可以支持稀疏 向量,所以计算开销并不大。49文本分析TF-IDF特征TF-IDF (term frequency -nverse documentfrequency)是一种用于资讯检索与文

32、本挖掘的常用 加权技术。TF-IDF是一种统计方法,用以评估一字 词对于一个文件集或一个语料库中的其中一份文 件的重要程度。字词的重要性随着它在文件中出 现的次数成正比增加,但同时会随着它在语料库中 出现的频率成反比下降。TF-IDF加权的各种形式常 被搜索引擎应用,作为文件与用户查询之间相关程 度的度量或评级。50文本分析字符串相似度一个字符串转换成另外一个字符串的代价,转换的代价越高则说明两个字符串的相似度越低。51文本分析停用词过滤针对文档数据,将包含的特定词汇过滤掉,不计入统计数据中52文本分析Word2VecWord2Vec是一种著名的 词嵌入(WordEmbedding)方法,它可

33、以计算每个单词在其给定 语料库环境下的分布式词向量(Distributed Representation,亦直接被称为词向量)。词向量表 示可以在一定程度上刻画每个单词的语义。如果词 的语义相近,它们的词向量在向量空间中也相互接 近,这使得词语的向量化建模更加精确,可以改善 现有方法并提高鲁棒性。词向量已被证明在许多自 然语言处理问题,如:机器翻译,标注问题,实体 识别等问题中具有非常重要的作用。Word2Vec具有两种模型,其一是 CBOW,其思想是通过每个 词的上下文窗口词词向量来预测中心词的词向量。 其二是Skip-gram,其思想是通过每个中心词来预 测其上下文窗口词,并根据预测结果来

34、修正中心词 的词向量。该组件目前只支持后者。53文本分析词频统计在对文章进行分词的基础上,按行保序输出对应文章ID列(docld)对应文章的词,统计指定文章ID列(docld)对应文章内容(docContent)的词频。54文本分析文本摘要通过pagerank算法计算得到的重要性最高的若干句 子可以当作摘要。55文本分析关键词提取全面把握文章的中心思想的基础上,提取出若干个 代表文章语义内容的词汇或短语56文本分析长句拆分根据长句中的标点符号将句子进行分割成多个短句57工具算法sql脚本用户可以在该组件自定义的 SQL脚本从而完成对 数据的转换处理58统计分析单样本T检验单样本T检验:单样本t

35、检验(one-sample t-test) 又称单样本均数t检验,适用于样本均数 x与已知 总体均数u0的比较,其比较目的是检验样本均数 x 所代表的总体均数uO是否与已知总体均数uO有差 另V。已知总体均数u0,般为标准值、理论值或经 大量观察得到的较稳定的指标值。T检验的前提是 样本总体服从正态分布59统计分析配对样本均数T检验配对样本均数t检验(paired t tes),又称非独立两 样本均数t检验,适用于配对设计计量资料均数的 比较,其比较目的是检验两相关样本均数所代表的 未知总体均数是否有差别。60统计分析两独立样本均数T检验两独立样本t检验(two-sample t-test),

36、又称成组t检验,它适用于完全随机设计的两样本均数的比较,其目的是检验两样本所来自总体的均数是否相等。完全随机设计是将受试对象随机地分配到两组中,每组对象分别接受不同的处理,分析比较两组的处理效应。61统计分析方差齐性检验由两样本方差推断两总体方差是否相同。有三种方 差齐性检验的方法可供选择。选用Bartlett检验:如果我们的数据服从正态分布,那么这种方法将是 最为适用的。对于正态分布的数据,这种检验极为 灵敏;而当数据为非正态分布时,使用该方法则很 容易导致假阳性误判。Levene检验:当样本数据偏 态或者非正态性的情况下,选用Levene检验鲁棒性与精度比Bartlett检验好。Fligner-Killeen检验: 这是一个非参数的检验方法,完全不依赖于对分布 的假设。62统计分析卡方适配度检验卡方适配度检验,Chi-Square Goodness of Fit Test.验证一组观察值的次数分配是否异于理论上的分配。其H0假设(虚无假设,null hypothesis)为一个样本中已发生

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论