版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年大数据技术原理练习题(全优)附答案详解1.在Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一项?
A.HDFS(Hadoop分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:A
解析:本题考察Hadoop核心组件的功能。正确答案为A。解析:HDFS是Hadoop分布式文件系统,负责将数据分散存储在多台服务器上,提供高容错性和高吞吐量;MapReduce是分布式计算框架,用于并行处理大数据任务;YARN是资源管理器,负责集群资源的调度与管理;Hive是基于Hadoop的数据仓库工具,用于数据仓库构建和查询。因此B、C、D均不属于分布式存储组件。2.在大数据预处理中,当需保留原始数据样本量且处理缺失值时,以下哪种方法最为合适?
A.直接删除包含缺失值的记录
B.使用均值/中位数对数值型特征进行填充
C.对缺失值直接标记为‘未知’并忽略
D.随机生成与特征分布无关的数值填充【答案】:B
解析:大数据预处理中缺失值处理需兼顾样本量和数据质量。A选项‘删除记录’会导致样本量减少,可能引入偏差;C选项‘标记忽略’会使模型无法利用该样本信息;D选项‘随机无关填充’会破坏数据真实分布,引入误差。B选项‘均值/中位数填充’是最常用的数值型缺失值处理方法,既能保留样本量,又能通过统计量合理推断缺失值,因此正确答案为B。3.以下关于数据仓库与数据集市的描述,正确的是?
A.数据仓库存储细节数据,数据集市存储汇总数据
B.数据仓库面向企业级综合数据,数据集市面向部门级应用
C.数据仓库只能存储结构化数据,数据集市只能存储非结构化数据
D.数据仓库构建周期短,数据集市构建周期长【答案】:B
解析:本题考察数据仓库与数据集市的概念差异,正确答案为B。数据仓库是企业级数据整合平台,面向全局业务分析,整合多源数据;数据集市是数据仓库的子集,面向特定部门(如销售、财务)的需求;A错误,数据仓库包含细节数据和汇总数据,数据集市也可包含细节数据;C错误,两者均可存储结构化/半结构化数据;D错误,数据仓库构建周期通常更长(需整合多源、清洗数据),数据集市基于数据仓库快速构建。4.以下哪种系统主要用于支持管理人员的决策分析?
A.OLTP(联机事务处理)
B.OLAP(联机分析处理)
C.DSS(决策支持系统)
D.MPP(大规模并行处理)【答案】:B
解析:本题考察数据处理系统类型。OLAP(联机分析处理)通过多维分析、切片等操作支持管理人员决策分析;OLTP主要处理日常事务(如订单、库存),强调实时性和事务一致性;DSS是决策支持系统,其底层技术可能基于OLAP,但选项中OLAP是直接面向分析的系统;MPP是并行处理架构,并非专门的分析系统。因此正确答案为B。5.以下哪项不属于大数据的4V核心特征?
A.Volume(数据规模)
B.Velocity(数据速度)
C.Variety(数据多样性)
D.Veracity(数据真实性)【答案】:D
解析:大数据4V核心特征为Volume(数据规模)、Velocity(数据速度)、Variety(数据多样性)、Value(价值密度),Veracity(数据真实性)属于数据质量评估指标,并非大数据的核心特征。6.Hadoop分布式文件系统(HDFS)的默认块大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的核心参数。HDFS默认块大小为128MB,主要基于磁盘传输效率和数据可靠性的平衡设计:128MB既能适配现代磁盘的高效传输速度(避免过短块导致元数据冗余),又能避免过大块(如256MB或512MB)在小文件存储时产生的存储碎片化问题。选项A(64MB)是早期Hadoop版本的默认值,现已被主流版本淘汰;选项C(256MB)和D(512MB)因块过大,会增加NameNode元数据管理压力,且不适合小文件场景。7.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop生态系统组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop生态的分布式文件存储系统,负责将文件分割为块并在多节点存储;MapReduce是分布式计算框架,YARN是资源管理器,Hive是基于Hadoop的数据仓库工具,故正确答案为A。8.以下哪种系统主要用于支持复杂的数据分析和决策支持,而非实时事务处理?
A.OLTP
B.OLAP
C.Hadoop
D.Spark【答案】:B
解析:本题考察OLAP与OLTP的核心区别知识点。OLAP(联机分析处理)是为复杂数据分析设计的系统,侧重多维度数据汇总、趋势分析等决策支持场景;OLTP(联机事务处理)侧重实时事务处理(如银行转账),强调数据一致性和事务响应速度。选项A(OLTP)是事务型系统,不符合分析需求;选项C(Hadoop)和D(Spark)是技术框架,并非系统类型,故排除。9.以下哪项不属于大数据的典型4V特征?
A.数据量大(Volume)
B.数据类型多样(Variety)
C.数据价值密度低(Value)
D.数据传输稳定性(Stability)【答案】:D
解析:大数据的4V核心特征包括:数据量大(Volume,规模)、数据类型多样(Variety,如结构化/半结构化/非结构化数据)、数据价值密度低(Value,海量数据中有效价值密度低)、数据处理速度快(Velocity,实时/准实时处理需求)。选项D“数据传输稳定性”属于网络传输层面的性能指标,并非大数据4V特征范畴。10.以下哪项不属于大数据的5V核心特征?
A.Volume(数据量)
B.Velocity(数据速度)
C.Valueability(价值能力)
D.Veracity(数据真实性)【答案】:C
解析:本题考察大数据5V特征知识点,正确答案为C。大数据5V核心特征是Volume(数据量)、Velocity(数据速度)、Variety(数据多样性)、Veracity(数据真实性)、Value(数据价值),“Valueability”并非标准5V特征,故C选项错误。11.在大数据处理流程中,ETL(Extract-Transform-Load)和ELT(Extract-Load-Transform)的主要区别在于?
A.ETL在数据加载前完成转换,ELT在加载后完成转换
B.ETL仅适用于结构化数据,ELT仅适用于非结构化数据
C.ETL需要更多的计算资源,ELT不需要
D.ETL是传统方式,已被ELT完全取代【答案】:A
解析:本题考察ETL与ELT的处理流程差异。ETL的核心是“先转换后加载”,即先从源系统抽取数据,在加载到目标系统前完成清洗、整合、转换;ELT的核心是“先加载后转换”,即先将原始数据加载到目标存储(如数据湖),再在目标系统中进行转换。B选项错误,两者均可处理结构化/非结构化数据;C选项错误,ELT在大数据场景下可能因数据量更大而需要更多计算资源;D选项错误,ETL仍在结构化数据仓库场景广泛使用,未被完全取代。因此正确答案为A。12.大数据的4V特征不包括以下哪一项?
A.Volume(容量)
B.Velocity(速度)
C.Variety(多样性)
D.Verification(验证)【答案】:D
解析:本题考察大数据的核心特征知识点。大数据的4V特征通常指Volume(数据量)、Velocity(数据产生速度)、Variety(数据多样性)和Value(数据价值)。选项D中的Verification(验证)并非大数据的标准特征,因此正确答案为D。13.在分布式系统的CAP定理中,字母“P”代表什么?
A.Consistency(一致性)
B.Availability(可用性)
C.Partitiontolerance(分区容错性)
D.Performance(性能)【答案】:C
解析:本题考察分布式系统的CAP定理核心概念。CAP定理指出分布式系统中三个特性不可同时满足:Consistency(一致性,所有节点同时看到相同数据)、Availability(可用性,系统持续对外提供服务)、Partitiontolerance(分区容错性,系统在网络分区时仍能工作)。选项A为C,选项B为A,选项D(性能)并非CAP定理的核心要素。因此正确答案为C。14.下列哪个属于实时流处理计算框架?
A.HadoopMapReduce
B.ApacheSpark
C.ApacheFlink
D.HBase【答案】:C
解析:ApacheFlink是专为实时流处理设计的框架,支持高吞吐低延迟的实时计算(选项C正确)。HadoopMapReduce是批处理框架(A错误);Spark以批处理为核心,流处理能力较弱(B错误);HBase是分布式数据库,非计算框架(D错误)。15.在数据仓库的维度建模中,星型模型的主要特征是?
A.以事实表为中心,直接关联多个维度表(中心事实表+多维度表直接关联)
B.所有维度表均需拆分为子维度表以符合第三范式(雪花模型特点)
C.仅支持联机分析处理(OLAP),不支持联机事务处理(OLTP)
D.适用于超大规模数据存储的最优模型(星型/雪花模型无绝对最优)【答案】:A
解析:本题考察数据仓库维度建模的星型模型特征。星型模型以“事实表”为核心,周围直接连接多个“维度表”(如时间、地域、产品等),维度表与事实表仅通过主键外键关联,结构简单,查询效率高。选项B描述的是“雪花模型”(维度表进一步规范化为子维度表,更符合范式但结构复杂);选项C错误,星型模型既可用于OLAP分析,也可通过适当设计支持OLTP事务处理;选项D错误,星型模型适用于中小规模数据快速查询,雪花模型适用于复杂维度层次数据,两者无绝对“最优”,需根据业务场景选择。16.在数据仓库中,用于存储业务度量指标(如订单金额、用户数)的表类型是?
A.事实表
B.维度表
C.分区表
D.宽表【答案】:A
解析:本题考察数据仓库表类型的定义。事实表用于存储业务核心度量指标(如销售额、订单量),通常包含外键关联维度表;维度表存储描述性元数据(如时间、地区);分区表是Hive等工具的存储优化方式,宽表是星型模型的扩展。因此A选项正确。17.以下哪种算法属于无监督学习算法?
A.决策树
B.K-means
C.线性回归
D.SVM【答案】:B
解析:本题考察机器学习算法分类。无监督学习无需标注数据,K-means是典型的无监督聚类算法;决策树、线性回归、SVM均为有监督学习算法(需标注训练数据)。因此B选项正确。18.在MapReduce编程模型中,哪个阶段负责将输入数据分割成键值对并进行初步转换处理?
A.Map阶段
B.Shuffle阶段
C.Reduce阶段
D.Combine阶段【答案】:A
解析:本题考察MapReduce工作流程。Map阶段的核心是“映射”,将输入数据(如文本文件)解析为键值对(key-value),并进行初步处理(如过滤、转换);C选项Reduce阶段负责“聚合”,将Map阶段输出的中间结果按key分组并合并;B选项Shuffle是Map到Reduce间的数据传输和排序过程,属于中间环节;D选项Combine是Map阶段的优化手段(如局部聚合),非主要处理阶段。因此正确答案为A。19.在Hadoop分布式计算框架中,负责分布式文件系统存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop生态系统核心组件功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大规模数据的存储;MapReduce是分布式计算框架,YARN是资源管理器,Hive是数据仓库工具,因此A选项正确。20.以下哪种数据库属于文档型NoSQL数据库?
A.MySQL
B.MongoDB
C.Redis
D.HBase【答案】:B
解析:本题考察NoSQL数据库类型。MongoDB以JSON格式的“文档”为基本存储单元,属于典型的文档型数据库;A选项MySQL是关系型数据库(SQL);C选项Redis是键值型数据库;D选项HBase是列族型数据库(用于海量结构化数据存储)。21.MapReduce计算框架中,将输入数据分解为键值对并进行初步处理的阶段是?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.YARN阶段【答案】:A
解析:MapReduce的Map阶段负责将输入数据分割为键值对并执行用户自定义映射函数;Reduce阶段对Map输出结果汇总计算;Shuffle阶段负责数据分区、排序和合并;YARN是资源管理器,不属于计算阶段。因此正确答案为A。22.以下哪项不属于Hadoop分布式文件系统(HDFS)的核心特性?
A.高容错性(通过多副本机制实现)
B.支持GB级乃至TB级大文件存储
C.提供毫秒级低延迟的实时随机访问
D.采用‘一次写入多次读取’的文件语义【答案】:C
解析:HDFS的核心特性包括:A.高容错性(自动副本管理,副本丢失后重建);B.大文件支持(专为超大规模数据设计,适合存储GB/TB级文件);D.一次写入多次读取(WriteOnce,ReadManyTimes),文件一旦创建不可修改,仅追加。C选项‘毫秒级低延迟实时随机访问’是错误的,HDFS的设计目标是高吞吐量(适合批处理),而非低延迟随机访问,低延迟访问通常由内存数据库(如Redis)或NoSQL数据库(如MongoDB)提供。因此正确答案为C。23.与传统数据仓库相比,数据湖(DataLake)的核心特点是?
A.仅存储结构化数据
B.支持多种数据类型和原始数据格式
C.强调数据的一致性和业务规范性
D.主要用于快速生成业务报表【答案】:B
解析:本题考察数据湖与数据仓库的核心区别。正确答案为B。解析:数据湖支持存储原始数据(结构化、半结构化、非结构化,如日志、视频、图片等),保留数据原始格式;数据仓库(A、C)通常仅存储结构化数据,强调数据清洗、整合和业务一致性,主要用于报表和分析;数据湖更注重原始数据存储和灵活性,而非快速生成报表(D)。因此A、C、D均为数据仓库的特征。24.下列哪项不属于大数据的4V特征?
A.Volume(数据量)
B.Velocity(速度)
C.Veracity(真实性)
D.Variety(多样性)【答案】:C
解析:本题考察大数据的4V核心特征知识点。大数据的经典4V定义为Volume(数据规模)、Velocity(处理速度)、Variety(数据多样性)和Value(数据价值),而Veracity(数据真实性)是扩展概念,并非基础4V特征之一,因此C选项错误。25.K-Means聚类算法的核心目标是?
A.最大化簇间数据点的距离,最小化簇内数据点的距离
B.最小化簇内所有数据点到其所属簇中心的距离平方和(WCSS)
C.最大化簇内数据点到其所属簇中心的距离平方和
D.最小化簇间数据点的距离,最大化簇内数据点的距离【答案】:B
解析:本题考察K-Means聚类算法的核心原理。K-Means通过迭代优化,将数据划分为K个簇,使得每个簇内数据点到簇中心(质心)的距离平方和(Within-ClusterSumofSquares,WCSS)最小化,从而保证簇内紧凑性和簇间分离性。选项A、D错误,因为K-Means不直接“最大化簇间距离”,而是通过最小化簇内距离间接实现簇间分离;选项C错误,目标是最小化而非最大化簇内距离平方和。因此正确答案为B。26.Hadoop分布式文件系统(HDFS)中,默认的文件块(Block)大小是多少?
A.32MB
B.64MB
C.128MB
D.256MB【答案】:C
解析:本题考察HDFS文件块大小知识点,正确答案为C。HDFS默认块大小为128MB,该设计平衡了大文件存储效率与元数据管理开销;32MB(A)和64MB(B)为早期非标准设置,256MB(D)超出默认配置范围,故C选项正确。27.MongoDB数据库采用的是哪种数据模型?
A.键值对
B.文档型
C.列族型
D.图模型【答案】:B
解析:本题考察NoSQL数据库类型。MongoDB以JSON格式的“文档”为基本存储单元,属于文档型数据库;键值对型(如Redis)以键值对存储;列族型(如HBase)按列族组织数据;图模型(如Neo4j)以节点和关系存储。因此B选项正确。28.以下哪种算法属于典型的分类算法?
A.K-Means(聚类算法)
B.Apriori(关联规则挖掘算法)
C.SVM(支持向量机)
D.线性回归(预测算法)【答案】:C
解析:本题考察数据挖掘算法类型。K-Means(A)是无监督聚类算法,用于数据分组;Apriori(B)是关联规则挖掘算法,用于发现数据项间关联;SVM(C)是经典监督学习分类算法,可处理二分类/多分类问题;线性回归(D)是回归算法,用于预测连续值(如房价、销售额),属于预测类而非分类类。29.关于数据仓库与数据湖的描述,错误的是?
A.数据仓库主要存储结构化数据(如关系型数据库表)
B.数据湖支持存储结构化、半结构化、非结构化数据(如文本、图片、日志)
C.数据仓库的数据通常经过清洗、整合后用于分析
D.数据湖因存储原始数据,其查询分析效率通常高于数据仓库【答案】:D
解析:数据仓库是**面向分析的结构化数据存储**,通过ETL流程清洗、整合数据,查询效率高(如OLAP分析);数据湖是**原始数据的集中存储层**,包含结构化、半结构化、非结构化数据(如用户原始日志、图片),未经过深度处理,因此数据量大且查询效率通常低于数据仓库(需额外处理原始数据)。选项D“数据湖查询效率高于数据仓库”描述错误。30.在Hadoop分布式文件系统(HDFS)中,为保证数据可靠性和容错性,默认的副本存储数量是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的副本机制知识点。HDFS作为分布式存储系统,通过多副本存储实现数据冗余和容错。默认情况下,HDFS为每个文件块存储3个副本:1个副本无法应对单点故障,2个副本在极端情况下(如双节点同时故障)可能丢失数据,3个副本既能满足高容错需求(允许2个副本所在节点故障),又能平衡存储成本与可靠性。4个副本会显著增加存储开销,非默认配置。因此正确答案为C。31.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.1MB
B.64MB
C.128MB
D.256MB【答案】:C
解析:本题考察HDFS的基础概念。HDFS为了平衡存储效率和IO性能,默认将文件分割为128MB的块(Block),这一设计适配了Hadoop分布式存储的特点(如跨节点并行读写)。选项A过小(1MB),选项B是Hadoop1.x版本的旧默认值,选项D(256MB)会增加单块IO压力,因此正确答案为C。32.以下哪个工具是基于Hadoop的分布式数据仓库,允许用户使用类SQL语法进行数据查询与分析?
A.HDFS
B.HBase
C.Hive
D.Zookeeper【答案】:C
解析:Hive是基于Hadoop的SQL查询工具,通过HQL将查询转换为MapReduce任务执行;HDFS是存储系统,HBase是NoSQL数据库,Zookeeper是协调服务(非数据仓库工具)。因此正确答案为C。33.在分布式计算中,“数据倾斜”是指什么?
A.任务执行时间过长,导致整体作业延迟
B.不同节点上的数据量或计算负载不均衡
C.数据存储时发生磁盘空间不足
D.数据传输过程中出现网络拥堵【答案】:B
解析:本题考察分布式计算中的数据倾斜概念。数据倾斜指分布式系统中不同计算节点的数据量或负载差异过大,导致部分节点任务积压、整体性能下降。A是数据倾斜的常见后果;C是存储容量问题;D是网络传输问题,均非数据倾斜的定义。因此正确答案为B。34.关于数据集市的描述,以下哪项是正确的?
A.面向企业全局业务需求
B.数据来源于单一数据源
C.存储粒度比数据仓库更粗
D.通常由数据仓库导出数据【答案】:D
解析:本题考察数据集市的定义和特点。数据集市是数据仓库的子集,服务于特定业务部门或用户,通常由数据仓库导出数据并进行针对性处理。A项是数据仓库的特点(面向企业全局);B项错误,数据集市的数据来源于数据仓库,可能整合多个数据源;C项错误,数据集市为满足特定需求,存储粒度通常比数据仓库更细。因此正确答案为D。35.Spark相比HadoopMapReduce,在大数据处理中最显著的优势是?
A.内存计算,减少磁盘I/O操作
B.支持更多编程语言
C.仅适用于批处理任务
D.自动处理所有硬件故障【答案】:A
解析:本题考察Spark与MapReduce的核心差异。Spark将数据缓存在内存中,支持迭代计算和内存级操作,大幅减少磁盘I/O(MapReduce依赖磁盘读写中间结果),因此处理速度更快。Spark支持Scala、Java、Python等多种语言,但“多语言支持”并非最核心优势;Spark既支持批处理也支持流处理(如SparkStreaming);Hadoop生态的容错机制(如HDFS副本)已覆盖硬件故障处理,Spark本身不具备“自动处理所有硬件故障”能力。因此A选项正确。36.以下哪种算法属于聚类算法?
A.决策树
B.K-Means
C.逻辑回归
D.SVM(支持向量机)【答案】:B
解析:本题考察数据挖掘算法类型知识点。K-Means是典型的无监督聚类算法,用于将数据自动分组为不同簇。A(决策树)、C(逻辑回归)、D(SVM)均为监督学习算法,用于分类或回归任务。因此正确答案为B。37.关于Spark与MapReduce相比的主要优势,以下描述正确的是?
A.仅支持批处理,不支持流处理
B.基于内存计算,迭代计算效率更高
C.必须运行在Hadoop集群上,无法独立部署
D.仅支持Java语言开发,生态系统单一【答案】:B
解析:本题考察Spark核心特性知识点,正确答案为B。Spark的核心优势是基于内存计算,大幅提升迭代计算(如机器学习、图算法)效率;A错误(Spark支持StructuredStreaming等流处理);C错误(Spark可独立部署或运行在YARN/Kubernetes);D错误(Spark支持Scala/Python/Java等多语言)。38.在大数据流处理框架中,以低延迟、高吞吐和精确一次(Exactly-Once)语义著称的实时处理工具是?
A.ApacheStorm
B.ApacheSparkStreaming
C.ApacheFlink
D.ApacheKafkaStreams【答案】:C
解析:本题考察流处理框架特性。ApacheFlink是高吞吐、低延迟的流处理引擎,支持事件时间处理和精确一次语义,适合复杂状态管理和实时分析;Storm是经典实时处理框架,但状态管理较弱;SparkStreaming基于微批处理,延迟较高;KafkaStreams更偏向消息处理而非复杂流计算。因此正确答案为C。39.Hadoop分布式文件系统(HDFS)默认情况下,每个数据块会被存储的副本数量是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的副本机制。HDFS为保证数据可靠性和容错性,默认将每个数据块存储3个副本,分布在不同的节点上,即使部分节点故障,仍能通过其他副本恢复数据;默认副本数1无法容错,2个副本在大规模集群中容错能力不足,4个为非默认设置。因此正确答案为C。40.以下哪项是数据仓库(DataWarehouse)的核心特征?
A.面向业务流程
B.数据经过整合与清洗
C.支持实时事务处理
D.直接存储原始日志数据【答案】:B
解析:数据仓库核心特征为“面向主题”“集成性”“非易失性”“时变性”。A“面向业务流程”是OLTP特征;C“实时事务处理”错误,数据仓库以批处理ETL更新为主;D“原始数据存储”错误,数据仓库是对原始数据的整合处理结果。41.大数据的5V特征不包括以下哪一项?
A.Volume
B.Velocity
C.Viscosity
D.Variety【答案】:C
解析:本题考察大数据的5V特征知识点。大数据的5V特征是指Volume(数据量)、Velocity(数据速度)、Variety(数据多样性)、Veracity(数据真实性)和Value(数据价值)。选项C的Viscosity(粘度)并非大数据特征,属于干扰项。因此正确答案为C。42.在Hadoop生态系统中,负责分布式计算的核心框架是?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:B
解析:本题考察Hadoop生态系统核心组件。MapReduce是Hadoop的分布式计算框架,负责将复杂计算任务分解为可并行执行的子任务;HDFS是分布式存储系统,YARN是资源管理系统,Hive是基于Hadoop的数据仓库工具,均非计算框架。故正确答案为B。43.与MapReduce相比,Spark的主要优势在于?
A.支持内存计算,大幅提升数据处理速度
B.仅适用于批处理任务,无法处理实时流数据
C.必须依赖HDFS存储数据,灵活性较低
D.仅支持简单的词频统计等基础计算任务【答案】:A
解析:本题考察Spark与MapReduce的核心差异。选项B错误,Spark支持批处理、流处理(如StructuredStreaming)、机器学习等多种任务;选项C错误,Spark可从多种数据源(如MySQL、Kafka)读取数据,并非仅依赖HDFS;选项D错误,Spark支持复杂SQL查询、图计算、机器学习等高级任务。而选项A正确,Spark采用内存计算模式,避免MapReduce中大量磁盘IO操作,因此处理速度更快。44.关于数据仓库(DataWarehouse)与数据湖(DataLake)的描述,正确的是?
A.数据仓库主要存储结构化数据,数据湖支持多类型原始数据存储
B.数据仓库面向实时分析场景,数据湖仅用于离线批处理
C.数据仓库仅存储清洗后的数据,数据湖仅存储原始未处理数据
D.数据仓库和数据湖均需严格遵循星型/雪花型模型设计【答案】:A
解析:本题考察数据仓库与数据湖的核心区别知识点。数据仓库以结构化数据为主,采用星型/雪花型模型面向业务分析;数据湖可存储结构化、半结构化、非结构化原始数据,支持多场景分析。B选项错误,数据湖也支持实时分析;C选项错误,数据仓库和数据湖均包含原始数据与清洗后数据,只是侧重点不同;D选项错误,数据湖无严格模型约束,更灵活。45.Spark中RDD的哪个特性直接保障了任务的并行执行和容错能力?
A.不可变性(Immutable)
B.分区(Partitioning)
C.惰性计算(LazyEvaluation)
D.依赖关系(Dependencies)【答案】:B
解析:本题考察SparkRDD的核心特性。RDD的分区特性将数据分散到集群不同节点,使任务可并行执行;同时,分区信息结合Lineage(血统)和Checkpoint机制实现容错。选项A(不可变性)保障数据一致性,非并行执行基础;选项C(惰性计算)仅延迟执行,不直接影响并行;选项D(依赖关系)定义任务执行顺序,是DAG调度的基础,但不直接保障并行和容错。因此正确答案为B。46.在Hadoop生态系统中,负责分布式存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责在集群中存储海量数据;MapReduce是分布式计算框架,YARN是资源管理器,Hive是基于Hadoop的数据仓库工具(非存储核心)。因此正确答案为A。47.在大数据预处理中,将不同量纲的特征转换为统一量纲的操作是?
A.数据清洗
B.数据标准化
C.数据集成
D.数据变换【答案】:B
解析:数据标准化通过缩放或变换(如Min-Max归一化、Z-score标准化)消除不同特征间的量纲差异;数据清洗主要处理缺失值/异常值,数据集成是合并多源数据,数据变换是更宽泛的操作(包含标准化但不限于),题干明确指向“统一量纲”,故正确为数据标准化。48.与MapReduce相比,Spark的主要优势在于?
A.更快的迭代计算速度
B.更强的实时数据处理能力
C.更高的批处理吞吐量
D.支持更多编程语言开发【答案】:A
解析:本题考察Spark与MapReduce的技术对比。Spark采用内存计算模型,通过内存缓存中间结果减少磁盘IO操作,因此在迭代计算(如机器学习算法、图计算)中速度远快于基于磁盘的MapReduce。选项B(实时处理)并非Spark的核心优势,Flink在实时处理上更具优势;选项C(吞吐量)两者各有场景,MapReduce在高吞吐量批处理中仍有应用;选项D(多语言支持)是Spark的特性之一,但并非与MapReduce相比的核心优势。因此正确答案为A。49.以下哪项不属于大数据的4V核心特性?
A.数据量大(Volume)
B.价值密度高(Value)
C.处理速度快(Velocity)
D.数据多样性(Variety)【答案】:B
解析:本题考察大数据4V特性的基础概念。大数据的4V核心特性为:数据量大(Volume,指数据规模达到PB级以上)、处理速度快(Velocity,指数据产生和处理的实时性要求)、数据多样性(Variety,包括结构化、半结构化和非结构化数据)、价值密度低(Value,海量数据中高价值信息占比低,需通过挖掘提取)。选项B中“价值密度高”与4V特性的“价值密度低”矛盾,因此不属于4V核心特性。50.Spark相比传统MapReduce,在计算效率上的显著提升主要得益于其哪个特性?
A.支持多种编程语言
B.基于内存计算
C.支持分布式存储
D.提供交互式SQL查询【答案】:B
解析:Spark通过内存计算减少磁盘IO,大幅提升计算速度;选项A是语言支持特性,选项C的分布式存储(如HDFS)是Hadoop基础,非Spark独有;选项D的交互式SQL是SparkSQL功能,非效率核心原因。因此正确答案为B。51.大数据的5V特征中,哪一项描述了数据类型的多样性(如结构化、半结构化、非结构化数据并存)?
A.Volume(容量)
B.Velocity(速度)
C.Variety(多样性)
D.Veracity(真实性)【答案】:C
解析:本题考察大数据5V特征的基本概念。正确答案为C。解析:大数据的5V特征中,Volume指数据规模巨大;Velocity指数据产生和处理速度快;Variety特指数据类型多样(包含结构化、半结构化、非结构化数据);Veracity指数据质量(准确性和可信度);Value指数据价值密度低但挖掘后价值高。因此A、B、D均不符合题意。52.根据CAP理论,分布式系统中必须保证的特性是以下哪一个?
A.一致性(Consistency)
B.可用性(Availability)
C.分区容错性(PartitionTolerance)
D.网络延迟(NetworkLatency)【答案】:C
解析:本题考察分布式系统CAP理论。CAP理论指出分布式系统只能同时满足一致性(C)、可用性(A)、分区容错性(P)中的两项。由于分布式系统必然面临网络分区(如机房断网),因此分区容错性(P)是必须保证的,而C和A需根据场景权衡(如CP系统保证一致性但可能牺牲可用性,AP系统保证可用性但可能出现数据不一致)。因此正确答案为C。53.在数据仓库的维度建模中,以下哪种模型是以事实表为中心,通过主键直接关联多个维度表,形成星形结构?
A.雪花模型
B.星型模型
C.星座模型
D.层次模型【答案】:B
解析:本题考察数据仓库维度建模知识点。星型模型由事实表(如销售订单)和直接关联的维度表(如客户、产品)构成,维度表无层级结构,形似星形。A选项错误,雪花模型的维度表存在层级子表;C选项错误,星座模型包含多个事实表共享维度表;D选项错误,层次模型是传统数据结构概念,非维度建模术语。54.ApacheSpark相比MapReduce,在处理大规模数据时的核心优势是?
A.采用内存计算模型,减少磁盘I/O操作
B.仅支持批处理而不支持流处理
C.必须基于YARN运行,依赖Hadoop生态
D.提供更高的容错性和数据一致性【答案】:A
解析:本题考察Spark与MapReduce的核心差异。Spark的核心优势在于采用内存计算模型,将中间结果缓存在内存中,避免了MapReduce中频繁的磁盘I/O操作,显著提升计算速度。B选项错误,Spark既支持批处理也支持流处理(StructuredStreaming);C选项错误,Spark可独立运行,并非必须依赖YARN;D选项错误,MapReduce与Spark均具备容错机制,Spark的容错性并非其核心优势。因此正确答案为A。55.以下关于Spark与MapReduce的比较,正确的是?
A.Spark仅适用于批处理任务,而MapReduce支持流处理
B.Spark基于磁盘存储数据,比MapReduce更稳定
C.Spark适合迭代计算和交互式查询,性能更高
D.MapReduce比Spark更适合内存计算【答案】:C
解析:本题考察主流批处理框架的对比。选项A错误,Spark支持批处理、流处理(StructuredStreaming)和交互式查询,而MapReduce仅支持批处理;选项B错误,Spark基于内存计算,MapReduce基于磁盘,Spark在内存中操作数据,处理速度更快但稳定性依赖内存资源;选项C正确,Spark通过内存缓存和DAG执行引擎,大幅提升迭代计算和交互式查询性能;选项D错误,MapReduce基于磁盘I/O,Spark基于内存计算,Spark是更优的内存计算框架。56.在数据仓库的数据集成流程中,‘先抽取数据,直接加载到目标数据仓库,再在仓库内进行数据转换’的处理方式被称为?
A.ETL
B.ELT
C.ETL+ELT
D.LTE【答案】:B
解析:本题考察数据集成的ETL/ELT概念。ELT(Extract-Load-Transform)通过先加载原始数据至数据仓库,再利用仓库计算资源进行转换,适合大数据量场景。A选项错误,ETL(Extract-Transform-Load)是先转换再加载;C选项错误,无该组合术语;D选项错误,LTE非数据集成标准术语。57.在数据仓库的维度建模中,星型模型的核心组成部分是?
A.事实表和多个维度表
B.多个事实表和一个维度表
C.单个事实表和单个维度表
D.多个事实表和多个维度表【答案】:A
解析:本题考察数据仓库星型模型的结构。星型模型以一个中心事实表为核心,围绕其关联多个维度表(如时间、地域、产品等),各维度表仅包含维度属性,通过外键与事实表关联。雪花模型则是维度表进一步规范化为子维度表。选项B、C、D均不符合星型模型的结构定义,因此正确答案为A。58.Spark相比MapReduce,在数据处理方面的主要优势是?
A.支持内存计算,无需频繁读写磁盘
B.仅适用于批处理场景
C.必须依赖HDFS存储数据
D.处理延迟更高,适合离线大数据分析【答案】:A
解析:本题考察Spark与MapReduce的对比。B选项错误,Spark既支持批处理也支持流处理;C选项错误,Spark可使用内存、磁盘、外部存储系统(如Cassandra)等多种存储;D选项错误,Spark因内存计算和优化执行引擎(DAG),处理延迟远低于MapReduce(后者基于磁盘迭代)。Spark的核心优势是将数据缓存在内存中,减少磁盘I/O,提升计算速度,因此正确答案为A。59.Spark相较于MapReduce的显著性能优势主要体现在?
A.内存计算减少磁盘IO,批处理速度更快
B.仅支持离线批处理任务
C.必须依赖HDFS存储所有数据
D.无法处理实时流数据【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算和DAG执行引擎,避免MapReduce的磁盘IO瓶颈,迭代计算速度提升10-100倍;B错误,Spark同时支持批处理和流处理(SparkStreaming);C错误,Spark支持多种存储系统(如内存、S3等);D错误,SparkStreaming可实时处理流数据。因此正确答案为A。60.Spark相比MapReduce的显著优势主要体现在?
A.基于内存计算,减少磁盘I/O
B.仅支持批处理场景
C.只能处理结构化数据
D.不支持实时流处理【答案】:A
解析:本题考察分布式计算框架对比知识点。Spark的核心优势是采用内存计算模型,数据缓存在内存中,减少了磁盘读写操作,大幅提升处理速度,尤其适合迭代计算和交互式查询。MapReduce基于磁盘I/O,处理速度较慢;Spark不仅支持批处理(如SparkSQL),还支持实时流处理(SparkStreaming),且兼容结构化、半结构化和非结构化数据,因此B、C、D描述错误。61.以下哪项是Hadoop分布式文件系统(HDFS)的核心功能?
A.存储海量结构化和非结构化数据
B.对数据进行实时清洗和转换
C.实时处理高并发数据流
D.提供数据挖掘算法库【答案】:A
解析:本题考察HDFS的核心功能。HDFS是分布式文件系统,主要负责海量数据的存储,其设计目标是高吞吐量和高容错性,适用于存储结构化、半结构化和非结构化数据。B项属于数据处理框架(如Spark)或ETL工具的功能;C项是流处理框架(如Flink/Storm)的应用场景;D项是机器学习库(如Mahout)的功能。因此正确答案为A。62.适用于存储用户社交关系(如好友列表、关注关系)的数据库类型是?
A.键值对数据库(如Redis)
B.文档型数据库(如MongoDB)
C.列族数据库(如HBase)
D.图数据库(如Neo4j)【答案】:D
解析:本题考察NoSQL数据库的适用场景。选项A“键值对数据库”适合简单KV存储(如缓存),不适合复杂关系;选项B“文档型数据库”以JSON等文档为单位,适合存储半结构化数据(如用户信息);选项C“列族数据库”适合按列存储稀疏数据(如日志、时序数据);选项D“图数据库”以图结构(节点和边)存储关系数据,社交关系(好友、关注)本质是网络结构,因此最适合图数据库,正确答案为D。63.以下哪一项不属于Hadoop2.x的核心组件?
A.HDFS(分布式文件系统)
B.YARN(资源管理器)
C.MapReduce(计算框架)
D.Spark(内存计算框架)【答案】:D
解析:Hadoop2.x的核心三大组件为HDFS(分布式文件存储)、YARN(资源管理)和MapReduce(分布式计算)。Spark是独立的开源大数据计算框架,虽可与Hadoop生态集成,但不属于Hadoop核心组件,因此D错误。64.在Hadoop的MapReduce计算框架中,Map阶段的主要作用是?
A.对输入数据进行清洗和预处理,生成原始数据结构
B.将输入数据分解为键值对,进行并行处理和转换
C.对Map阶段输出的中间结果进行合并和聚合,得到最终结果
D.对所有输入数据进行全局排序,确保Reduce阶段的有序性【答案】:B
解析:本题考察MapReduce的核心流程。MapReduce分为Map和Reduce两个阶段:Map阶段负责将输入数据分解为键值对(key-valuepairs),通过并行处理对每个数据块进行过滤、转换等操作,生成中间结果;Reduce阶段则对Map输出的中间结果按key分组,进行聚合计算。选项A描述的预处理通常在Map前完成,选项C是Reduce阶段的功能,选项D属于Shuffle阶段的部分任务(如分区排序),因此选B。65.以下哪项是ApacheSpark相较于HadoopMapReduce的主要优势?
A.支持内存计算,适合迭代计算和交互式查询
B.仅支持批处理,无法处理实时数据
C.必须依赖磁盘存储中间结果,计算效率高
D.仅能处理结构化数据,扩展性差【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算和高效迭代:选项A正确,Spark通过内存缓存数据,避免MapReduce中频繁的磁盘I/O,显著提升迭代计算(如机器学习)和交互式查询(如SQL)的性能;选项B错误,Spark同时支持批处理、流处理(StructuredStreaming)和实时计算,功能远多于仅支持批处理的MapReduce;选项C错误,Spark优先使用内存存储中间结果,仅在内存不足时才落盘,而MapReduce必须依赖磁盘存储中间结果,因此Spark计算效率更高;选项D错误,Spark支持结构化、半结构化(如JSON)和非结构化(如图像)数据,且具备良好的扩展性。66.下列关于MapReduce和Spark的描述,正确的是?
A.MapReduce是内存计算框架,执行速度快于Spark
B.Spark支持内存计算,减少了磁盘IO操作
C.MapReduce适合交互式查询,Spark仅支持批处理任务
D.MapReduce的Shuffle过程比Spark更高效【答案】:B
解析:本题考察MapReduce与Spark技术特点对比知识点。A选项错误:MapReduce是基于磁盘的批处理模型,依赖磁盘读写,执行速度远慢于Spark;B选项正确:Spark采用内存计算框架,将数据缓存在内存中,减少磁盘IO,提升处理效率;C选项错误:Spark支持批处理、流处理(StructuredStreaming)、交互式查询(SparkSQL)等多种场景,并非仅支持批处理;D选项错误:Spark对Shuffle过程进行了深度优化(如SortShuffle、ExternalShuffleService),相比MapReduce的Shuffle(依赖磁盘排序和大量I/O)更高效。因此正确答案为B。67.以下哪种技术通常用于大数据的离线批处理分析?
A.SparkStreaming(流处理框架)
B.Hive(数据仓库工具)
C.Flink(实时流处理引擎)
D.Storm(实时流处理系统)【答案】:B
解析:本题考察大数据处理工具的应用场景。Hive是基于Hadoop的SQL数据仓库工具,通过HiveQL将类SQL查询转换为MapReduce、Tez等底层计算任务,适用于离线批处理分析(如T+1报表、历史数据统计)。而SparkStreaming、Flink、Storm均为流处理框架,主要用于实时或准实时数据处理(如实时监控、秒级指标计算),因此正确答案为B。68.以下哪项属于OLAP(联机分析处理)的典型操作?
A.切片与钻取
B.事务处理(TransactionProcessing)
C.实时数据更新(如事务日志写入)
D.数据挖掘算法(如聚类分析)【答案】:A
解析:本题考察OLAP核心操作知识点。OLAP用于支持复杂数据分析,典型操作包括切片(按维度筛选数据)、钻取(按维度上下钻取数据粒度)、旋转(改变维度视角)等。选项B“事务处理”属于OLTP(联机事务处理)的核心场景;选项C“实时数据更新”是OLTP的典型特征(如数据库事务);选项D“数据挖掘算法”是独立于OLAP的数据分析技术(如机器学习算法)。正确答案为A。69.在数据仓库设计中,用于存储业务事件的度量值(如销售额、订单数量)和关联维度键的核心表是?
A.维度表
B.事实表
C.汇总表
D.事务表【答案】:B
解析:本题考察数据仓库核心表类型知识点。数据仓库中各表类型定义如下:维度表(A)存储描述性信息(如产品名称、客户地址),用于解释事实表;事实表(B)存储业务事件的度量值(如销售额、数量)和关联的维度键(如日期ID、产品ID),是分析的核心数据;汇总表(C)是事实表的聚合结果(如按日/周/月汇总),属于事实表的衍生表;事务表(D)是OLTP系统中的原始交易记录,不属于数据仓库核心表。因此正确答案为B。70.以下哪项不属于大数据的典型特征?
A.Volume(数据量大)
B.Velocity(处理速度快)
C.Variety(数据类型多样)
D.Accuracy(数据准确性高)【答案】:D
解析:本题考察大数据的核心特征知识点。大数据的典型特征包括4V:Volume(数据量大)、Velocity(处理速度快)、Variety(数据类型多样)、Value(价值密度低),部分场景也会提及Veracity(真实性)。而Accuracy(数据准确性高)不属于大数据特征,大数据虽追求价值挖掘,但数据量大时可能存在噪声或低准确性,因此选D。71.以下哪项是Hadoop分布式文件系统的核心组件?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。正确答案为A,HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的分布式存储;B选项MapReduce是Hadoop的分布式计算框架,用于数据处理;C选项YARN是Hadoop的资源管理器,负责集群资源调度;D选项Hive是基于Hadoop的数据仓库工具,用于数据查询和分析,并非文件系统。72.在MapReduce计算模型中,哪个阶段负责对中间结果进行聚合和汇总操作?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.I/O阶段【答案】:B
解析:本题考察MapReduce计算模型的核心阶段。正确答案为B。解析:Map阶段负责并行处理输入数据,将原始数据拆分为键值对(key-value)并输出中间结果;Reduce阶段针对Map阶段输出的相同键(key)的所有值进行合并、聚合和汇总,生成最终结果;Shuffle阶段是Map与Reduce之间的数据传输和分区过程,不直接进行聚合;I/O阶段是输入输出操作的泛称,不属于计算阶段。因此A、C、D均不符合题意。73.MapReduce中,哪个阶段负责将中间结果进行分组并汇总计算?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Combine阶段【答案】:B
解析:本题考察MapReduce的工作流程。Map阶段负责数据分解和初步转换(如键值对生成);Reduce阶段负责将Map输出的中间结果按key分组,并通过汇总函数(如求和、计数)得到最终结果。选项C的Shuffle是Map与Reduce之间的中间数据传输过程,选项D的Combine是Map阶段的局部聚合优化手段,均非最终汇总阶段。因此正确答案为B。74.数据脱敏技术的主要目的是?
A.防止数据泄露
B.提高数据存储效率
C.加快数据传输速度
D.减少数据冗余【答案】:A
解析:本题考察大数据安全技术知识点。数据脱敏通过对敏感数据(如身份证号、手机号)进行变形处理(如替换部分字符),隐藏真实信息,防止非授权访问时泄露隐私或敏感数据。B(存储效率)、C(传输速度)、D(数据冗余)与脱敏技术无关。因此正确答案为A。75.以下哪种业务场景更适合采用流处理框架(如Flink、KafkaStreams)进行数据处理?
A.每天凌晨批量统计前一天的用户行为数据
B.实时监控电商平台交易流水并触发异常订单告警
C.定期生成企业月度财务报表
D.历史用户消费数据的离线挖掘与分析【答案】:B
解析:流处理框架(如Flink)适用于**实时性要求高**的在线数据处理场景,特点是低延迟(毫秒级)、高吞吐、持续处理。选项B“实时监控交易流水并告警”符合流处理的实时性需求;而选项A(批量统计)、C(月度报表)、D(历史数据挖掘)均为离线批处理场景,适合Spark、MapReduce等框架。76.Hadoop生态系统中,负责分布式并行计算的核心框架是?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:B
解析:本题考察Hadoop生态系统组件知识点,正确答案为B。HDFS(A)是分布式存储系统;MapReduce(B)是Hadoop核心计算框架,负责分布式并行计算;YARN(C)是资源管理器,负责集群资源调度;Hive(D)是基于Hadoop的数据仓库工具,用于数据查询和分析。因此B选项为正确答案。77.Spark相对于MapReduce的主要性能优势体现在?
A.内存计算
B.实时流处理
C.强批处理能力
D.高吞吐量写入【答案】:A
解析:本题考察分布式计算框架对比知识点。Spark的核心优势是内存计算,通过将数据缓存在内存中执行迭代计算,避免了MapReduce中频繁的磁盘IO操作,显著提升迭代算法(如机器学习、图计算)的效率。MapReduce本质基于磁盘IO,实时流处理通常由Flink等工具承担,高吞吐量写入是数据库或消息队列的特性。因此正确答案为A。78.MapReduce计算模型中,负责对数据进行分组并进行汇总计算的是哪个阶段?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Split阶段【答案】:B
解析:本题考察MapReduce计算模型的核心阶段知识点。MapReduce采用分治思想,分为Map阶段和Reduce阶段:Map阶段负责并行处理输入数据,生成中间键值对;Reduce阶段负责对中间结果按key分组,进行合并计算(如求和、计数等)。选项A(Map阶段)仅完成数据拆分与初步处理,无汇总功能;选项C(Shuffle阶段)是Map与Reduce之间的数据传输与排序过程,非计算阶段;选项D(Split阶段)是HDFS文件的分片操作,非MapReduce计算阶段。79.大数据的5V特性中,描述数据产生后需要快速处理和分析的特性是?
A.Volume(容量)
B.Velocity(速度)
C.Variety(多样性)
D.Veracity(真实性)【答案】:B
解析:本题考察大数据5V特性知识点。大数据的5V特性包括:Volume(数据量巨大)、Velocity(数据产生和处理速度快)、Variety(数据类型多样,含结构化、半结构化、非结构化数据)、Value(数据价值密度低但可挖掘价值)、Veracity(数据质量与可信度)。选项A“容量”指数据规模,C“多样性”指数据类型,D“真实性”指数据可靠性,均不符合“快速处理分析”的描述,故正确答案为B。80.相比传统的MapReduce计算框架,ApacheSpark的显著性能优势主要来源于以下哪个特性?
A.支持复杂的SQL查询操作
B.基于内存计算,减少磁盘I/O开销
C.仅适用于超大规模数据的批处理
D.必须依赖HDFS存储中间结果【答案】:B
解析:本题考察Spark与MapReduce的技术对比。Spark的核心优势是基于内存计算(RDD缓存),避免了MapReduce中因多次磁盘读写导致的性能瓶颈。A选项错误,SQL查询支持是辅助功能,非核心优势;C选项错误,Spark同样支持流处理和小数据量场景;D选项错误,Spark支持内存、本地存储等多种中间结果存储方式。81.Hadoop生态系统中,负责分布式数据存储与高容错性的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件功能。HDFS(Hadoop分布式文件系统)是Hadoop生态系统中负责分布式数据存储的核心组件,通过多副本机制实现高容错性和高吞吐量;MapReduce是分布式计算框架,负责并行计算任务;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于数据查询和分析。因此A选项正确。82.以下哪种数据库属于列族(Column-family)数据库?
A.MongoDB
B.HBase
C.Redis
D.MySQL【答案】:B
解析:列族数据库按列族(ColumnFamily)组织数据,每行数据可动态扩展列,典型代表为HBase和Cassandra。A选项MongoDB是文档型数据库(存储JSON-like文档);C选项Redis是键值对数据库(key-value存储);D选项MySQL是关系型数据库(行-列二维表结构)。83.以下哪项通常被认为是大数据的核心特征(4V)之一?
A.低延迟(LowLatency)
B.数据多样性(Variety)
C.高压缩率(HighCompression)
D.数据结构化(StructuredData)【答案】:B
解析:本题考察大数据的4V核心特征(Volume、Velocity、Variety、Value)。选项A“低延迟”属于实时性(Velocity)的衍生概念,但非4V标准定义;选项C“高压缩率”是数据存储技术的附加特性,并非大数据特征;选项D“数据结构化”仅描述数据类型的一种,而Variety强调数据类型的多样性(结构化、半结构化、非结构化)。正确答案为B。84.Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一个?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于数据仓库构建和查询。因此正确答案为A。85.以下哪种数据库类型通常不支持SQL查询语言,且更适合存储非结构化或半结构化数据?
A.关系型数据库(如MySQL)
B.分布式数据库(如HBase)
C.NoSQL数据库(如MongoDB)
D.时序数据库(如InfluxDB)【答案】:C
解析:NoSQL数据库(非关系型数据库)通常不支持SQL,以键值对、文档等结构存储数据,适合非结构化/半结构化数据(如MongoDB存储JSON文档)。关系型数据库(A)支持SQL;HBase(B)是NoSQL的一种,但问题问的是“通常不支持SQL”的通用类型;D选项时序数据库属于NoSQL细分类型,但核心特征是“不支持SQL”的类别,因此正确答案为C。86.在分布式计算任务中,导致数据倾斜的主要原因是?
A.数据分布不均匀
B.计算节点硬件故障
C.网络传输延迟过高
D.磁盘读写速度慢【答案】:A
解析:本题考察大数据处理中的数据倾斜问题。正确答案为A,数据倾斜指部分计算节点的任务数据量远大于其他节点,导致负载失衡;B选项计算节点硬件故障会导致任务失败而非倾斜;C选项网络传输延迟属于系统资源调度问题,与数据分布无关;D选项磁盘读写速度慢属于计算资源问题,并非数据倾斜的核心原因。87.以下哪项不属于大数据的4V特征?
A.Volume(规模)
B.Velocity(速度)
C.Variety(多样性)
D.Veracity(真实性)【答案】:D
解析:本题考察大数据的核心特征知识点。大数据的4V特征定义为Volume(数据规模)、Velocity(处理速度)、Variety(数据多样性)和Value(数据价值),而Veracity(真实性)属于数据质量维度,并非大数据4V特征的标准组成部分。因此正确答案为D。88.MapReduce编程模型中,Map阶段的主要任务是?
A.将输入数据按节点均匀分片并分发
B.对输入数据进行过滤、转换,生成键值对
C.对所有节点的中间结果进行聚合计算
D.负责任务调度和计算资源分配【答案】:B
解析:本题考察MapReduce的核心流程,正确答案为B。Map阶段的作用是对输入数据进行映射转换,将输入数据(如文本行)拆分为键值对(key-value),为后续Reduce阶段的聚合做准备。选项A是InputFormat的分片分发功能;选项C是Reduce阶段的任务;选项D是YARN的ResourceManager职责。89.数据仓库(DataWarehouse)与数据湖(DataLake)的本质区别是?
A.数据仓库存储结构化数据,数据湖支持原始数据多格式存储
B.数据仓库以分析后数据为主,数据湖以原始数据为主
C.数据仓库仅支持离线分析,数据湖仅支持实时分析
D.数据仓库基于Hadoop构建,数据湖基于传统关系型数据库【答案】:A
解析:本题考察数据仓库与数据湖的核心定义。数据仓库是面向分析的结构化数据整合层,采用星型/雪花模型分层设计,聚焦历史数据和分析需求;数据湖则是原始数据的集中存储层,支持结构化、半结构化(如JSON)、非结构化(如日志、图片)等多格式数据,保留数据原始形态。选项B错误,数据湖同样存储原始数据,分析后数据通常来自数据仓库;选项C错误,两者均可支持离线/实时分析,取决于工具选型;选项D错误,数据仓库和数据湖均可基于Hadoop(如Hive、Hudi)构建,与数据库类型无关。90.Hadoop分布式文件系统(HDFS)的核心设计目标不包括以下哪项?
A.高容错性(通过多副本存储实现)
B.支持大文件(如GB级、TB级)的高效存储
C.提供实时低延迟的随机读写能力
D.适合流式数据写入与读取【答案】:C
解析:HDFS的核心目标是为海量数据提供高吞吐量、高容错性的存储服务:①通过多副本(默认3副本)实现高容错;②支持大文件(如PB级)的流式写入/读取(如日志、视频文件);③采用“一次写入多次读取”模式,优化顺序读写性能。但HDFS随机读写延迟高(块寻址开销大),不适合低延迟随机访问场景(如实时数据库查询),因此选项C错误。91.Hadoop分布式文件系统(HDFS)的核心作用是?
A.分布式计算框架
B.分布式存储系统
C.分布式资源管理
D.分布式数据仓库【答案】:B
解析:本题考察Hadoop生态系统核心组件功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式存储系统,负责海量数据的可靠存储。选项A(分布式计算框架)对应MapReduce;选项C(分布式资源管理)对应YARN;选项D(分布式数据仓库)对应Hive等工具。因此正确答案为B。92.大数据的‘5V’特征中,用于描述数据产生和处理速度的是?
A.Volume(容量)
B.Velocity(速度)
C.Variety(多样性)
D.Veracity(真实性)【答案】:B
解析:本题考察大数据的5V特征定义。5V特征分别为:Volume(数据规模大)、Velocity(数据产生和处理速度快)、Variety(数据类型多样,含结构化、半结构化、非结构化)、Veracity(数据质量高,需保证真实性)、Value(数据蕴含价值)。因此描述速度的是Velocity,正确答案为B。93.以下哪种大数据处理框架主要用于实时流数据处理?
A.Storm
B.MapReduce
C.HDFS
D.Hive【答案】:A
解析:本题考察大数据处理框架的应用场景。Storm是开源实时流处理系统,专为低延迟、高吞吐的实时数据处理设计;MapReduce是离线批处理框架,HDFS是分布式存储系统,Hive是数据仓库工具,均不适合实时流处理,因此A选项正确。94.数据预处理中,‘数据清洗’的主要目的是?
A.提高数据质量,去除噪声和异常值
B.将数据转换为适合分析的格式(如标准化、归一化)
C.将数据分割为训练集和测试集
D.加速数据在网络中的传输【答案】:A
解析:数据清洗通过处理缺失值、异常值、重复数据等,提高数据质量,确保后续分析结果的准确性。B属于数据转换(如特征工程);C属于数据拆分(如模型训练);D与数据清洗无关。因此正确答案为A。95.大数据技术中,用于实时联机分析处理(OLAP)的查询引擎是以下哪一个?
A.ApacheHive
B.ApacheImpala
C.ApacheHBase
D.ApacheKafka【答案】:B
解析:本题考察大数据分析工具知识点。ApacheImpala是基于Hadoop的实时分析查询引擎,专为OLAP场景设计,支持亚秒级查询;Hive是数据仓库工具,需通过MapReduce执行查询,延迟较高;HBase是NoSQL数据库,侧重随机读写而非OLAP分析;Kafka是分布式消息队列,用于数据传输。因此正确答案为B。96.在数据预处理的数据清洗阶段,处理数值型字段缺失值时,以下哪种方法通常更合适?
A.直接删除包含缺失值的样本
B.使用该字段的均值填充缺失值
C.使用该字段的众数填充缺失值
D.随机生成数值填充缺失值【答案】:B
解析:本题考察数据清洗中缺失值处理方法。对于数值型字段,均值填充(选项B)能保留数据分布特性且避免样本量过度减少;直接删除样本(A)会丢失信息且可能引入偏差;众数填充(C)适用于类别型数据,对数值型不适用;随机填充(D)缺乏统计合理性,易引入错误。因此正确答案为B。97.大数据的5V特征中,描述数据规模巨大的核心特征是以下哪一项?
A.Velocity(速度)
B.Volume(容量)
C.Variety(多样性)
D.Veracity(真实性)【答案】:B
解析:本题考察大数据5V特征的定义。大数据的5V特征包括:Volume(数据容量/规模,指数据量巨大)、Velocity(数据产生速度快)、Variety(数据类型多样,结构化/半结构化/非结构化)、Veracity(数据质量,确保真实性)、Value(数据价值)。选项A描述速度,C描述类型,D描述质量,均不符合题意,正确答案为B。98.Hadoop分布式文件系统(HDFS)的默认数据块副本数是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS副本机制知识点。HDFS为保证数据可靠性和容错性,默认将每个数据块存储在3个不同节点上,副本数设为3可在单个节点故障时仍能恢复数据。A选项1个副本无法容错,B选项2个副本在部分场景下仍有丢失风险,D选项4个副本超出HDFS默认配置且会增加存储开销。99.Hadoop生态系统中,负责分布式存储海量数据的核心组件是?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:A
解析:本题考察Hadoop生态系统组件功能。HDFS是Hadoop的分布式文件系统,专为存储海量数据设计,采用块(Block)存储和副本机制;MapReduce是分布式计算框架,负责并行计算任务;YARN是资源管理器,协调集群资源;Hive是基于Hadoop的数据仓库工具。因此,负责分布式存储的是HDFS,正确答案为A。100.MongoDB数据库的类型属于以下哪类?
A.关系型数据库(RDBMS)
B.列族数据库
C.文档数据库
D.键值数据库【答案】:C
解析:本题考察NoSQL数据库的分类。MongoDB是典型的文档数据库,以JSON/BSON格式存储半结构化数据,支持灵活的嵌套文档结构,适合存储非结构化/半结构化数据(如日志、用户画像)。选项A错误,关系型数据库(如MyS
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 三委会相关工作制度
- 互助院管理工作制度
- 保卫处员工工作制度
- 颈部疾病护理基础与实践
- 公司法务部工作制度
- 办案区值班工作制度
- 劳务工管理工作制度
- 北京市禁牧工作制度
- 老年心理护理中的情绪调节
- 医疗委员会工作制度
- 广东省广州市黄埔区第八十六中学2024-2025学年八年级下学期4月期中物理试题(含答案)
- 2026年广东食品药品职业学院单招职业技能测试题库附参考答案详解(a卷)
- 深海采矿生态修复技术的可行性研究
- 企业价值成长中耐心资本的驱动作用研究
- 兰铁局防护员考核制度
- 2026届安徽省江南十校高三上学期10月联考数学试题(解析版)
- 2026届新高考语文三轮冲刺复习:散文阅读
- 肩周炎科普课件
- 2026年忻州职业技术学院单招职业适应性考试题库带答案详解
- 浙江国企招聘-2026年宁波舟山港股份有限公司招聘笔试备考题库附答案解析
- 耳鼻喉科门诊服务优化
评论
0/150
提交评论