版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年大数据技术专业通关练习试题(网校专用)附答案详解1.在大数据处理流程中,用于去除数据噪声、填补缺失值的环节是?
A.数据采集
B.数据清洗
C.数据存储
D.数据分析【答案】:B
解析:本题考察大数据处理流程各环节的功能。数据清洗(B选项)是数据预处理的核心步骤,主要任务包括去除重复数据、处理缺失值(如均值填充、删除)、识别并修正异常值(噪声),确保数据质量。数据采集(A选项)是获取原始数据的过程;数据存储(C选项)是将清洗后的数据持久化;数据分析(D选项)是基于清洗后的数据进行统计或挖掘。因此正确答案为B。2.ApacheKafka主要用于以下哪种场景?
A.分布式批处理计算
B.实时消息传递与事件流处理
C.关系型数据库全量备份
D.分布式文件系统存储【答案】:B
解析:本题考察Kafka的核心定位。Kafka是高吞吐量的分布式消息系统,设计用于实时数据流的发布与订阅,典型场景包括日志收集、实时数据管道、事件驱动架构。选项A(分布式批处理计算)对应Spark、Flink等批处理/流处理框架;选项C(关系型数据库备份)通常使用mysqldump、XtraBackup等工具;选项D(分布式文件系统存储)是HDFS的功能。因此正确答案为B。3.关于K-means聚类算法,以下描述正确的是?
A.属于无监督学习,需预先指定簇的数量K
B.必须已知数据的类别标签才能进行聚类
C.适用于数据分布为线性可分的场景
D.计算复杂度低,适用于任意规模的大数据集【答案】:A
解析:本题考察数据挖掘算法的基本概念。K-means是典型的无监督聚类算法,需用户指定簇数量K;选项B错误,无监督学习无需类别标签;选项C错误,K-means基于欧氏距离,对非线性可分数据(如环形分布)效果较差;选项D错误,K-means复杂度较高(O(nkT),n为样本量,k为簇数,T为迭代次数),大规模数据需结合采样或近似算法。因此正确答案为A。4.Spark相较于MapReduce的主要优势在于?
A.磁盘IO操作更少,计算速度更快
B.仅支持批处理任务,不支持流处理
C.完全依赖磁盘存储中间结果
D.编程模型更复杂,学习成本高【答案】:A
解析:本题考察分布式计算框架的对比。Spark的核心优势是内存计算(将数据缓存在内存中,减少磁盘IO),因此计算速度远快于MapReduce(MapReduce依赖磁盘存储中间结果,多次IO操作导致性能瓶颈)。选项B错误,Spark支持批处理和流处理(SparkStreaming);选项C错误,Spark通过内存缓存减少磁盘依赖;选项D错误,Spark提供了更简洁的API(如DataFrame),编程模型更简单。因此正确答案为A。5.ApacheFlink作为流处理框架,其核心技术优势是?
A.仅支持无状态的批处理任务
B.基于磁盘的高延迟计算
C.支持低延迟、高吞吐的有状态流处理
D.完全依赖Spark作为底层引擎【答案】:C
解析:本题考察Flink的技术特点。Flink是开源流处理框架,核心优势是低延迟(毫秒级)、高吞吐,支持有状态流处理(如状态管理、窗口计算);它不依赖Spark,且既支持流处理也支持批处理(通过批处理API)。选项A错误(Flink支持有状态处理),选项B错误(Flink基于内存计算,延迟低),选项D错误(Flink独立运行)。因此正确答案为C。6.以下哪种工具主要用于大数据的离线批处理和SQL查询?
A.Hive
B.HDFS
C.Kafka
D.Flume【答案】:A
解析:本题考察大数据技术栈的工具定位。Hive是基于Hadoop的数据仓库工具,支持类SQL的HQL语法,用于离线批处理和复杂数据分析。选项B(HDFS)是分布式文件系统,选项C(Kafka)是高吞吐消息队列,选项D(Flume)是日志收集工具,均不符合题意,故正确答案为A。7.关于数据湖(DataLake)的正确描述是?
A.仅存储结构化数据,用于业务分析
B.存储原始数据,支持多种数据类型和处理方式
C.是传统数据仓库的升级,仅存储历史数据
D.只能通过ETL工具访问数据【答案】:B
解析:本题考察数据湖的核心定义。数据湖是存储原始数据(结构化、半结构化、非结构化)的集中式平台,支持多种数据类型(如文本、日志、图像等),并能通过批处理、流处理、AI训练等多种方式处理数据。选项A错误,数据湖不局限于结构化数据;选项C错误,数据湖存储原始数据而非仅历史数据;选项D错误,数据湖数据可通过多种工具(如Spark、Flink、AI框架)直接访问,无需依赖ETL工具。因此正确答案为B。8.Spark相比MapReduce的主要优势是?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.只能处理结构化数据
D.不支持复杂数据结构【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算(RDD缓存),减少磁盘IO操作,大幅提升批处理速度;B选项错误,Spark同时支持批处理和流处理(StructuredStreaming);C选项错误,Spark支持多种数据结构(如DataFrame、Dataset),且可处理非结构化数据(如文本、JSON);D选项错误,Spark通过RDD、DataFrame等抽象支持复杂数据结构(如嵌套结构、数组)。9.Spark相比MapReduce的显著优势是?
A.基于内存计算,减少磁盘IO操作
B.仅支持批处理计算模式
C.只能处理结构化数据
D.对硬件资源要求更低【答案】:A
解析:本题考察Spark与MapReduce的技术差异,正确答案为A。Spark将中间数据存储在内存中(支持RDD缓存),避免了MapReduce中大量的磁盘读写(MapReduce需多次写磁盘),因此计算速度提升显著;B错误,Spark支持批处理和流处理(StructuredStreaming);C错误,Spark支持JSON、CSV、Parquet等多种格式,包括半结构化/非结构化数据;D错误,Spark对内存/CPU资源要求更高(如内存不足会导致频繁GC)。10.MongoDB属于哪种类型的NoSQL数据库?
A.键值型
B.文档型
C.列族型
D.图数据库【答案】:B
解析:本题考察NoSQL数据库的分类。MongoDB以JSON/BSON格式存储文档,属于文档型数据库,支持灵活的模式设计;键值型数据库(如Redis)以键值对存储,列族型(如HBase)按列族组织数据,图数据库(如Neo4j)用于存储图结构数据。因此正确答案为B。11.数据仓库中,哪个特性是指数据随时间变化以反映业务发展趋势?
A.面向主题
B.集成性
C.非易失性
D.时变性【答案】:D
解析:本题考察数据仓库的核心特性。数据仓库的四个关键特性中:A(面向主题)指围绕特定业务主题组织数据;B(集成性)指整合多源异构数据;C(非易失性)指数据仅添加不删除;D(时变性)特指数据随时间推移而积累变化,用于历史趋势分析。其他选项均不符合“随时间变化”的定义。12.MongoDB属于哪种NoSQL数据库类型?
A.键值型(Key-Value)
B.列族型(Column-family)
C.文档型(Document)
D.图型(Graph)【答案】:C
解析:本题考察NoSQL数据库分类。MongoDB以文档模型存储数据,每个文档类似JSON格式,支持嵌套结构和灵活模式,属于文档型数据库。选项A错误,键值型数据库(如Redis)以简单键值对存储;选项B错误,列族型数据库(如HBase)按列族组织数据;选项D错误,图型数据库(如Neo4j)用于存储实体关系图。13.Spark作为分布式计算框架,相比MapReduce的主要优势是?
A.基于内存计算,迭代效率高
B.仅支持批处理任务
C.仅适用于实时流处理场景
D.不支持SQL查询操作【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算模式,避免了MapReduce基于磁盘I/O的低效问题,尤其在迭代计算(如机器学习、图计算)中效率显著提升;MapReduce支持批处理,但Spark也支持批处理,且扩展了实时流处理(SparkStreaming)和SQL查询(SparkSQL);选项B、C、D均错误。因此正确答案为A。14.在数据仓库建模中,以下哪种模型通常用于分析型应用?
A.雪花模型(SnowflakeSchema)
B.星型模型(StarSchema)
C.星座模型(GalaxySchema)
D.层次模型(HierarchicalModel)【答案】:B
解析:本题考察数据仓库建模方式。星型模型是数据仓库维度建模的典型方式,由一个事实表和多个维度表组成,结构清晰、查询高效,广泛用于分析型应用(如OLAP分析)。A雪花模型是星型模型的扩展,通过维度表分层细化,但复杂度过高,适合特定场景;C星座模型是多个星型模型共享维度表,适用于大型企业级数据仓库;D层次模型是传统数据库的结构模型,非数据仓库主流分析模型。15.关于Hadoop分布式文件系统(HDFS)的核心作用,以下描述正确的是?
A.提供高容错性的分布式文件存储
B.负责大数据的批处理计算任务
C.管理集群资源分配与调度
D.实现数据仓库的ETL(抽取、转换、加载)流程【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS是Hadoop的分布式存储系统,其核心作用是通过多副本机制实现高容错性的海量数据存储,因此A正确。B选项是MapReduce的功能;C选项是YARN(资源管理器)的职责;D选项通常由Hive、Impala等数据仓库工具实现,故错误。16.ApacheSpark相比MapReduce的主要优势不包括以下哪项?
A.基于内存计算,处理速度更快
B.仅支持批处理作业
C.采用DAG执行引擎优化任务调度
D.可同时处理批处理和流处理【答案】:B
解析:本题考察Spark与MapReduce的核心差异。Spark的核心优势包括:①基于内存计算,减少磁盘IO,处理速度远超MapReduce;②采用DAG执行引擎优化任务依赖关系;③支持流批一体(SparkStreaming+StructuredStreaming)。而MapReduce仅支持批处理,Spark在此基础上扩展了更多能力。选项B“仅支持批处理作业”是MapReduce的特点,而非Spark的优势,故B为错误选项。17.以下哪个是Hadoop分布式文件系统的核心组件?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop生态系统核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责海量数据的存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务,因此正确答案为A。18.ApacheSpark相比HadoopMapReduce的核心优势主要体现在?
A.基于内存计算,大幅减少磁盘IO操作
B.仅支持批处理任务,不支持实时数据处理
C.必须依赖HDFS存储数据,无法独立运行
D.仅适用于结构化数据处理,对非结构化数据支持弱【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心设计是内存计算(如RDD缓存),避免MapReduce中频繁的磁盘读写,显著提升计算速度;B选项错误,Spark通过StructuredStreaming支持实时处理;C选项错误,Spark可独立运行(如Local模式)或结合其他存储系统;D选项错误,Spark支持JSON、CSV等非结构化/半结构化数据处理。19.下列哪种流处理框架支持低延迟的实时计算,并提供Exactly-Once语义保证?
A.KafkaStreams
B.SparkStreaming
C.ApacheFlink
D.ApacheStorm【答案】:C
解析:本题考察流处理框架的特性。ApacheFlink是实时计算引擎,基于DAG执行引擎和Checkpoint机制,支持低延迟(毫秒级)和Exactly-Once语义(数据不丢失、不重复);KafkaStreams基于Kafka,但语义通常为At-Least-Once;SparkStreaming是微批处理框架,延迟较高(秒级);Storm是纯实时框架,但语义较弱(At-Most-Once)。因此正确答案为C。20.以下哪项是数据仓库中事实表的典型特征?
A.主要用于存储描述性维度属性(如时间、地区)
B.存储业务事件的度量数据(如销售额、订单量)
C.仅包含关键字段,无冗余数据
D.用于定义数据仓库的整体逻辑结构【答案】:B
解析:本题考察数据仓库中事实表与维度表的核心区别。事实表的典型特征是存储业务事件的度量数据(如订单金额、用户点击量等),通常关联多个维度表。选项A描述的是维度表(如时间维度表包含日期、季度等属性);选项C过于绝对,事实表可能因关联维度表存在冗余;选项D错误,数据仓库的逻辑结构由元数据和表关系定义,非事实表职责。21.以下哪项不属于Hadoop的核心组件?
A.HDFS
B.MapReduce
C.Hive
D.YARN【答案】:C
解析:本题考察Hadoop核心组件知识点。Hadoop的核心组件包括分布式文件系统HDFS、分布式计算框架MapReduce、资源管理器YARN;而Hive是基于Hadoop的数据仓库工具,用于数据仓库构建和查询,不属于核心组件。因此正确答案为C。22.Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一个?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理逻辑;YARN是资源管理器,负责集群资源调度;ZooKeeper是分布式协调服务,提供配置管理和状态同步。因此正确答案为A。23.以下哪个框架特别擅长处理高吞吐量的实时流数据?
A.SparkStreaming(微批处理框架)
B.ApacheFlink(流处理框架)
C.ApacheStorm(实时计算框架)
D.ApacheHive(数据仓库工具)【答案】:B
解析:本题考察流处理框架的特点。Flink是专为流处理设计的框架,支持低延迟、高吞吐的数据处理,具备精确一次(Exactly-Once)语义和强大的状态管理能力,适合实时流数据场景。ASparkStreaming基于微批处理,本质是“准实时”,延迟较高;CStorm虽支持实时计算,但在状态管理和容错性上弱于Flink;DHive是数据仓库工具,主要用于批处理分析,非流处理框架。24.MongoDB数据库属于以下哪种类型的NoSQL数据库?
A.键值(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档,属于文档型数据库。错误选项A(键值型)如Redis以键值对存储;B(列族型)如HBase以列族+行键组织数据;D(图型)如Neo4j以节点和边的关系模型存储。25.在数据仓库中,以下哪类表用于记录业务事件的度量数据(如订单金额、数量等)?
A.产品表
B.客户表
C.订单表
D.部门表【答案】:C
解析:本题考察数据仓库中事实表与维度表的定义。事实表是数据仓库的核心,记录业务事件(如订单、交易)的度量值及关联维度外键,例如订单表包含订单ID、用户ID、订单金额等核心业务数据。错误选项分析:A、B、D均为维度表,用于描述事实表的属性(如产品表描述订单表的商品信息,客户表描述订单表的用户信息,部门表描述订单表的组织归属),不直接记录业务事件的度量数据。26.以下关于Spark框架特点的描述,正确的是?
A.Spark仅支持内存计算,无法处理磁盘数据
B.Spark基于MapReduce架构实现分布式计算
C.Spark的RDD(弹性分布式数据集)具有不可变性
D.Spark不支持实时流处理场景【答案】:C
解析:本题考察Spark核心特性。Spark的RDD是不可变的分布式数据集合,这是其保证数据一致性和容错性的关键设计。A错误,Spark支持内存与磁盘混合计算;B错误,Spark采用独立的DAG执行引擎,与MapReduce架构无关;D错误,SparkStreaming模块可支持实时流处理。27.下列哪项是数据仓库(DataWarehouse)的核心特征?
A.面向主题
B.实时更新数据
C.存储原始业务数据
D.支持联机事务处理(OLTP)【答案】:A
解析:本题考察数据仓库核心特性。数据仓库的核心特征是“面向主题”,即围绕特定业务主题(如销售、财务)组织数据,支持分析决策。错误选项B(实时更新)错误,数据仓库以批处理更新为主,不支持实时事务;C(存储原始业务数据)错误,数据仓库需经过清洗、整合、汇总;D(支持OLTP)错误,OLTP是事务处理系统的核心,数据仓库主要用于OLAP分析。28.以下哪种数据库系统最适合存储非结构化数据(如JSON文档、图片元数据等)?
A.MySQL(关系型数据库)
B.MongoDB(文档型数据库)
C.Redis(键值型数据库)
D.HBase(列族型数据库)【答案】:B
解析:本题考察NoSQL数据库的类型与适用场景。MongoDB作为文档型数据库,采用类似JSON的BSON格式存储数据,天然支持嵌套结构和灵活的非结构化数据。选项A(MySQL)是关系型数据库,依赖表结构,适合结构化数据;选项C(Redis)是键值型数据库,仅支持简单键值对,不支持复杂非结构化数据;选项D(HBase)是列族型数据库,适合海量结构化数据(如时序数据),不直接支持文档型结构。29.以下哪项是Hadoop分布式文件系统(HDFS)的主要功能?
A.分布式数据存储
B.分布式计算任务调度
C.分布式资源管理
D.分布式内存计算【答案】:A
解析:本题考察Hadoop核心组件HDFS的功能。HDFS是Hadoop生态系统的分布式文件系统,主要负责海量数据的分布式存储;B选项“分布式计算任务调度”是YARN的功能;C选项“分布式资源管理”同样属于YARN;D选项“分布式内存计算”是Spark的核心特性。因此正确答案为A。30.在Hadoop生态系统中,负责集群资源管理和作业调度的核心组件是?
A.YARN(YetAnotherResourceNegotiator)
B.HDFS(HadoopDistributedFileSystem)
C.MapReduce
D.Hive【答案】:A
解析:本题考察Hadoop核心组件功能。YARN是Hadoop的资源管理器,负责节点资源分配和作业调度。B错误,HDFS是分布式文件系统,负责数据存储;C错误,MapReduce是分布式计算框架,负责任务执行;D错误,Hive是数据仓库工具,基于HDFS和MapReduce实现数据仓库功能。31.在Hadoop分布式文件系统(HDFS)中,默认情况下文件块的副本数量是?
A.2
B.3
C.4
D.5【答案】:B
解析:本题考察HDFS的核心参数知识点。HDFS为了保证数据可靠性和容错性,默认将每个文件块存储3个副本,分布在不同的DataNode节点上。选项A(2)通常用于低冗余场景或早期配置,选项C(4)和D(5)均超出HDFS默认配置范围,因此正确答案为B。32.以下哪项不属于大数据的核心特征(4V)?
A.Volume
B.Velocity
C.Value
D.Variety【答案】:C
解析:本题考察大数据4V特征知识点。大数据核心特征通常定义为Volume(规模)、Velocity(速度)、Variety(多样性)、Veracity(真实性),而Value(价值)不属于标准4V特征。A、B、D均为4V的核心要素,C为干扰项。33.SparkStreaming采用的核心处理模型是?
A.微批处理模型
B.实时流处理模型
C.纯内存计算模型
D.分布式存储模型【答案】:A
解析:本题考察SparkStreaming处理模型知识点。SparkStreaming基于微批处理(Micro-batch)模型,将实时数据流分割为小批量数据按批处理。实时流处理是Flink的核心特性,纯内存计算是Spark整体优势而非Streaming模型,分布式存储模型属于HDFS等组件特性。因此正确答案为A。34.在数据仓库中,用于记录业务事件(如销售金额、订单数量等度量值)的表类型是?
A.维度表
B.事实表
C.分层表
D.分区表【答案】:B
解析:本题考察数据仓库表结构。事实表记录业务事件的度量值(如销售额、订单数),并关联维度表提供上下文;维度表(A)用于描述事实表的分析角度(如时间、地区),属于描述性表;分层表(C)和分区表(D)是数据存储优化手段,非表类型分类。因此正确答案为B。35.ApacheKafka的主要应用场景是?
A.实时流数据传输与存储
B.分布式文件系统
C.批处理计算框架
D.数据仓库ETL工具【答案】:A
解析:本题考察流处理技术组件Kafka的定位知识点。Kafka是分布式流处理平台,专为高吞吐量的实时消息传递设计,支持消息持久化和实时数据传输;B选项是HDFS的功能;C选项是MapReduce/Spark的批处理定位;D选项是Hive/ETL工具的职责。因此A选项正确。36.在数据仓库建设中,ETL(Extract-Transform-Load)和ELT(Extract-Load-Transform)的核心区别在于?
A.ETL仅适用于结构化数据,ELT仅适用于非结构化数据
B.ETL在源系统完成数据转换,ELT在数据仓库完成数据转换
C.ETL比ELT更节省存储空间
D.ETL的执行速度比ELT更快【答案】:B
解析:本题考察数据处理流程的核心差异。ETL的核心是“先转换后加载”,即先从源系统提取数据,在ETL工具中完成清洗、转换后再加载到数据仓库;而ELT是“先加载后转换”,直接将原始数据加载到数据仓库,再在仓库内进行转换。选项A错误,两者均可处理结构化/非结构化数据;选项C错误,ELT因加载原始数据可能占用更多存储空间;选项D错误,ELT在大数据场景下(如Spark+ELT)因并行处理原始数据可能更高效。37.大数据的5V特性中,描述数据产生和处理速度快的是?
A.Volume(数据规模)
B.Velocity(数据速度)
C.Variety(数据多样性)
D.Value(数据价值)【答案】:B
解析:大数据5V特性:Volume(规模)、Velocity(速度,数据产生/处理速度)、Variety(多样性)、Veracity(真实性)、Value(价值)。描述速度的是Velocity,选B。38.HBase作为典型的NoSQL数据库,其数据模型属于以下哪种类型?
A.列族数据库
B.文档数据库
C.键值数据库
D.图数据库【答案】:A
解析:本题考察NoSQL数据库类型。HBase基于列族(ColumnFamily)组织数据,核心结构为行键(RowKey)、列族、列限定符(ColumnQualifier),支持稀疏存储与高吞吐量读写;B选项(如MongoDB)以JSON文档为核心;C选项(如Redis)以键值对直接存储;D选项(如Neo4j)以节点-关系图结构存储。39.ApacheFlink主要用于处理哪种类型的大数据任务?
A.实时流处理任务
B.批处理任务
C.离线数据挖掘任务
D.分布式文件存储任务【答案】:A
解析:本题考察流处理框架特性。Flink是Apache开源的实时流处理引擎,擅长低延迟、高吞吐的实时数据流处理,同时支持批处理任务(统一流批处理)。Spark主要用于批处理,MapReduce也是批处理框架,分布式文件存储由HDFS承担,因此正确答案为A。40.以下哪个工具常用于实时流数据处理?
A.Flink
B.Hive
C.HBase
D.Sqoop【答案】:A
解析:本题考察大数据工具的应用场景。Flink是开源流处理框架,专为实时数据处理设计,支持流批一体;Hive是基于Hadoop的数据仓库工具,用于离线数据分析;HBase是列族数据库,用于海量结构化数据存储;Sqoop是数据导入导出工具,用于关系型数据库与Hadoop之间的数据传输。因此正确答案为A。41.在Hadoop的MapReduce分布式计算框架中,Map阶段的主要作用是?
A.将输入数据分割成若干独立任务并进行并行处理,生成中间键值对
B.对Map阶段输出的中间结果进行合并、排序和汇总,生成最终结果
C.对原始数据进行清洗、过滤和格式转换等预处理操作
D.负责将计算任务分配到集群中的不同节点执行【答案】:A
解析:本题考察MapReduce的阶段功能。Map阶段通过并行处理输入数据块生成中间键值对,是数据分片与初步处理的核心。B选项是Reduce阶段的功能,C选项属于数据预处理(非MapReduce核心阶段),D选项是YARN的任务调度功能,与Map阶段无关。42.以下哪种数据库属于列族(Column-Family)数据库?
A.HBase
B.MongoDB
C.Redis
D.MySQL【答案】:A
解析:本题考察NoSQL数据库的类型。列族数据库以HBase为代表,按列族组织数据,适合高写入、低延迟场景;B选项MongoDB是文档型数据库;C选项Redis是键值型数据库;D选项MySQL是关系型数据库。因此正确答案为A。43.Spark相比MapReduce,其核心优势主要体现在?
A.内存计算,速度更快
B.仅支持批处理任务
C.只能运行在磁盘上
D.不支持流处理应用【答案】:A
解析:本题考察Spark与MapReduce的技术对比知识点。Spark采用内存计算框架,中间结果优先存储在内存中,避免MapReduce的大量磁盘I/O操作,因此处理速度更快。B错误(Spark既支持批处理也支持流处理,如SparkStreaming);C错误(Spark优先使用内存,仅在内存不足时落盘);D错误(SparkStreaming可实现流处理)。因此正确答案为A。44.下列关于Spark和MapReduce的描述中,正确的是?
A.Spark仅支持批处理,不支持流处理
B.Spark支持内存计算,相比MapReduce在迭代计算中性能更优
C.MapReduce比Spark更适合迭代计算任务
D.Spark的RDD是可变的,而MapReduce的中间结果是不可变的【答案】:B
解析:本题考察分布式计算框架的核心特性。Spark的内存计算模型使其在迭代计算(如机器学习、图算法)中性能远超MapReduce(MapReduce需多次读写磁盘)。选项A错误,Spark通过SparkStreaming支持实时流处理;选项C错误,MapReduce迭代计算需反复读写磁盘,效率极低;选项D错误,Spark的RDD(弹性分布式数据集)是不可变的,而MapReduce中间结果需写入磁盘(本质不可变但依赖磁盘存储)。45.在大数据数据预处理中,处理缺失值的常用方法不包括以下哪种?
A.删除包含缺失值的记录
B.使用均值/中位数进行插补
C.使用KNN算法进行插补
D.直接忽略缺失值【答案】:D
解析:本题考察数据预处理中缺失值处理的最佳实践。缺失值处理需遵循“减少偏差、保留信息”原则:A正确,当缺失比例低且无特殊业务含义时,删除记录是常用方法;B正确,数值型数据常用均值/中位数插补;C正确,KNN算法通过相似样本的特征值预测缺失值,适用于小比例缺失场景。选项D错误,“直接忽略”会导致数据分布偏差(如某特征缺失值过多时,模型训练会因样本量不足或分布失真而失效),属于不规范的处理方式。46.以下哪种文件格式常用于大数据场景下的列式存储,以提高查询效率?
A.CSV
B.JSON
C.Parquet
D.XML【答案】:C
解析:本题考察大数据存储格式。Parquet是列式存储格式,适合大数据场景下的高效查询(仅读取所需列)和压缩。CSV、JSON、XML均为行式文本格式,查询时需扫描大量无关数据,效率较低。因此正确答案为C。47.以下哪种数据库属于文档型NoSQL数据库?
A.MongoDB
B.HBase
C.Redis
D.Cassandra【答案】:A
解析:本题考察NoSQL数据库类型。MongoDB是典型的文档型NoSQL数据库,以JSON格式存储数据,适合非结构化/半结构化数据;B选项HBase是列族型NoSQL数据库;C选项Redis是键值型数据库;D选项Cassandra是分布式列族型数据库。因此正确答案为A。48.以下哪项是数据湖(DataLake)与数据仓库(DataWarehouse)的核心区别之一?
A.数据湖支持结构化数据,数据仓库仅支持非结构化数据
B.数据湖存储原始数据,数据仓库存储经过清洗和转换的数据
C.数据湖不支持数据查询,数据仓库仅支持结构化查询
D.数据湖的数据更新频率远高于数据仓库【答案】:B
解析:本题考察数据仓库与数据湖概念知识点。数据仓库强调数据治理和质量,存储经过ETL处理的结构化整合数据;数据湖则存储原始数据(含结构化、半结构化、非结构化),保留原始数据形态,后续按需处理。A错误(数据湖支持多种数据类型),C错误(数据湖支持灵活查询),D错误(数据湖原始数据更新频繁但数据仓库因分析需求可能更新更规范),因此B选项正确。49.以下哪种技术常用于实时流处理,支持低延迟、高吞吐的数据计算?
A.ApacheSparkStreaming
B.ApacheFlink
C.ApacheHadoop
D.ApacheHive【答案】:B
解析:本题考察流处理框架的特点。ApacheFlink是专为实时处理设计的开源框架,支持低延迟(毫秒级)和高吞吐数据计算,是实时流处理的代表技术;A选项SparkStreaming基于微批处理(秒级延迟);C选项Hadoop以批处理为主;D选项Hive是数据仓库工具,不用于实时计算。因此正确答案为B。50.在大数据数据预处理中,对于含有缺失值的数值型特征,以下哪种方法通常不适用?
A.使用均值填充缺失值
B.使用KNN算法基于近邻样本预测填充
C.直接删除缺失值比例超过阈值的样本
D.使用唯一值(如-999)填充所有缺失值【答案】:D
解析:本题考察缺失值处理方法。均值填充(A)、KNN预测(B)和阈值删除(C)是常用策略。D错误,数值型特征使用唯一值(如-999)填充会引入虚假模式,无法反映数据分布规律,可能误导后续分析(如分类算法误判为特殊类别)。正确做法是选择均值、中位数或合理删除无效样本。因此正确答案为D。51.Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一个?
A.MapReduce
B.HDFS
C.YARN
D.ZooKeeper【答案】:B
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务。因此正确答案为B。52.在MapReduce计算框架中,负责将Map任务输出的中间结果按照key进行分区并分发到对应Reduce节点的核心阶段是?
A.Map阶段
B.Shuffle阶段
C.Reduce阶段
D.Combine阶段【答案】:B
解析:本题考察MapReduce执行流程的知识点。MapReduce中,Map阶段负责数据分片和初步处理,Combine阶段是Map端的局部聚合(非必需),Reduce阶段负责接收Shuffle后的结果并聚合计算。而Shuffle阶段是核心分发环节,通过分区、排序、合并等操作将Map输出分发到Reduce节点,因此正确答案为B。53.大数据的‘多样性(Variety)’特征主要体现在以下哪个方面?
A.数据产生的速度快,可实时生成
B.数据规模达到PB级甚至EB级
C.数据类型包括结构化、半结构化和非结构化数据
D.数据存储需要分布式集群支持【答案】:C
解析:本题考察大数据5V特征的概念。大数据的5V特征包括:Volume(规模)、Velocity(速度)、Variety(多样性)、Veracity(真实性)、Value(价值)。选项A对应Velocity(速度),选项B对应Volume(规模),选项D描述的是数据存储的技术需求而非多样性特征。选项C明确指出数据类型的多样性,符合Variety的定义,因此正确答案为C。54.Spark相比MapReduce,其核心优势不包括以下哪项?
A.内存计算,减少磁盘IO
B.迭代计算效率显著提升
C.批处理能力远超MapReduce
D.支持多种计算模式(批/流/SQL等)【答案】:C
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算(A正确)、迭代计算效率高(B正确,因MapReduce基于磁盘,Spark基于内存)、支持多种计算模式(D正确,如批处理、流处理、SQL查询等)。而批处理能力并非Spark的“核心优势”,两者均支持批处理框架,且MapReduce本身就是经典批处理模型,Spark的批处理效率优势源于内存计算而非批处理能力更强,故C错误。55.下列关于Spark与MapReduce相比的主要优势描述正确的是?
A.Spark基于磁盘存储数据,MapReduce基于内存计算
B.Spark支持迭代计算和交互式查询,MapReduce效率较低
C.Spark只能处理批处理,MapReduce支持流处理
D.Spark的容错机制更复杂,MapReduce容错性更好【答案】:B
解析:本题考察Spark与MapReduce的技术对比知识点。Spark核心优势在于内存计算(而非磁盘存储),支持迭代计算(如机器学习算法)和交互式查询(如SQL、DataFrame操作),效率远高于MapReduce;A选项描述颠倒了存储方式;C选项错误,Spark既支持批处理也支持流处理(StructuredStreaming),MapReduce主要用于批处理;D选项错误,Spark基于RDD的Lineage机制容错性更优。因此正确答案为B。56.下列关于ApacheFlink的描述,错误的是?
A.支持事件时间处理
B.统一流处理与批处理框架
C.仅支持内存计算,不支持磁盘计算
D.提供精确一次(Exactly-Once)语义【答案】:C
解析:本题考察Flink的核心特性。Flink是统一的流处理和批处理框架(B正确),支持事件时间处理(A正确,解决数据乱序问题)和精确一次语义(D正确,通过两阶段提交协议保证数据一致性);C选项错误,Flink既支持内存计算(如状态管理),也支持磁盘计算(如大型数据集的磁盘缓存),并非“仅支持内存计算”。因此正确答案为C。57.在数据仓库的星型模型中,以下哪类表属于‘事实表’?
A.销售订单表(包含订单ID、产品ID、金额等)
B.产品表(产品ID、名称、类别等)
C.客户表(客户ID、姓名、地址等)
D.时间维度表(时间ID、日期、季度等)【答案】:A
解析:本题考察数据仓库星型模型的核心表类型。星型模型由事实表和维度表组成:事实表存储度量值(如金额)和关联维度表的外键,是分析的核心;维度表描述事实表的属性(如产品、客户、时间)。选项A的销售订单表包含‘金额’(度量值),符合事实表特征;B、C、D均为维度表(描述产品、客户、时间等属性)。58.在数据挖掘中,‘根据客户消费行为特征将其自动分为高、中、低价值群体’属于哪种任务?
A.分类(Classification)
B.聚类(Clustering)
C.回归(Regression)
D.关联分析(AssociationAnalysis)【答案】:B
解析:本题考察数据挖掘核心任务的定义。聚类是无监督学习任务,通过特征相似度将数据对象自动分组,无需预先标签。题目中“自动分群体”符合聚类特征。选项A(分类)需已知类别标签(如“高价值”是预定义标签),属于有监督学习;选项C(回归)预测连续值(如销售额);选项D(关联分析)发现变量间关联规则(如“购买A的用户80%也购买B”),均不符合题意。59.根据分布式系统的CAP理论,当系统面临网络分区(Partition)时,为保证系统可用性(Availability),必须放弃的特性是?
A.分区容错性(Partitiontolerance)
B.一致性(Consistency)
C.可用性(Availability)
D.原子性(Atomicity)【答案】:B
解析:本题考察CAP理论的核心逻辑。CAP理论中,分区容错性(P)是分布式系统的固有特性(必须支持),因此无法放弃;当网络分区发生时,系统只能在一致性(C)和可用性(A)中选择其一。为保证系统可用(A),必须放弃一致性(C),即系统可能出现数据不一致但仍对外提供服务。D选项“原子性”是事务特性,非CAP理论范畴,故正确答案为B。60.以下关于ApacheFlink流处理框架的描述,正确的是?
A.支持事件时间(EventTime)处理,允许处理迟到数据
B.仅支持对有界流(批处理)进行计算,不支持无界流
C.采用微批处理模型,任务延迟较高(秒级)
D.不支持状态管理,无法实现复杂状态的实时计算【答案】:A
解析:本题考察流处理框架Flink的核心特性。Flink是开源流处理框架,支持无界流与有界流统一处理,其核心优势包括精确一次(Exactly-Once)语义、事件时间(EventTime)处理(允许处理乱序或迟到数据)。选项A正确;B错误(Flink支持无界流);C错误(微批处理是SparkStreaming的特点,Flink为低延迟毫秒级);D错误(Flink提供丰富的状态后端,支持复杂状态管理)。61.在大数据预处理阶段,对于含有缺失值的数据,以下哪种方法不属于常用的缺失值处理策略?
A.使用均值/中位数填充缺失数值
B.直接删除含有缺失值的记录
C.通过KNN算法基于相似样本预测缺失值
D.忽略缺失值直接进行数据分析【答案】:D
解析:本题考察数据预处理中的缺失值处理知识点。常用策略包括:删除(记录或特征)、填充(均值、KNN、回归等);D选项“忽略缺失值直接分析”会导致数据偏差和统计结果不准确,属于不推荐的做法。A、B、C均为常见且合理的处理方法。因此正确答案为D。62.以下关于Spark和MapReduce的描述,正确的是?
A.Spark仅支持批处理,MapReduce支持流处理
B.Spark默认使用内存计算,MapReduce以磁盘IO为主
C.Spark不支持迭代计算,MapReduce适合迭代计算
D.Spark的编程模型比MapReduce更复杂【答案】:B
解析:本题考察分布式计算框架的核心差异。Spark的核心优势是内存计算(默认将中间结果缓存于内存,减少磁盘IO),而MapReduce需频繁读写磁盘存储中间结果,故B正确。选项A错误(Spark通过StructuredStreaming支持流处理,MapReduce仅支持批处理);选项C错误(Spark因内存缓存特性,非常适合迭代计算如机器学习);选项D错误(Spark提供RDD、DataFrame等简洁API,编程模型更直观)。63.MapReduce计算框架的核心设计思想是?
A.分而治之
B.实时计算
C.内存计算
D.并行存储【答案】:A
解析:本题考察MapReduce的基础原理。MapReduce通过Map阶段将任务分解为多个子任务并行处理,Reduce阶段合并结果,核心思想是“分而治之”。选项B(实时计算)错误,MapReduce是批处理框架,延迟较高;选项C(内存计算)非核心思想,MapReduce早期依赖磁盘I/O;选项D(并行存储)属于分布式文件系统(如HDFS)的特性,与MapReduce的计算逻辑无关。64.以下哪种数据库属于文档型NoSQL数据库?
A.MySQL
B.MongoDB
C.Redis
D.HBase【答案】:B
解析:MongoDB是典型的文档型NoSQL数据库,以JSON格式存储文档,支持灵活的数据结构;A错误,MySQL是关系型数据库(RDBMS);C错误,Redis是键值型NoSQL数据库;D错误,HBase是列族型NoSQL数据库,适用于海量结构化数据的随机读写。65.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小通常是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的基础架构知识点。HDFS的块大小默认值为128MB(Hadoop2.x版本),这一设计平衡了磁盘随机读取效率与文件寻址速度。64MB(A)是早期版本的块大小;256MB(C)或512MB(D)会因文件过大增加随机访问的I/O开销,降低系统性能。因此正确答案为B。66.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库分类。MongoDB以JSON/BSON格式存储文档,属于文档型数据库;A(如Redis)、B(如HBase)、D(如Neo4j)分别对应键值型、列族型、图数据库。因此正确答案为C。67.数据仓库设计中,以下哪种模型用于描述业务过程及相关维度,且以事实表和维度表为核心结构?
A.星型模型
B.关系型模型
C.事务型模型
D.三范式模型【答案】:A
解析:本题考察数据仓库维度建模知识点。星型模型是数据仓库维度建模的典型方法,以事实表为中心关联多个维度表,结构直观。关系型模型是通用数据库模型,事务型模型针对业务操作而非数据仓库,三范式模型是OLTP系统设计范式。因此正确答案为A。68.Hadoop分布式文件系统(HDFS)默认的副本因子是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的核心特性,正确答案为C。HDFS默认将文件块复制3份以提供容错能力和数据冗余,3个副本既能保证数据可靠性(避免单点故障),又能平衡存储成本与读取效率。选项A(1个副本)无容错能力,数据丢失后无法恢复;选项B(2个副本)容错能力较弱,单点故障仍可能导致数据不可用;选项D(4个副本)会增加存储开销,超出HDFS默认优化的存储效率范围。69.Spark相比MapReduce,在数据处理上的主要优势是?
A.支持内存计算
B.仅适用于批处理任务
C.实时流处理能力更强
D.高容错性优于MapReduce【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算(A选项),它将数据缓存在内存中进行迭代计算,大幅减少磁盘I/O操作,显著提升处理速度。MapReduce(B选项)也支持批处理,且两者均具备高容错性(D选项),只是Spark的内存计算效率更高;而实时流处理(C选项)是SparkStreaming的功能,但并非Spark的核心优势,且MapReduce本身不擅长实时流处理。因此正确答案为A。70.大数据环境下,对数据全生命周期进行管理和控制的过程称为?
A.数据清洗
B.数据集成
C.数据治理
D.数据脱敏【答案】:C
解析:本题考察数据治理的定义。数据治理是对数据资产全生命周期(采集、存储、处理、使用、销毁等)的规划、控制与监督,确保数据质量和合规性;数据清洗是处理脏数据(如缺失值、异常值)的过程;数据集成是合并多源异构数据的操作;数据脱敏是通过替换敏感信息为假数据保护隐私的技术,属于数据治理中的安全措施。因此正确答案为C。71.Spark相比MapReduce,其显著优势主要体现在?
A.内存计算为主
B.以磁盘I/O操作为主
C.仅支持结构化数据处理
D.完全依赖Hadoop生态【答案】:A
解析:本题考察Spark的核心特性。Spark采用内存计算模型,避免频繁磁盘I/O,大幅提升处理速度;B错误,MapReduce以磁盘I/O为主;C错误,Spark支持结构化、半结构化和非结构化数据;D错误,Spark可独立运行,无需完全依赖Hadoop。因此正确答案为A。72.以下哪种算法属于典型的线性分类模型?
A.决策树
B.逻辑回归
C.K-均值聚类
D.支持向量机(SVM)【答案】:B
解析:本题考察数据挖掘算法类型。逻辑回归(B)基于线性假设,通过Sigmoid函数映射概率,是典型线性分类模型。决策树(A)是非线性模型;K-均值(C)是无监督聚类算法;SVM(D)可线性或非线性分类,但“典型线性分类模型”中逻辑回归更具代表性。因此正确答案为B。73.以下哪项是数据仓库(DataWarehouse)的核心特征?
A.面向主题
B.实时事务处理
C.高并发读写
D.支持实时查询【答案】:A
解析:本题考察数据仓库基本概念。数据仓库的核心特征包括面向主题(围绕特定业务主题组织数据)、集成性(整合多源数据)、非易失性(数据加载后一般不修改)、时变性(随时间维度分析)。选项B(实时事务处理)是操作型数据库(OLTP)的典型特征;选项C(高并发读写)属于OLTP的性能需求;选项D(支持实时查询)更偏向实时数据仓库或OLAP系统的特性,而非数据仓库的核心定义。因此正确答案为A。74.大数据最显著的特征是以下哪一项?
A.数据量大(Volume)
B.处理速度快(Velocity)
C.数据类型多样(Variety)
D.价值密度低(Value)【答案】:A
解析:本题考察大数据的5V特征知识点。大数据的5V特征包括Volume(数据量大)、Velocity(处理速度快)、Variety(数据类型多样)、Veracity(数据准确性)、Value(价值密度低)。其中,“数据量大”是大数据最直观、最显著的特征,其他特征是伴随数据量增长衍生的特性,因此A选项正确。B、C、D虽为大数据特征,但并非“最显著”的核心特征。75.在分布式数据库中,用于保证多节点数据一致性的核心协议是?
A.Raft协议
B.Kafka协议
C.MapReduce协议
D.HDFS协议【答案】:A
解析:本题考察分布式系统一致性算法。Raft是分布式一致性算法(如Paxos的简化版),用于解决分布式集群中多节点数据同步问题;Kafka是消息队列,MapReduce是计算框架,HDFS是文件系统,均不涉及一致性协议。因此正确答案为A。76.在数据仓库维度建模中,以下哪种模型属于典型的维度建模结构?
A.星型模型
B.雪花模型
C.星座模型
D.三范式模型【答案】:A
解析:本题考察维度建模与范式建模的区别。星型模型是维度建模的核心,以单个事实表为中心,关联多个维度表(如销售事实表关联客户、产品维度表),结构简单且查询高效;B选项“雪花模型”虽属于维度建模但更接近规范化设计(维度表可进一步拆分),复杂度高于星型;C选项“星座模型”是多个事实表共享维度表的星型扩展,非维度建模的基础结构;D选项“三范式模型”是关系型数据库的规范化设计,与维度建模(反范式化)方向不同。77.以下哪一项不是Hadoop的核心组成部分?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:D
解析:本题考察Hadoop核心组件知识点。Hadoop的核心组成部分为HDFS(分布式文件系统)、MapReduce(分布式计算框架)和YARN(资源管理器),三者共同构成Hadoop生态的基础架构。Hive是基于Hadoop的开源数据仓库工具,用于SQL风格的查询处理,属于Hadoop生态系统的扩展工具而非核心组件。78.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对(Key-Value)数据库
B.文档型(Document)数据库
C.列族(Column-Family)数据库
D.图(Graph)数据库【答案】:B
解析:本题考察NoSQL数据库分类。MongoDB以JSON格式的文档为基本存储单元,属于典型的文档型数据库。A错误,键值型数据库如Redis;C错误,列族型数据库如HBase、Cassandra;D错误,图数据库如Neo4j,用于存储实体关系网络。79.MapReduce计算框架中,负责将输入数据分割为多个独立分片(Split)并分配给Map任务的阶段是?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Merge阶段【答案】:A
解析:本题考察MapReduce执行流程。Map阶段的核心任务是将输入数据按Split(默认128MB)分割为多个独立数据块,每个数据块由一个Map任务并行处理(通过InputFormat实现分片逻辑)。错误选项分析:B选项Reduce阶段负责对Map输出的中间结果进行分区、排序和合并;C选项Shuffle阶段是Map与Reduce之间的数据传输环节(含分区、排序、合并等操作),不负责输入数据分割;D选项Merge阶段是Reduce端合并Map输出结果的子步骤,非核心输入分割环节。80.以下哪个框架是基于纯流处理模型设计的实时计算引擎?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.ApacheKafkaStreams【答案】:B
解析:本题考察流处理框架的核心模型。ApacheFlink是唯一基于纯流处理模型(无批处理阶段)设计的实时计算引擎,支持毫秒级延迟和状态管理。选项A(SparkStreaming)本质是微批处理(将流拆分为小批次处理);选项C(Storm)虽支持实时流处理,但更偏向底层流处理API,未像Flink那样提供统一的流-批处理语义;选项D(KafkaStreams)依赖Kafka作为数据源,但其核心逻辑仍属于轻量级流处理工具,并非独立的“纯流处理框架”。81.Spark相比MapReduce在计算效率上的主要优势是?
A.内存计算
B.批处理能力
C.分布式存储
D.实时流处理【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心设计是基于内存的计算引擎,避免了MapReduce中频繁的磁盘IO操作,大幅提升计算速度;MapReduce也支持批处理但依赖磁盘IO;分布式存储由HDFS提供而非Spark;实时流处理是Flink/Storm等框架的专长,SparkStreaming是其流处理模块但核心优势仍是内存计算。因此正确答案为A。82.关于数据仓库的星型模型与雪花模型,以下描述正确的是?
A.星型模型以事实表为中心,雪花模型将维度表规范化为多层结构
B.星型模型数据冗余度低,雪花模型数据冗余度高
C.雪花模型的查询效率更高,适合复杂分析场景
D.星型模型通过外键直接连接维度表与事实表,结构更复杂【答案】:A
解析:本题考察数据仓库模型设计。星型模型特点是事实表中心,维度表直接连接(结构简单但冗余度高);雪花模型是星型模型的维度表规范化(拆分子维度表,减少冗余但结构复杂)。B选项错误(星型冗余高、雪花冗余低);C错误(雪花模型因多表连接查询效率低);D错误(星型模型结构更简单)。因此正确答案为A。83.MongoDB属于以下哪种NoSQL数据库模型?
A.键值对(Key-Value)模型
B.文档(Document)模型
C.列族(Column-Family)模型
D.图(Graph)模型【答案】:B
解析:本题考察NoSQL数据库的分类,正确答案为B。MongoDB以JSON格式的“文档”(Document)为基本存储单元,支持嵌套文档和灵活的模式,属于文档模型;A典型代表为Redis、DynamoDB;C代表为HBase、Cassandra;D代表为Neo4j。84.在大数据处理流程中,数据清洗环节的主要目标是?
A.将分散来源的原始数据采集到统一系统
B.去除数据噪声、填补缺失值,标准化数据格式
C.将数据转换为结构化格式并持久化存储
D.对数据进行聚合、关联等复杂计算操作【答案】:B
解析:本题考察大数据处理流程各环节职责。数据清洗是对原始数据进行预处理,核心任务包括去重、填补缺失值、处理异常值、标准化格式等,确保数据质量;A选项为“数据采集”(如Flume、Kafka);C选项为“数据存储与转换”(如Hive表加载);D选项为“数据计算”(如SparkSQL、Flink)。85.下列关于数据仓库(DataWarehouse)的描述,哪项是正确的?
A.主要用于存储企业海量原始数据,支持各种数据类型
B.通常按主题域组织,面向分析型应用,存储结构化数据
C.仅支持实时数据处理,不支持离线分析
D.只能存储非结构化数据,如日志、图片等【答案】:B
解析:本题考察数据仓库的核心特点。数据仓库是面向主题、集成的、相对稳定的、反映历史变化的结构化数据集合,主要用于离线分析;A选项描述的是数据湖的特征(存储原始多类型数据);C选项错误,数据仓库支持离线分析为主,也可通过ETL实现部分实时数据整合;D选项错误,数据仓库仅存储结构化数据,非结构化数据需数据湖存储。因此正确答案为B。86.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的分布式存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务。因此正确答案为A。87.Hadoop生态系统中,负责存储海量结构化和半结构化数据的核心分布式文件系统是以下哪一个?
A.MapReduce
B.HDFS
C.YARN
D.Hive【答案】:B
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理逻辑;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于SQL查询。因此正确答案为B。88.根据CAP定理,在分布式系统中‘当网络分区发生时,系统仍能对外提供服务,但可能导致数据暂时不一致’的行为违反了哪个原则?
A.Consistency(一致性)
B.Availability(可用性)
C.Partitiontolerance(分区容错性)
D.None(未违反任何原则)【答案】:A
解析:本题考察分布式系统CAP定理的核心原则。CAP定理指出,分布式系统无法同时满足“一致性(所有节点数据相同)”“可用性(系统正常响应请求)”和“分区容错性(网络分区时系统仍运行)”。题目中“分区发生时仍提供服务”表明系统选择了“可用性”和“分区容错性”,但“数据暂时不一致”说明放弃了“一致性”,因此违反了Consistency原则。选项B(可用性)是系统主动选择的目标,未被违反;选项C(分区容错性)是分布式系统必须具备的基础能力,题目中系统正常运行即满足。89.MongoDB在NoSQL数据库分类中属于以下哪种类型?
A.键值对(Key-Value)型
B.文档型(Document)
C.列族(Column-family)型
D.图数据库(Graph)型【答案】:B
解析:本题考察NoSQL数据库类型分类。MongoDB是典型的文档型数据库,以类JSON的文档(BSON)形式存储数据,支持嵌套结构和灵活查询。A错误(键值对型如Redis,仅存储简单键值对);C错误(列族型如HBase,按列族组织数据);D错误(图数据库如Neo4j,存储实体与关系)。90.以下哪个工具主要用于构建实时高吞吐、低延迟的数据流处理管道?
A.Kafka
B.Flink
C.SparkStreaming
D.HadoopStreaming【答案】:A
解析:本题考察大数据流处理工具特性知识点。Kafka是分布式消息队列,专为高吞吐、低延迟的实时数据流管道设计,提供消息持久化和实时传输能力。Flink和SparkStreaming是流处理计算框架(需依赖数据源如Kafka),HadoopStreaming是MapReduce的流处理API,不直接构建数据流管道,因此A选项正确。91.Kafka在大数据生态系统中主要扮演的角色是?
A.实时流处理引擎
B.分布式消息队列
C.批处理计算框架
D.分布式存储系统【答案】:B
解析:本题考察Kafka的技术定位。Kafka是高吞吐量的分布式消息系统,用于跨系统传递数据流(如作为Flink/SparkStreaming的数据源);实时流处理引擎是Flink/Storm,批处理框架是MapReduce/Spark,分布式存储是HDFS。因此B为正确选项。92.以下哪个大数据流处理框架采用纯流处理架构,支持事件时间处理和精确一次(Exactly-Once)语义,是实时计算的主流选择?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.ApacheKafkaStreams【答案】:B
解析:本题考察流处理框架特性。Flink是原生流处理框架,基于事件时间语义处理,支持状态管理和精确一次语义,适用于低延迟实时计算;SparkStreaming是微批处理框架(将流数据按批次处理,本质是批处理);Storm是早期实时流处理框架,但在状态管理和语义保证上不如Flink;KafkaStreams是轻量级流处理库,需依赖Kafka。因此正确答案为B。93.Spark相比MapReduce的主要优势是?
A.仅支持内存计算,不依赖磁盘存储
B.支持多种数据处理模型(批处理、流处理、交互式查询等)
C.必须基于磁盘存储数据,确保数据持久性
D.仅适用于离线批处理场景,无法处理实时数据【答案】:B
解析:本题考察Spark的技术特点。Spark的核心优势是支持多种数据处理模型,包括批处理(SparkCore)、流处理(SparkStreaming)、交互式查询(SparkSQL)等,而MapReduce仅支持批处理。A错误,Spark虽优先内存计算,但也支持磁盘存储;C错误,Spark以内存计算为核心,非必须基于磁盘;D错误,Spark支持实时数据处理(如StructuredStreaming)。94.数据仓库维度建模中,星型模型的核心特点是?
A.以事实表为中心,直接连接多个维度表
B.以维度表为中心,连接规范化的事实表
C.所有维度表均为非规范化设计
D.严格遵循第三范式(3NF)设计【答案】:A
解析:本题考察数据仓库星型模型的结构。星型模型以事实表为中心,周围直接连接多个维度表(维度表无冗余);雪花模型是星型模型的规范化版本(维度表进一步拆分)。星型模型属于反范式设计,不严格遵循3NF,且核心是事实表而非维度表。因此A正确,B、C、D描述均错误。95.Hadoop分布式文件系统(HDFS)的默认块大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的核心配置知识点,正确答案为B。HDFS默认块大小为128MB,这一设置平衡了存储效率和IO效率:较大的块可减少NameNode元数据压力(块数量少),同时避免小文件过多导致的IO频繁问题;而64MB块会增加NameNode内存占用,256MB/512MB则可能降低IO效率(单次读写数据量大,网络传输耗时增加)。96.以下哪种算法属于无监督学习算法?
A.决策树(DecisionTree)
B.K-means聚类算法
C.线性回归(LinearRegression)
D.贝叶斯分类器(NaiveBayes)【答案】:B
解析:本题考察机器学习算法的类别。无监督学习无需标签数据,通过数据内在结构发现规律,K-means是典型的无监督聚类算法,将数据划分为不同簇;A、C、D均为监督学习算法:决策树和贝叶斯用于分类(需标签),线性回归用于回归预测(需标签)。因此选B。97.Spark相比MapReduce的主要优势是?
A.内存计算,减少磁盘IO开销
B.完全依赖磁盘存储中间结果
C.仅支持批处理任务
D.不支持实时计算场景【答案】:A
解析:本题考察主流大数据处理框架对比。Spark的核心优势在于基于内存计算,中间结果直接保存在内存中,避免了MapReduce需频繁读写磁盘的IO瓶颈,因此处理速度远快于MapReduce。选项B错误(Spark优先内存计算);选项C错误(Spark支持批处理和流处理);选项D错误(SparkStreaming支持实时计算)。98.ApacheFlink作为流处理框架,其核心特性是?
A.基于微批处理模型,实现低延迟流处理
B.支持高吞吐、低延迟的实时流处理
C.仅支持离线批处理,不擅长流处理
D.依赖Spark引擎实现内存计算【答案】:B
解析:本题考察Flink核心特性。Flink专注实时流处理,支持低延迟(毫秒级)和高吞吐(每秒数十万事件),具备精确一次语义。A选项是SparkStreaming的微批处理模型,C选项与Flink支持流批一体矛盾,D选项错误(Flink是独立框架,不依赖Spark)。99.以下哪项是Hadoop分布式文件系统(HDFS)中NameNode的主要功能?
A.存储实际数据块
B.存储文件系统元数据
C.执行数据处理任务
D.管理DataNode之间的数据传输【答案】:B
解析:NameNode的核心功能是存储文件系统的元数据(如文件目录结构、权限信息、文件与数据块的映射关系等);A错误,实际数据块由DataNode存储;C错误,数据处理任务由MapReduce或Spark等计算框架执行;D错误,NameNode通过心跳机制与DataNode通信,但“管理DataNode之间的数据传输”并非其主要功能。100.MongoDB数据库按照NoSQL分类属于以下哪种类型?
A.键值对(Key-Value)数据库
B.列族(Column-Family)数据库
C.文档(Document)数据库
D.图(Graph)数据库【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档数据,属于文档型数据库。A选项(如Redis)以简单键值对存储,B选项(如HBase)按列族组织结构化数据,D选项(如Neo4j)专注实体关系图存储,均不符合MongoDB的存储模型。101.在HDFS中,文件的默认副本数是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS文件存储特性。HDFS为保障数据可靠性,默认将文件存储为3个副本,分布在不同节点,防止单点故障导致数据丢失。选项A(1副本)数据可靠性低,B(2副本
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年中国地理赵济测试题及答案
- 2026五年级数学下册 观察物体单元复习
- 2026四年级下新课标电路的基本连接
- 医疗美容机构专业承诺书4篇范文
- 第八单元课题3 金属资源的利用和保护 教学设计-九年级化学人教版下册
- 户外运动安全防范指导书
- 养老服务质量管理与服务流程规范手册
- 第2节 基因工程的操作程序教学设计高中生物北师大版选修3现代生物科技专题-北师大版
- 2026年美容中医技术基础试题库附参考答案详解【能力提升】
- 旅行预算精准计算方法方案
- 铁路局招聘考试《铁路基础知识》100题及答案
- 临电转正式电施工方案
- 2024年高等教育文学类自考-04265社会心理学笔试考试历年高频考点试题摘选含答案
- 《清洁消毒灭菌》课件
- 工程数学基础课件
- 抗肿瘤药物临床合理应用(临床)
- 口袋妖怪奇幻旅程攻略
- 牙龈疾病-妊娠期龈炎
- GB/T 42609-2023煤粉给料三通换向阀
- 成人机械通气患者俯卧位护理-中华护理学会团体标准
- 优选文档压裂压力诊断PPT
评论
0/150
提交评论