版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年大数据技术专业押题练习试卷(名校卷)附答案详解1.在Hadoop分布式文件系统(HDFS)中,默认情况下一个文件会被存储为多少个副本以保证高可用性?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的核心特性——数据冗余机制。HDFS默认将文件存储为3个副本,这是基于容错性和资源利用率的平衡设计:3个副本既能有效应对单点故障(如一个副本所在节点宕机,剩余副本可继续提供服务),又避免了过多副本导致的存储资源浪费。选项A(1个副本)无冗余能力,无法容错;选项B(2个副本)冗余度不足,单点故障时可能丢失数据;选项D(4个副本)虽增加冗余但超出默认配置且非必要,会浪费存储空间。2.Spark相较于MapReduce的主要优势在于?
A.磁盘IO操作更少,计算速度更快
B.仅支持批处理任务,不支持流处理
C.完全依赖磁盘存储中间结果
D.编程模型更复杂,学习成本高【答案】:A
解析:本题考察分布式计算框架的对比。Spark的核心优势是内存计算(将数据缓存在内存中,减少磁盘IO),因此计算速度远快于MapReduce(MapReduce依赖磁盘存储中间结果,多次IO操作导致性能瓶颈)。选项B错误,Spark支持批处理和流处理(SparkStreaming);选项C错误,Spark通过内存缓存减少磁盘依赖;选项D错误,Spark提供了更简洁的API(如DataFrame),编程模型更简单。因此正确答案为A。3.数据仓库(DataWarehouse)的核心特征是?
A.面向应用场景
B.数据集成性
C.实时性处理能力
D.高并发写入支持【答案】:B
解析:本题考察数据仓库核心特征知识点。数据仓库的核心特征包括:面向主题(按业务主题组织)、集成性(整合多源异构数据)、非易失性(历史数据不轻易修改)、时变性(随时间变化)。A选项“面向应用场景”是操作型数据库(OLTP)的特征;C、D选项“实时性”“高并发写入”是OLTP系统的典型需求,非数据仓库核心特征。正确答案为B。4.以下哪个大数据流处理框架采用纯流处理架构,支持事件时间处理和精确一次(Exactly-Once)语义,是实时计算的主流选择?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.ApacheKafkaStreams【答案】:B
解析:本题考察流处理框架特性。Flink是原生流处理框架,基于事件时间语义处理,支持状态管理和精确一次语义,适用于低延迟实时计算;SparkStreaming是微批处理框架(将流数据按批次处理,本质是批处理);Storm是早期实时流处理框架,但在状态管理和语义保证上不如Flink;KafkaStreams是轻量级流处理库,需依赖Kafka。因此正确答案为B。5.以下哪个是实时流处理计算框架的典型代表?
A.ApacheFlink
B.ApacheSparkBatch
C.HadoopMapReduce
D.ApacheHive【答案】:A
解析:本题考察流处理框架的典型代表。ApacheFlink是专为实时流处理设计的框架,支持毫秒级延迟和高吞吐;B选项SparkBatch是批处理框架;C选项MapReduce是离线批处理框架;D选项Hive是基于Hadoop的SQL查询工具,主要用于数据仓库。因此正确答案为A。6.Hadoop分布式文件系统(HDFS)的核心功能是?
A.提供分布式计算框架
B.存储海量结构化/非结构化数据
C.实现集群资源调度与管理
D.实时处理流数据与事件流计算【答案】:B
解析:本题考察HDFS的核心定位。HDFS是Hadoop生态的分布式存储组件,主要负责海量数据的可靠存储;A选项是MapReduce或Spark的功能,C是YARN的职责,D是Storm/Flink等流处理框架的应用场景。因此正确答案为B。7.在数据仓库设计中,星型模型的主要特点是?
A.以事实表为中心,维度表直接关联事实表
B.所有维度表均规范化为子表,形成层级结构
C.包含多个独立的事实表,覆盖不同业务主题
D.维度表之间存在父子层级关系,需显式指定关联路径【答案】:A
解析:本题考察数据仓库模型的知识点。星型模型以单一事实表为核心,所有维度表直接与事实表关联,结构简单直观;选项B描述的是雪花模型(维度表进一步规范化为子表);选项C错误,星型模型通常仅包含一个事实表;选项D描述的是雪花模型的层级关联特征。因此正确答案为A。8.HBase属于以下哪种NoSQL数据库类型?
A.文档型
B.列族型
C.键值型
D.图数据库【答案】:B
解析:本题考察NoSQL数据库类型及典型应用。HBase是典型的列族数据库,以列族(ColumnFamily)为基本存储单位,适合海量结构化数据的随机读写。选项A(文档型)如MongoDB,选项C(键值型)如Redis,选项D(图数据库)如Neo4j,均不符合HBase的存储模型,故正确答案为B。9.Spark相比MapReduce的主要优势是?
A.支持内存计算,处理速度更快
B.仅支持批处理场景,不支持流处理
C.必须依赖磁盘存储中间结果
D.无法进行复杂数据挖掘算法计算【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算,中间结果无需频繁写入磁盘,因此处理速度显著快于MapReduce(后者依赖磁盘I/O)。选项B错误,Spark通过StructuredStreaming等组件支持流处理;选项C错误,Spark优先使用内存存储数据;选项D错误,Spark支持复杂算法(如机器学习MLlib)和复杂数据处理。10.下列关于Spark与MapReduce相比的显著优势,说法错误的是?
A.内存计算
B.DAG执行引擎
C.迭代计算优化
D.仅支持批处理【答案】:D
解析:本题考察Spark的核心优势。Spark相比MapReduce的优势包括:A选项内存计算(Spark将数据缓存在内存中,减少磁盘IO)、B选项DAG执行引擎(支持复杂的管道式操作,优化任务执行顺序)、C选项迭代计算优化(通过内存缓存避免重复计算,迭代效率远高于MapReduce);而D选项错误,Spark不仅支持批处理,还支持流处理(SparkStreaming)、交互式查询(SparkSQL)等多种计算模式,因此“仅支持批处理”是错误描述。11.在大数据处理流程中,数据清洗环节的主要目标是?
A.将分散来源的原始数据采集到统一系统
B.去除数据噪声、填补缺失值,标准化数据格式
C.将数据转换为结构化格式并持久化存储
D.对数据进行聚合、关联等复杂计算操作【答案】:B
解析:本题考察大数据处理流程各环节职责。数据清洗是对原始数据进行预处理,核心任务包括去重、填补缺失值、处理异常值、标准化格式等,确保数据质量;A选项为“数据采集”(如Flume、Kafka);C选项为“数据存储与转换”(如Hive表加载);D选项为“数据计算”(如SparkSQL、Flink)。12.以下哪个系统通常用于实时流数据处理?
A.Kafka(消息队列)
B.ApacheFlink
C.Hadoop(分布式计算框架)
D.Hive(数据仓库工具)【答案】:B
解析:本题考察流处理技术的应用场景。ApacheFlink是专为实时流数据处理设计的框架,支持低延迟、高吞吐的流计算;选项A(Kafka)是消息队列,主要用于存储和传输流数据,常作为Flink的数据源而非独立处理系统;选项C(Hadoop)以批处理为主,适合离线数据计算;选项D(Hive)是基于Hadoop的数据仓库工具,用于批量分析历史数据。13.在分布式系统CAP定理中,字母“C”代表的是?
A.Consistency(一致性)
B.Availability(可用性)
C.Partitiontolerance(分区容错性)
D.Continuity(连续性)【答案】:A
解析:本题考察分布式系统理论CAP定理。CAP定理指出分布式系统只能同时满足三个要素中的两项:C(Consistency,一致性:所有节点在同一时间看到相同的数据)、A(Availability,可用性:每个请求都能得到成功或失败的响应)、P(Partitiontolerance,分区容错性:允许节点间网络分区);B选项对应“A”,C选项对应“P”,D选项为干扰项(非CAP定理术语)。14.在Kafka分布式消息系统中,负责将消息持久化到磁盘的核心组件是?
A.Producer(生产者)
B.Consumer(消费者)
C.Broker(代理节点)
D.ZooKeeper(协调服务)【答案】:C
解析:Kafka中,Broker是服务节点,负责接收、存储消息并持久化到本地磁盘。Producer发送消息,Consumer消费消息,ZooKeeper管理集群元数据,故C正确。15.HadoopYARN(YetAnotherResourceNegotiator)的主要功能是?
A.管理分布式文件系统的元数据
B.负责集群资源的分配与任务调度
C.实现数据仓库的ETL流程
D.提供实时流数据的消息队列服务【答案】:B
解析:本题考察YARN的核心职责。YARN是Hadoop2.x引入的资源管理器,负责集群资源(CPU、内存等)的统一管理、任务调度和资源隔离,为上层计算框架(如MapReduce、Spark)提供资源支持。A选项是HDFSNameNode的功能;C选项属于数据仓库工具(如Hive)的ETL流程;D选项是消息队列(如Kafka)的功能。因此正确答案为B。16.下列关于Spark和MapReduce的描述中,正确的是?
A.Spark仅支持批处理,不支持流处理
B.Spark支持内存计算,相比MapReduce在迭代计算中性能更优
C.MapReduce比Spark更适合迭代计算任务
D.Spark的RDD是可变的,而MapReduce的中间结果是不可变的【答案】:B
解析:本题考察分布式计算框架的核心特性。Spark的内存计算模型使其在迭代计算(如机器学习、图算法)中性能远超MapReduce(MapReduce需多次读写磁盘)。选项A错误,Spark通过SparkStreaming支持实时流处理;选项C错误,MapReduce迭代计算需反复读写磁盘,效率极低;选项D错误,Spark的RDD(弹性分布式数据集)是不可变的,而MapReduce中间结果需写入磁盘(本质不可变但依赖磁盘存储)。17.Spark相比MapReduce的主要优势在于?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.依赖磁盘存储中间结果
D.不支持复杂数据结构处理【答案】:A
解析:本题考察Spark与MapReduce的核心差异。Spark采用内存计算模型,避免了MapReduce中频繁的磁盘I/O操作,大幅提升计算速度;B错误,Spark同时支持批处理和流处理;C错误,Spark以内存计算为主,中间结果优先存储在内存而非磁盘;D错误,Spark支持丰富的数据结构(如RDD、DataFrame)。因此正确答案为A。18.Hadoop生态系统中,负责分布式存储的核心组件是?
A.HDFS
B.YARN
C.MapReduce
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于存储海量数据;YARN是资源管理器,负责集群资源调度;MapReduce是分布式计算框架;Hive是基于Hadoop的数据仓库工具。因此正确答案为A。19.大数据系统中的元数据(Metadata)主要作用是?
A.记录数据的来源、转换和血缘关系
B.对数据进行加密和解密操作
C.实现数据的实时清洗和过滤
D.对海量数据进行压缩存储【答案】:A
解析:本题考察元数据的功能。元数据记录数据的全生命周期信息(来源、转换过程、存储位置等),形成数据血缘关系,帮助理解数据质量和追溯;数据加密属于安全模块,实时清洗是ETL或流处理任务,数据压缩是存储优化技术。因此A正确。20.以下哪项属于典型的实时流处理框架?
A.HadoopMapReduce
B.SparkStreaming
C.ApacheStorm
D.ApacheFlink【答案】:C
解析:本题考察大数据处理框架的分类。实时流处理框架用于处理连续到达的数据流。ApacheStorm是最早的纯实时流处理框架,采用“Spout-Bolt”模型,支持毫秒级延迟和高吞吐量的实时计算。HadoopMapReduce是经典的批处理框架,处理离线数据;SparkStreaming基于微批处理(Micro-batch),将流数据按时间窗口拆分为批处理任务,虽属于流处理但本质是“准实时”;ApacheFlink是新一代流处理框架,支持流批统一,但题目要求“典型实时流处理框架”,Storm是更基础的纯实时代表。因此正确答案为C。21.数据仓库中,哪个特性是指数据随时间变化以反映业务发展趋势?
A.面向主题
B.集成性
C.非易失性
D.时变性【答案】:D
解析:本题考察数据仓库的核心特性。数据仓库的四个关键特性中:A(面向主题)指围绕特定业务主题组织数据;B(集成性)指整合多源异构数据;C(非易失性)指数据仅添加不删除;D(时变性)特指数据随时间推移而积累变化,用于历史趋势分析。其他选项均不符合“随时间变化”的定义。22.Spark相比MapReduce的核心优势不包括以下哪项?
A.基于内存计算,大幅提升数据处理速度
B.采用DAG执行引擎优化任务依赖关系
C.仅支持批处理任务,不支持实时流处理
D.提供丰富API支持多种计算模式(批处理/流处理/机器学习)【答案】:C
解析:本题考察Spark与MapReduce的技术对比。Spark的核心优势包括内存计算(A正确)、DAG优化(B正确)、多计算模式支持(D正确);而C选项描述错误,SparkStreaming可实现微批处理(准实时流处理),而MapReduce仅支持离线批处理。因此正确答案为C。23.SparkStreaming的核心处理模式是?
A.实时流处理
B.微批处理
C.全内存计算
D.分布式批处理【答案】:B
解析:本题考察流处理框架的技术特点。SparkStreaming基于微批处理(Micro-batch)模型,将流数据按固定时间窗口切割为小批量RDD进行处理;选项A是Flink等流处理框架的典型特征;选项C(全内存计算)是Spark的通用特性,但非SparkStreaming独有;选项D(分布式批处理)属于SparkRDD的基础模式,而非流处理核心。因此正确答案为B。24.Spark作为分布式计算框架,相比MapReduce的主要优势是?
A.基于内存计算,迭代效率高
B.仅支持批处理任务
C.仅适用于实时流处理场景
D.不支持SQL查询操作【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算模式,避免了MapReduce基于磁盘I/O的低效问题,尤其在迭代计算(如机器学习、图计算)中效率显著提升;MapReduce支持批处理,但Spark也支持批处理,且扩展了实时流处理(SparkStreaming)和SQL查询(SparkSQL);选项B、C、D均错误。因此正确答案为A。25.在Hadoop分布式文件系统(HDFS)中,负责管理文件系统元数据(如文件目录结构、权限等)的核心组件是?
A.NameNode
B.DataNode
C.SecondaryNameNode
D.ResourceManager【答案】:A
解析:本题考察HDFS架构中各组件的职责。NameNode是HDFS的主节点,负责存储文件系统的元数据(如文件路径、权限、块位置等),并维护文件系统的命名空间。DataNode是从节点,负责存储实际数据块并响应读写请求。SecondaryNameNode是NameNode的辅助节点,主要用于合并EditLog和FsImage,减轻NameNode负担,并非元数据主管理者。ResourceManager是YARN资源管理器,与HDFS无关。因此正确答案为A。26.以下哪项是数据仓库中事实表的典型特征?
A.主要用于存储描述性维度属性(如时间、地区)
B.存储业务事件的度量数据(如销售额、订单量)
C.仅包含关键字段,无冗余数据
D.用于定义数据仓库的整体逻辑结构【答案】:B
解析:本题考察数据仓库中事实表与维度表的核心区别。事实表的典型特征是存储业务事件的度量数据(如订单金额、用户点击量等),通常关联多个维度表。选项A描述的是维度表(如时间维度表包含日期、季度等属性);选项C过于绝对,事实表可能因关联维度表存在冗余;选项D错误,数据仓库的逻辑结构由元数据和表关系定义,非事实表职责。27.Spark相比MapReduce的主要优势是?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.只能处理结构化数据
D.不支持复杂数据结构【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算(RDD缓存),减少磁盘IO操作,大幅提升批处理速度;B选项错误,Spark同时支持批处理和流处理(StructuredStreaming);C选项错误,Spark支持多种数据结构(如DataFrame、Dataset),且可处理非结构化数据(如文本、JSON);D选项错误,Spark通过RDD、DataFrame等抽象支持复杂数据结构(如嵌套结构、数组)。28.Spark相比MapReduce的显著优势是?
A.基于内存计算,减少磁盘IO操作
B.仅支持批处理计算模式
C.只能处理结构化数据
D.对硬件资源要求更低【答案】:A
解析:本题考察Spark与MapReduce的技术差异,正确答案为A。Spark将中间数据存储在内存中(支持RDD缓存),避免了MapReduce中大量的磁盘读写(MapReduce需多次写磁盘),因此计算速度提升显著;B错误,Spark支持批处理和流处理(StructuredStreaming);C错误,Spark支持JSON、CSV、Parquet等多种格式,包括半结构化/非结构化数据;D错误,Spark对内存/CPU资源要求更高(如内存不足会导致频繁GC)。29.数据仓库的核心特性是?
A.面向操作型事务处理
B.面向主题
C.数据实时更新
D.数据冗余度低【答案】:B
解析:本题考察数据仓库的定义与特性。数据仓库是面向主题的(围绕特定业务主题组织数据)、集成的、非易失的、时变的数据集,用于支持管理决策。选项A错误,操作型事务处理是OLTP(联机事务处理)的特点;选项C错误,数据仓库的数据一旦加载后通常不实时更新,以保证分析数据的一致性;选项D错误,数据仓库为提高查询效率,通常会整合冗余数据。因此正确答案为B。30.SparkStreaming的核心处理模式是?
A.微批处理
B.实时流处理
C.全量批处理
D.内存计算【答案】:A
解析:本题考察SparkStreaming的处理模型。SparkStreaming基于微批处理架构,将数据流分割为小批量(通常1-10秒)进行处理,属于“准实时”处理;而实时流处理是Flink等框架的核心模式;全量批处理是MapReduce的典型场景;内存计算是Spark的底层特性,非处理模式。因此正确答案为A。31.以下关于Spark框架特点的描述,正确的是?
A.Spark仅支持内存计算,无法处理磁盘数据
B.Spark基于MapReduce架构实现分布式计算
C.Spark的RDD(弹性分布式数据集)具有不可变性
D.Spark不支持实时流处理场景【答案】:C
解析:本题考察Spark核心特性。Spark的RDD是不可变的分布式数据集合,这是其保证数据一致性和容错性的关键设计。A错误,Spark支持内存与磁盘混合计算;B错误,Spark采用独立的DAG执行引擎,与MapReduce架构无关;D错误,SparkStreaming模块可支持实时流处理。32.以下哪个框架特别擅长处理高吞吐量的实时流数据?
A.SparkStreaming(微批处理框架)
B.ApacheFlink(流处理框架)
C.ApacheStorm(实时计算框架)
D.ApacheHive(数据仓库工具)【答案】:B
解析:本题考察流处理框架的特点。Flink是专为流处理设计的框架,支持低延迟、高吞吐的数据处理,具备精确一次(Exactly-Once)语义和强大的状态管理能力,适合实时流数据场景。ASparkStreaming基于微批处理,本质是“准实时”,延迟较高;CStorm虽支持实时计算,但在状态管理和容错性上弱于Flink;DHive是数据仓库工具,主要用于批处理分析,非流处理框架。33.ApacheKafka的主要应用场景是?
A.实时流数据传输与存储
B.分布式文件系统
C.批处理计算框架
D.数据仓库ETL工具【答案】:A
解析:本题考察流处理技术组件Kafka的定位知识点。Kafka是分布式流处理平台,专为高吞吐量的实时消息传递设计,支持消息持久化和实时数据传输;B选项是HDFS的功能;C选项是MapReduce/Spark的批处理定位;D选项是Hive/ETL工具的职责。因此A选项正确。34.MongoDB数据库按照NoSQL分类属于以下哪种类型?
A.键值对(Key-Value)数据库
B.列族(Column-Family)数据库
C.文档(Document)数据库
D.图(Graph)数据库【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档数据,属于文档型数据库。A选项(如Redis)以简单键值对存储,B选项(如HBase)按列族组织结构化数据,D选项(如Neo4j)专注实体关系图存储,均不符合MongoDB的存储模型。35.数据仓库的核心特征不包括以下哪项?
A.面向主题的
B.集成的
C.易失性的
D.时变的【答案】:C
解析:本题考察数据仓库的定义特征。数据仓库的核心特征是“四性”:面向主题(Subject-oriented)、集成的(Integrated)、非易失的(Non-volatile,即数据一旦写入不可随意修改)、时变的(Time-variant,随时间变化)。选项C的“易失性的”与“非易失性”矛盾,因此错误。36.在数据仓库构建流程中,‘先抽取数据,直接加载到目标数据仓库,再在目标库中进行清洗和转换’的模式称为?
A.ETL
B.ELT
C.ETL+ELT
D.LT【答案】:B
解析:本题考察ETL与ELT的区别。ETL(Extract-Transform-Load)是先抽取数据,经过清洗、转换后再加载到目标系统;ELT(Extract-Load-Transform)则是先将原始数据直接加载到目标系统(如数据仓库),再在目标系统中进行转换(利用目标系统的计算资源,减少数据传输量)。C选项“ETL+ELT”为混合模式,非标准概念;D选项“LT”无此定义。因此正确答案为B。37.ApacheSpark相比HadoopMapReduce的核心优势主要体现在?
A.基于内存计算,大幅减少磁盘IO操作
B.仅支持批处理任务,不支持实时数据处理
C.必须依赖HDFS存储数据,无法独立运行
D.仅适用于结构化数据处理,对非结构化数据支持弱【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心设计是内存计算(如RDD缓存),避免MapReduce中频繁的磁盘读写,显著提升计算速度;B选项错误,Spark通过StructuredStreaming支持实时处理;C选项错误,Spark可独立运行(如Local模式)或结合其他存储系统;D选项错误,Spark支持JSON、CSV等非结构化/半结构化数据处理。38.以下哪个不属于Hadoop生态系统的核心组件?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.MySQL(关系型数据库管理系统)【答案】:D
解析:本题考察Hadoop生态系统的核心组件。HDFS是Hadoop分布式存储的基础,负责海量数据的可靠存储;MapReduce是分布式计算框架,实现任务并行处理;YARN是资源管理系统,协调集群资源分配。而MySQL是传统关系型数据库,不属于Hadoop生态系统,通常用于结构化数据的事务性存储。39.MongoDB数据库属于哪种NoSQL数据库类型?
A.键值数据库
B.列族数据库
C.文档数据库
D.图数据库【答案】:C
解析:本题考察NoSQL数据库分类。MongoDB是典型的文档型数据库,以JSON格式存储半结构化数据,支持复杂查询和嵌套结构。选项A(如Redis)以键值对存储,B(如HBase)以列族组织数据,D(如Neo4j)以图结构存储关系,均与MongoDB特性不符。40.在分布式系统CAP理论中,哪个特性是分布式系统必须满足的?
A.一致性(Consistency)
B.可用性(Availability)
C.分区容错性(PartitionTolerance)
D.以上都不是【答案】:C
解析:本题考察分布式系统CAP理论。CAP理论指出,分布式系统只能同时满足三项特性中的两项:一致性(数据同步一致)、可用性(服务响应正常)、分区容错性(网络分区时系统仍可用)。由于网络不可避免出现分区故障,分区容错性(P)是分布式系统必须满足的基础特性,而一致性和可用性需根据场景权衡(如选择AP或CP模型)。41.Hadoop分布式文件系统(HDFS)的默认数据块大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS核心参数知识点。Hadoop分布式文件系统(HDFS)的默认数据块大小为128MB(可配置),其设计目的是平衡磁盘IO效率与元数据管理开销。选项A(64MB)是HDFS早期版本的默认配置;C(256MB)和D(512MB)因过大导致随机IO开销剧增,不符合实际生产场景需求。42.在数据仓库建模中,以下哪种模型通常用于分析型应用?
A.雪花模型(SnowflakeSchema)
B.星型模型(StarSchema)
C.星座模型(GalaxySchema)
D.层次模型(HierarchicalModel)【答案】:B
解析:本题考察数据仓库建模方式。星型模型是数据仓库维度建模的典型方式,由一个事实表和多个维度表组成,结构清晰、查询高效,广泛用于分析型应用(如OLAP分析)。A雪花模型是星型模型的扩展,通过维度表分层细化,但复杂度过高,适合特定场景;C星座模型是多个星型模型共享维度表,适用于大型企业级数据仓库;D层次模型是传统数据库的结构模型,非数据仓库主流分析模型。43.在Hadoop生态系统中,负责分布式数据存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Spark【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,专门用于在集群中存储海量数据,采用块(Block)存储和副本机制确保高容错性。MapReduce(B选项)是分布式计算框架,负责并行处理数据;YARN(C选项)是资源管理器,负责集群资源的分配与调度;Spark(D选项)是独立的内存计算引擎,并非Hadoop生态的核心存储组件。因此正确答案为A。44.以下哪种文件格式通常用于大数据场景下的列式存储,以提高查询效率?
A.CSV(逗号分隔值)
B.Parquet(列式存储格式)
C.JSON(JavaScript对象表示法)
D.XML(可扩展标记语言)【答案】:B
解析:本题考察大数据存储格式。Parquet是列式存储格式,按列而非行组织数据,支持高效压缩和复杂类型,可大幅减少IO操作,提升查询分析效率,广泛应用于Hadoop、Spark等大数据生态系统。ACSV和CJSON是行式半结构化格式,查询时需全表扫描;DXML是行式标记语言,同样不适合列式查询,且压缩率和查询效率远低于Parquet。45.下列关于数据仓库(DataWarehouse)的描述,哪项是正确的?
A.主要用于存储企业海量原始数据,支持各种数据类型
B.通常按主题域组织,面向分析型应用,存储结构化数据
C.仅支持实时数据处理,不支持离线分析
D.只能存储非结构化数据,如日志、图片等【答案】:B
解析:本题考察数据仓库的核心特点。数据仓库是面向主题、集成的、相对稳定的、反映历史变化的结构化数据集合,主要用于离线分析;A选项描述的是数据湖的特征(存储原始多类型数据);C选项错误,数据仓库支持离线分析为主,也可通过ETL实现部分实时数据整合;D选项错误,数据仓库仅存储结构化数据,非结构化数据需数据湖存储。因此正确答案为B。46.大数据的5V特征中,不包括以下哪一项?
A.Volume(数据量)
B.Velocity(处理速度)
C.Variety(数据多样性)
D.Validity(数据有效性)【答案】:D
解析:本题考察大数据的核心特征知识点。大数据的5V特征是:Volume(数据量巨大)、Velocity(处理速度快)、Variety(数据类型多样)、Veracity(数据真实性)、Value(数据价值密度低)。选项D的“Validity(数据有效性)”不属于5V特征,因此错误。47.Spark相比MapReduce在迭代计算场景中更高效的核心原因是?
A.内存计算模型减少磁盘IO
B.支持磁盘存储计算
C.仅支持批处理模式
D.实时流处理能力强【答案】:A
解析:本题考察Spark与MapReduce的计算模型差异。Spark采用内存计算框架,中间结果默认存储在内存中,迭代计算时无需重复读写磁盘,大幅降低IO开销(MapReduce需多次磁盘IO)。错误选项分析:B选项“磁盘存储”是MapReduce的典型特征,Spark虽支持磁盘存储但非核心优势;C选项“批处理”是两者共有的基础能力,非Spark独有的迭代优势;D选项“实时流处理”是SparkStreaming的功能,与迭代计算的高效性无关。48.以下哪种数据库属于列族型数据库?
A.MySQL
B.HBase
C.MongoDB
D.Redis【答案】:B
解析:本题考察NoSQL数据库的类型。HBase是基于Hadoop的列族型数据库,以列族为单位组织数据,适合海量数据的随机读写和范围查询。选项A(MySQL)是关系型数据库,采用行式存储;选项C(MongoDB)是文档型数据库,以JSON文档为基本存储单元;选项D(Redis)是键值型数据库,以内存存储为主。因此正确答案为B。49.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库的分类及典型代表。MongoDB是文档型数据库,以类似JSON的键值对文档形式存储数据,支持动态模式(schema-less),适合存储半结构化数据(如日志、用户信息)。选项A键值型代表为Redis、Memcached;选项B列族型代表为HBase、Cassandra;选项D图数据库代表为Neo4j。因此正确答案为C。50.Spark相比MapReduce的主要优势是?
A.内存计算,减少磁盘IO开销
B.完全依赖磁盘存储中间结果
C.仅支持批处理任务
D.不支持实时计算场景【答案】:A
解析:本题考察主流大数据处理框架对比。Spark的核心优势在于基于内存计算,中间结果直接保存在内存中,避免了MapReduce需频繁读写磁盘的IO瓶颈,因此处理速度远快于MapReduce。选项B错误(Spark优先内存计算);选项C错误(Spark支持批处理和流处理);选项D错误(SparkStreaming支持实时计算)。51.在MapReduce计算模型中,Map阶段的主要作用是?
A.对数据进行聚合计算
B.对中间结果进行分发
C.对输入数据进行转换处理
D.对最终结果进行合并输出【答案】:C
解析:本题考察MapReduce计算流程知识点。Map阶段负责将输入数据解析为键值对,并通过用户定义的映射函数对每个键值对执行转换操作(如过滤、特征提取),生成中间结果。A(聚合)是Reduce阶段的核心任务;B(数据分发)属于Shuffle阶段;D(合并输出)是Reduce阶段的最终步骤。因此正确答案为C。52.下列关于Hive的描述,正确的是?
A.Hive是实时流处理引擎
B.Hive使用HiveQL(HQL)进行查询
C.Hive仅支持结构化数据处理
D.Hive的元数据默认存储在HDFS中【答案】:B
解析:Hive是基于Hadoop的数据仓库工具,通过HiveQL(HQL)实现类SQL查询,B正确。A错误,Hive是批处理工具,实时流处理引擎如Flink;C错误,Hive支持半结构化数据(如JSON);D错误,元数据默认存储在MySQL等关系型数据库。53.Hadoop分布式文件系统(HDFS)默认的副本因子是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS核心参数知识点。HDFS为保障数据高容错性,默认将每个文件块复制3份并存储在不同节点,以防止单点故障导致数据丢失。选项A(1份)无容错性,选项B(2份)容错性不足,选项D(4份)超出默认设置,因此C为正确答案。54.以下关于数据仓库(DataWarehouse)的描述,正确的是?
A.主要存储结构化数据,面向企业决策分析
B.仅用于存储原始未处理的业务数据
C.数据模型固定,无法支持新业务需求
D.不支持非结构化数据的存储和分析【答案】:A
解析:本题考察数据仓库的核心概念。数据仓库以结构化数据为核心,通过ETL过程整合多源数据,面向企业决策分析场景。B错误,数据仓库存储的是清洗后的结构化数据,而非原始数据;C错误,现代数据仓库支持维度建模等灵活模型,可适应业务变化;D错误,数据仓库通过ETL工具可间接处理非结构化数据(如文本转结构化字段)。55.以下哪项不属于数据仓库的基本特性?
A.面向主题
B.实时性
C.集成性
D.时变性【答案】:B
解析:本题考察数据仓库特性。数据仓库核心特性包括面向主题、集成性、非易失性、时变性,而实时性通常是OLTP(联机事务处理)系统的特点,数据仓库主要用于历史数据分析,非实时处理。因此B选项不属于数据仓库特性,正确答案为B。56.以下关于数据湖(DataLake)的描述,正确的是?
A.仅存储结构化数据,需ETL清洗后使用
B.通常存储原始数据,支持多种数据类型
C.数据已完成整合,可直接用于业务分析
D.只能通过批处理方式进行数据查询【答案】:B
解析:本题考察数据湖的核心特征。数据湖是原始数据的集中存储库,支持结构化、半结构化(如JSON)和非结构化(如视频)数据,无需提前ETL清洗。选项A错误,数据湖不限制数据类型;选项C错误,数据湖的数据需后续处理才能用于分析;选项D错误,现代数据湖支持实时分析(如Flink+数据湖架构)。57.MapReduce计算模型中,哪个阶段负责对Map输出的中间结果进行排序、分组和聚合?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Combine阶段【答案】:B
解析:本题考察MapReduce的执行流程,正确答案为B。Reduce阶段是MapReduce的核心计算阶段,负责对Map输出的键值对(<key,value>)进行排序、分组(按key分组)和聚合操作(如求和、求均值)。选项A(Map阶段)仅执行数据映射和初步转换,不涉及聚合;选项C(Shuffle阶段)是Map与Reduce之间的中间数据传输过程,主要负责数据分区和传输,非最终聚合;选项D(Combine阶段)是Map阶段的优化手段,用于局部聚合以减少网络传输,不直接处理最终聚合。58.以下哪种数据库属于列族(Column-family)类型的NoSQL数据库?
A.MongoDB
B.Redis
C.HBase
D.Neo4j【答案】:C
解析:本题考察NoSQL数据库类型分类。HBase是典型的列族型数据库,采用“行键-列族-列-时间戳”四层存储模型,适合海量结构化数据(如日志、时序数据)的随机读写。错误选项分析:A选项MongoDB是文档型数据库,以JSON格式存储半结构化数据;B选项Redis是键值型数据库,支持多种数据结构(如字符串、哈希、列表);D选项Neo4j是图数据库,以节点和边的关系模型存储数据,适用于社交网络、路径分析等场景。59.Hadoop生态系统中,负责分布式数据存储的核心组件是?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:A
解析:本题考察Hadoop生态核心组件知识点。HDFS是Hadoop的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责并行处理任务;YARN是资源管理器,管理集群资源分配;Hive是基于Hadoop的数据仓库工具,用于SQL查询。因此正确答案为A。60.Spark相比MapReduce的主要优势是?
A.仅支持内存计算,不依赖磁盘存储
B.支持多种数据处理模型(批处理、流处理、交互式查询等)
C.必须基于磁盘存储数据,确保数据持久性
D.仅适用于离线批处理场景,无法处理实时数据【答案】:B
解析:本题考察Spark的技术特点。Spark的核心优势是支持多种数据处理模型,包括批处理(SparkCore)、流处理(SparkStreaming)、交互式查询(SparkSQL)等,而MapReduce仅支持批处理。A错误,Spark虽优先内存计算,但也支持磁盘存储;C错误,Spark以内存计算为核心,非必须基于磁盘;D错误,Spark支持实时数据处理(如StructuredStreaming)。61.在数据仓库的维度建模中,用于描述业务事件的表是?
A.维度表
B.事实表
C.宽表
D.雪花表【答案】:B
解析:本题考察数据仓库维度建模的核心概念。事实表存储业务事件的度量值(如销售额、订单量)和关联维度键,是描述业务事件的核心表。选项A(维度表)存储描述性信息(如客户名称、产品类别);选项C(宽表)是星型模型的一种实现形式(非标准术语);选项D(雪花表)是维度表的规范化结构,非业务事件描述表。62.与传统MapReduce相比,ApacheSpark的主要优势在于?
A.基于磁盘计算,适合大规模批处理
B.基于内存计算,减少磁盘IO开销
C.仅支持实时流处理,不支持批处理
D.依赖HDFS存储所有中间结果【答案】:B
解析:本题考察Spark的技术特点。Spark的核心优势是利用内存存储数据和计算,减少磁盘IO操作,从而大幅提升计算速度;MapReduce是基于磁盘的迭代计算,速度较慢。Spark既支持批处理也支持流处理,且依赖内存而非仅依赖HDFS存储中间结果。因此正确答案为B。63.Hive的核心功能及应用场景是?
A.通过HiveQL将SQL转换为MapReduce/YARN任务,实现结构化数据批处理
B.与Spark集成实现实时流数据处理,依赖HiveContext
C.提供分布式键值存储,支持高并发读写操作
D.作为数据挖掘引擎,直接训练机器学习模型【答案】:A
解析:本题考察Hive的技术定位。Hive是基于Hadoop的SQL数据仓库工具,核心组件包括HiveMetastore(元数据管理)和HiveQL(类SQL查询语言),通过将SQL转换为MapReduce/YARN任务实现结构化数据的离线批处理;B选项错误,HiveContext是Spark的组件,与Hive无直接关联;C选项描述的是HBase(NoSQL数据库)的功能;D选项错误,Hive不具备数据挖掘模型训练能力,需结合MLlib等工具。64.Spark相比MapReduce的核心优势不包括以下哪项?
A.支持内存计算,减少磁盘I/O操作
B.采用DAG执行模型,优化任务依赖关系
C.仅支持批处理任务,不支持流处理
D.提供更简洁的API,开发效率更高【答案】:C
解析:本题考察大数据处理框架的技术对比。Spark的核心优势包括内存计算(A正确,速度更快)、DAG执行模型(B正确,减少磁盘I/O)和简洁API(D正确)。而C错误,Spark不仅支持批处理,还通过SparkStreaming、StructuredStreaming支持流处理,这是MapReduce(仅批处理)的显著劣势。因此正确答案为C。65.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.YARN
C.MapReduce
D.Hive【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统中负责分布式文件存储的核心组件,通过将数据分割成块并跨节点存储实现高容错性和高吞吐量;YARN是资源管理器,负责集群资源调度;MapReduce是分布式计算框架,用于并行处理海量数据;Hive是基于Hadoop的数据仓库工具,提供SQL查询功能。因此正确答案为A。66.以下哪个是Hadoop分布式文件系统的核心组件?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop生态系统核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的存储;MapReduce是分布式计算框架,用于并行处理海量数据;YARN是资源管理器,负责集群资源的分配与调度;ZooKeeper是分布式协调服务,提供配置管理、命名服务等。因此正确答案为A。67.MapReduce计算框架的核心设计思想是?
A.分而治之
B.实时计算
C.内存计算
D.并行存储【答案】:A
解析:本题考察MapReduce的基础原理。MapReduce通过Map阶段将任务分解为多个子任务并行处理,Reduce阶段合并结果,核心思想是“分而治之”。选项B(实时计算)错误,MapReduce是批处理框架,延迟较高;选项C(内存计算)非核心思想,MapReduce早期依赖磁盘I/O;选项D(并行存储)属于分布式文件系统(如HDFS)的特性,与MapReduce的计算逻辑无关。68.数据仓库设计中,以下哪种模型用于描述业务过程及相关维度,且以事实表和维度表为核心结构?
A.星型模型
B.关系型模型
C.事务型模型
D.三范式模型【答案】:A
解析:本题考察数据仓库维度建模知识点。星型模型是数据仓库维度建模的典型方法,以事实表为中心关联多个维度表,结构直观。关系型模型是通用数据库模型,事务型模型针对业务操作而非数据仓库,三范式模型是OLTP系统设计范式。因此正确答案为A。69.Hadoop分布式文件系统(HDFS)的默认块大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的核心配置知识点,正确答案为B。HDFS默认块大小为128MB,这一设置平衡了存储效率和IO效率:较大的块可减少NameNode元数据压力(块数量少),同时避免小文件过多导致的IO频繁问题;而64MB块会增加NameNode内存占用,256MB/512MB则可能降低IO效率(单次读写数据量大,网络传输耗时增加)。70.Spark相比传统MapReduce计算框架,其显著优势主要体现在哪里?
A.支持更多的数据处理算法
B.基于内存计算,大幅提升计算速度
C.只能处理批处理任务
D.对硬件资源要求更低【答案】:B
解析:本题考察Spark与MapReduce的核心差异。Spark采用内存计算模式,避免了MapReduce中大量的磁盘IO操作,因此计算速度远快于MapReduce;A选项中两者均支持丰富算法,Spark在算法实现上更灵活但并非主要优势;C选项错误,Spark同时支持批处理和流处理;D选项错误,Spark对内存资源要求更高。因此正确答案为B。71.在数据仓库中,用于记录业务事件(如销售金额、订单数量等度量值)的表类型是?
A.维度表
B.事实表
C.分层表
D.分区表【答案】:B
解析:本题考察数据仓库表结构。事实表记录业务事件的度量值(如销售额、订单数),并关联维度表提供上下文;维度表(A)用于描述事实表的分析角度(如时间、地区),属于描述性表;分层表(C)和分区表(D)是数据存储优化手段,非表类型分类。因此正确答案为B。72.MongoDB属于以下哪种类型的NoSQL数据库?
A.键值对数据库(Key-ValueStore)
B.列族数据库(Column-FamilyStore)
C.文档型数据库(DocumentStore)
D.图数据库(GraphDatabase)【答案】:C
解析:本题考察NoSQL数据库的分类。MongoDB以JSON格式的“文档”为基本存储单元,属于文档型数据库;键值对数据库(A)如Redis,以简单键值对存储;列族数据库(B)如HBase,按列族组织数据;图数据库(D)如Neo4j,以节点和边的图结构存储。因此正确答案为C。73.在Hadoop生态系统中,负责集群资源管理和作业调度的核心组件是?
A.YARN(YetAnotherResourceNegotiator)
B.HDFS(HadoopDistributedFileSystem)
C.MapReduce
D.Hive【答案】:A
解析:本题考察Hadoop核心组件功能。YARN是Hadoop的资源管理器,负责节点资源分配和作业调度。B错误,HDFS是分布式文件系统,负责数据存储;C错误,MapReduce是分布式计算框架,负责任务执行;D错误,Hive是数据仓库工具,基于HDFS和MapReduce实现数据仓库功能。74.Hadoop分布式文件系统(HDFS)默认的副本数是多少?
A.2
B.3
C.4
D.5【答案】:B
解析:本题考察HDFS的基本配置知识点。HDFS默认副本数为3,主要目的是通过多副本机制实现数据冗余,防止单点故障导致数据丢失。选项A(2)通常为非默认场景下的调整值,选项C(4)和D(5)超出HDFS默认配置范围,故正确答案为B。75.Spark相比MapReduce,其显著优势主要体现在?
A.内存计算为主
B.以磁盘I/O操作为主
C.仅支持结构化数据处理
D.完全依赖Hadoop生态【答案】:A
解析:本题考察Spark的核心特性。Spark采用内存计算模型,避免频繁磁盘I/O,大幅提升处理速度;B错误,MapReduce以磁盘I/O为主;C错误,Spark支持结构化、半结构化和非结构化数据;D错误,Spark可独立运行,无需完全依赖Hadoop。因此正确答案为A。76.数据仓库(DataWarehouse)与数据湖(DataLake)的核心区别是?
A.存储的数据类型
B.构建的技术工具
C.数据的更新频率
D.数据的访问速度【答案】:A
解析:本题考察数据仓库与数据湖的概念差异。数据仓库以结构化数据为主,通过ETL(提取-转换-加载)构建面向分析的多维模型;数据湖存储原始数据(结构化、半结构化、非结构化),支持全量数据存储。两者的核心区别在于数据类型(结构化vs多类型),而非构建工具(均可使用多种工具)、更新频率(均以批处理为主)或访问速度(均需优化)。因此正确答案为A。77.下列关于ApacheFlink的描述,错误的是?
A.支持事件时间处理
B.统一流处理与批处理框架
C.仅支持内存计算,不支持磁盘计算
D.提供精确一次(Exactly-Once)语义【答案】:C
解析:本题考察Flink的核心特性。Flink是统一的流处理和批处理框架(B正确),支持事件时间处理(A正确,解决数据乱序问题)和精确一次语义(D正确,通过两阶段提交协议保证数据一致性);C选项错误,Flink既支持内存计算(如状态管理),也支持磁盘计算(如大型数据集的磁盘缓存),并非“仅支持内存计算”。因此正确答案为C。78.大数据最显著的特征是以下哪一项?
A.数据量大(Volume)
B.处理速度快(Velocity)
C.数据类型多样(Variety)
D.价值密度低(Value)【答案】:A
解析:本题考察大数据的5V特征知识点。大数据的5V特征包括Volume(数据量大)、Velocity(处理速度快)、Variety(数据类型多样)、Veracity(数据准确性)、Value(价值密度低)。其中,“数据量大”是大数据最直观、最显著的特征,其他特征是伴随数据量增长衍生的特性,因此A选项正确。B、C、D虽为大数据特征,但并非“最显著”的核心特征。79.以下哪种NoSQL数据库适合存储社交关系(如用户-关注-用户的复杂关系)?
A.Redis(键值型)
B.MongoDB(文档型)
C.Neo4j(图数据库)
D.Cassandra(列族型)【答案】:C
解析:本题考察NoSQL数据库类型与应用场景。图数据库(如Neo4j)以节点和边存储实体及关系,适合社交关系(用户、关注、好友等)的建模;键值型(Redis)适合简单键值对存储;文档型(MongoDB)适合嵌套结构但非关系型数据;列族型(Cassandra)适合结构化行列数据。社交关系的核心是实体间的关联,图数据库最匹配。因此正确答案为C。80.ApacheSpark相比MapReduce的主要优势不包括以下哪项?
A.基于内存计算,处理速度更快
B.仅支持批处理作业
C.采用DAG执行引擎优化任务调度
D.可同时处理批处理和流处理【答案】:B
解析:本题考察Spark与MapReduce的核心差异。Spark的核心优势包括:①基于内存计算,减少磁盘IO,处理速度远超MapReduce;②采用DAG执行引擎优化任务依赖关系;③支持流批一体(SparkStreaming+StructuredStreaming)。而MapReduce仅支持批处理,Spark在此基础上扩展了更多能力。选项B“仅支持批处理作业”是MapReduce的特点,而非Spark的优势,故B为错误选项。81.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值型
B.文档型
C.列族型
D.图型【答案】:B
解析:本题考察NoSQL数据库的分类。MongoDB是典型的文档型数据库,以JSON类似的文档结构存储数据,支持灵活的模式定义。选项A(键值型)如Redis;选项C(列族型)如HBase;选项D(图型)如Neo4j,均为不同类型的NoSQL数据库。82.以下关于数据湖(DataLake)的描述,正确的是?
A.仅存储结构化数据(如关系型数据库表)
B.强调数据的标准化和一致性,适合BI分析
C.通常基于数据仓库架构构建,数据需预先清洗
D.可存储原始数据(结构化/半结构化/非结构化),支持灵活分析【答案】:D
解析:本题考察数据湖与数据仓库的概念区分。数据湖的核心特征是存储未经处理的原始数据(包括结构化、半结构化、非结构化),并支持灵活的分析需求(如机器学习、复杂查询),无需预先标准化。A错误(数据湖支持多类型数据);B错误(标准化是数据仓库特征);C错误(数据湖独立于数据仓库,数据仓库通常从数据湖提取清洗后构建)。83.以下哪个框架是基于纯流处理模型设计的实时计算引擎?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.ApacheKafkaStreams【答案】:B
解析:本题考察流处理框架的核心模型。ApacheFlink是唯一基于纯流处理模型(无批处理阶段)设计的实时计算引擎,支持毫秒级延迟和状态管理。选项A(SparkStreaming)本质是微批处理(将流拆分为小批次处理);选项C(Storm)虽支持实时流处理,但更偏向底层流处理API,未像Flink那样提供统一的流-批处理语义;选项D(KafkaStreams)依赖Kafka作为数据源,但其核心逻辑仍属于轻量级流处理工具,并非独立的“纯流处理框架”。84.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.128MB
B.64MB
C.256MB
D.512MB【答案】:A
解析:本题考察HDFS核心参数知识点。HDFS的块大小默认值为128MB(Hadoop2.x及以后版本),主要为平衡磁盘读写效率与内存利用率。64MB是Hadoop1.x的早期默认值;256MB和512MB为非默认配置或特定场景(如超大规模集群)使用,因此正确答案为A。85.以下哪种工具主要用于大数据的离线批处理和SQL查询?
A.Hive
B.HDFS
C.Kafka
D.Flume【答案】:A
解析:本题考察大数据技术栈的工具定位。Hive是基于Hadoop的数据仓库工具,支持类SQL的HQL语法,用于离线批处理和复杂数据分析。选项B(HDFS)是分布式文件系统,选项C(Kafka)是高吞吐消息队列,选项D(Flume)是日志收集工具,均不符合题意,故正确答案为A。86.以下哪项是数据集市(DataMart)的典型特征?
A.面向企业级全业务主题的集成数据
B.存储原始业务系统的详细数据
C.通常针对特定部门需求构建
D.由多个独立数据仓库组成【答案】:C
解析:本题考察数据仓库体系中的数据集市概念。数据集市是数据仓库的子集,专注于特定业务部门(如销售、财务)需求,规模小且结构紧凑(C正确)。A是企业级数据仓库特征;B描述的是操作型数据库(OLTP)的原始数据存储;D混淆了数据集市与数据仓库的关系(数据集市从数据仓库提取数据)。因此正确答案为C。87.在Hadoop分布式文件系统(HDFS)中,默认情况下文件块的副本数量是?
A.2
B.3
C.4
D.5【答案】:B
解析:本题考察HDFS的核心参数知识点。HDFS为了保证数据可靠性和容错性,默认将每个文件块存储3个副本,分布在不同的DataNode节点上。选项A(2)通常用于低冗余场景或早期配置,选项C(4)和D(5)均超出HDFS默认配置范围,因此正确答案为B。88.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理;YARN是资源管理器,管理集群资源;Hive是基于Hadoop的数据仓库工具。因此正确答案为A。89.Hadoop生态系统中,负责存储海量结构化和半结构化数据的核心分布式文件系统是以下哪一个?
A.MapReduce
B.HDFS
C.YARN
D.Hive【答案】:B
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理逻辑;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于SQL查询。因此正确答案为B。90.下列关于Spark与MapReduce相比的主要优势描述正确的是?
A.Spark基于磁盘存储数据,MapReduce基于内存计算
B.Spark支持迭代计算和交互式查询,MapReduce效率较低
C.Spark只能处理批处理,MapReduce支持流处理
D.Spark的容错机制更复杂,MapReduce容错性更好【答案】:B
解析:本题考察Spark与MapReduce的技术对比知识点。Spark核心优势在于内存计算(而非磁盘存储),支持迭代计算(如机器学习算法)和交互式查询(如SQL、DataFrame操作),效率远高于MapReduce;A选项描述颠倒了存储方式;C选项错误,Spark既支持批处理也支持流处理(StructuredStreaming),MapReduce主要用于批处理;D选项错误,Spark基于RDD的Lineage机制容错性更优。因此正确答案为B。91.在数据仓库星型模型中,用于描述事实表上下文信息(如时间、地区等)的表称为?
A.事实表
B.维度表
C.度量表
D.指标表【答案】:B
解析:本题考察数据仓库星型模型结构。星型模型包含中心事实表(存储度量值和外键)和维度表(存储描述性属性,如时间、地区)。A选项是核心度量表,C/D非标准术语,维度表通过外键关联事实表,提供多维度分析上下文。92.Spark相比MapReduce,其显著优势在于?
A.内存计算,速度更快
B.仅支持批处理任务
C.必须依赖磁盘存储中间结果
D.不支持迭代计算【答案】:A
解析:本题考察Spark与MapReduce的对比知识点。Spark采用内存计算模型,中间结果可缓存于内存,避免MapReduce中大量磁盘I/O操作,因此迭代计算和实时分析速度更快;B选项错误,Spark支持批处理、流处理等多种任务;C选项错误,Spark以内存计算为主,非必须依赖磁盘;D选项错误,Spark擅长迭代计算(如机器学习)。正确答案为A。93.关于Hadoop分布式文件系统(HDFS)的核心作用,以下描述正确的是?
A.提供高容错性的分布式文件存储
B.负责大数据的批处理计算任务
C.管理集群资源分配与调度
D.实现数据仓库的ETL(抽取、转换、加载)流程【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS是Hadoop的分布式存储系统,其核心作用是通过多副本机制实现高容错性的海量数据存储,因此A正确。B选项是MapReduce的功能;C选项是YARN(资源管理器)的职责;D选项通常由Hive、Impala等数据仓库工具实现,故错误。94.Spark相比MapReduce的主要优势在于?
A.内存计算
B.磁盘计算
C.批处理模式
D.实时流处理【答案】:A
解析:本题考察Spark与MapReduce的计算模型差异。Spark采用内存计算模型,通过RDD(弹性分布式数据集)实现数据在内存中的多次迭代,避免了MapReduce基于磁盘的多次读写,显著提升计算速度;MapReduce是基于磁盘的批处理框架,速度较慢。Spark支持批处理和流处理,但核心优势是内存计算;实时流处理并非Spark独有的核心优势(如Flink更擅长)。因此正确答案为A。95.Kafka在大数据生态系统中主要承担的角色是?
A.实时计算引擎
B.分布式消息队列
C.批处理框架
D.分布式存储系统【答案】:B
解析:本题考察Kafka的功能定位。Kafka是高吞吐量的分布式消息队列,主要用于在分布式系统中传递数据流,解耦生产者与消费者;Flink/SparkStreaming是实时计算引擎;MapReduce/Spark是批处理框架;HDFS是分布式存储系统。因此正确答案为B。96.Spark相比MapReduce,在数据处理上的主要优势是?
A.支持内存计算
B.仅适用于批处理任务
C.实时流处理能力更强
D.高容错性优于MapReduce【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算(A选项),它将数据缓存在内存中进行迭代计算,大幅减少磁盘I/O操作,显著提升处理速度。MapReduce(B选项)也支持批处理,且两者均具备高容错性(D选项),只是Spark的内存计算效率更高;而实时流处理(C选项)是SparkStreaming的功能,但并非Spark的核心优势,且MapReduce本身不擅长实时流处理。因此正确答案为A。97.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的分布式存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务。因此正确答案为A。98.以下哪项是数据仓库(DataWarehouse)的核心特征?
A.面向主题
B.实时事务处理
C.高并发读写
D.支持实时查询【答案】:A
解析:本题考察数据仓库基本概念。数据仓库的核心特征包括面向主题(围绕特定业务主题组织数据)、集成性(整合多源数据)、非易失性(数据加载后一般不修改)、时变性(随时间维度分析)。选项B(实时事务处理)是操作型数据库(OLTP)的典型特征;选项C(高并发读写)属于OLTP的性能需求;选项D(支持实时查询)更偏向实时数据仓库或OLAP系统的特性,而非数据仓库的核心定义。因此正确答案为A。99.以下哪种数据库属于列族(Column-Family)数据库?
A.HBase
B.MongoDB
C.Redis
D.MySQL【答案】:A
解析:本题考察NoSQL数据库的类型。列族数据库以HBase为代表,按列族组织数据,适合高写入、低延迟场景;B选项MongoDB是文档型数据库;C选项Redis是键值型数据库;D选项MySQL是关系型数据库。因此正确答案为A。100.下列哪项是数据仓库(DataWarehouse)的核心特征?
A.面向主题
B.实时更新数据
C.存储原始业务数据
D.支持联机事务处理(OLTP)【答案】:A
解析:本题考察数据仓库核心特性。数据仓库的核心特征是“面向主题”,即围绕特定业务主题(如销售、财务)组织数据,支持分析决策。错误选项B(实时更新)错误,数据仓库以批处理更新为主,不支持实时事务;C(存储原始业务数据)错误,数据仓库需经过清洗、整合、汇总;D(支持OLTP)错误,OLTP是事务处理系统的核心,数据仓库主要用于OLAP分析。101.在HDFS中,文件的默认副本数是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS文件存储特性。HDFS为保障数据可靠性,默认将文件存储为3个副本,分布在不同节点,防止单点故障导致数据丢失。选项A(1副本)数据可靠性低,B(2副本)为非默认配置,D(4副本)超出默认值。因此正确答案为C。102.Spark相比MapReduce的主要优势在于?
A.基于内存计算中间结果
B.仅支持批处理任务
C.只能处理实时流数据
D.依赖磁盘存储数据【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势是采用内存计算中间结果,避免了MapReduce中基于磁盘的IO操作,显著提升计算速度;MapReduce同样支持批处理任务,SparkStreaming可处理实时流数据,而分布
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 闽南理工学院《经济学》2025-2026学年期末试卷
- 福建体育职业技术学院《教育学概论》2025-2026学年期末试卷
- 安徽中澳科技职业学院《铁运输道收入管理》2025-2026学年期末试卷
- 厦门海洋职业技术学院《物理治疗学》2025-2026学年期末试卷
- 2026春北师大版小学数学二年级下册第四单元测试卷附答案
- 2024-2025学年海南省海口市美兰区四年级(下)期末数学试卷 含解析
- 2026年24年三支一扶支医试题答案
- 2026年12.10国考行测试题及答案
- 2026年ACCAF6试卷及答案
- 2026年12月份时政试题及答案
- 小儿猩红热的护理
- 2025-2030中国珠宝首饰设计制造市场艺术风格分析及品牌营销策略规划
- 病案管理考核奖惩制度
- 2025年脑机接口技术在睡眠障碍康复中的应用
- 2026年大学生军事理论知识竞赛题库及答案(共80题)
- 2026年贵州贵阳云岩区街道招聘笔试模拟试题附答案
- 《人形机器人技术基础与应用》课件全套 第1-9章-绪论、人形机器人运动学与动力学 -人形机器人运动控制实践
- 班组安全监督员奖惩制度
- 八宝茶课件教学课件
- 考古勘探安全生产制度
- 炼钢厂防混钢制度规范
评论
0/150
提交评论