版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年大数据技术专业必刷200题及参考答案详解(巩固)1.以下哪个是Hadoop分布式文件系统的核心组件?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop生态系统核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责海量数据的存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务,因此正确答案为A。2.以下哪一项不属于Hadoop的核心组件?
A.HDFS
B.YARN
C.MapReduce
D.Kafka【答案】:D
解析:本题考察Hadoop核心组件知识点。Hadoop的核心三大组件为分布式文件系统HDFS、资源管理器YARN和分布式计算框架MapReduce。Kafka是分布式消息队列系统,属于大数据生态但并非Hadoop核心组件。因此正确答案为D。3.根据CAP理论,分布式系统中无法同时满足的是哪两个特性?
A.一致性(Consistency)和可用性(Availability)
B.一致性(Consistency)和分区容错性(Partitiontolerance)
C.可用性(Availability)和分区容错性(Partitiontolerance)
D.分区容错性(Partitiontolerance)和一致性(Consistency)【答案】:A
解析:本题考察CAP理论的核心内容。CAP理论指出分布式系统必须满足分区容错性(Partitiontolerance,P),而在一致性(C)和可用性(A)之间只能选择其一(即CP或AP),无法同时满足C和A。B、C、D错误,因为分区容错性(P)是分布式系统的基本要求,无法被放弃,因此无法同时满足的是C和A。正确答案为A。4.MongoDB属于以下哪种NoSQL数据库模型?
A.键值对(Key-Value)模型
B.文档(Document)模型
C.列族(Column-Family)模型
D.图(Graph)模型【答案】:B
解析:本题考察NoSQL数据库的分类,正确答案为B。MongoDB以JSON格式的“文档”(Document)为基本存储单元,支持嵌套文档和灵活的模式,属于文档模型;A典型代表为Redis、DynamoDB;C代表为HBase、Cassandra;D代表为Neo4j。5.以下哪种技术常用于实时流处理,支持低延迟、高吞吐的数据计算?
A.ApacheSparkStreaming
B.ApacheFlink
C.ApacheHadoop
D.ApacheHive【答案】:B
解析:本题考察流处理框架的特点。ApacheFlink是专为实时处理设计的开源框架,支持低延迟(毫秒级)和高吞吐数据计算,是实时流处理的代表技术;A选项SparkStreaming基于微批处理(秒级延迟);C选项Hadoop以批处理为主;D选项Hive是数据仓库工具,不用于实时计算。因此正确答案为B。6.在分布式系统CAP理论中,哪个特性是分布式系统必须满足的?
A.一致性(Consistency)
B.可用性(Availability)
C.分区容错性(PartitionTolerance)
D.以上都不是【答案】:C
解析:本题考察分布式系统CAP理论。CAP理论指出,分布式系统只能同时满足三项特性中的两项:一致性(数据同步一致)、可用性(服务响应正常)、分区容错性(网络分区时系统仍可用)。由于网络不可避免出现分区故障,分区容错性(P)是分布式系统必须满足的基础特性,而一致性和可用性需根据场景权衡(如选择AP或CP模型)。7.下列哪项是数据仓库(DataWarehouse)的核心特点之一?
A.实时性高
B.面向主题
C.数据实时更新
D.存储当前操作数据【答案】:B
解析:本题考察数据仓库的特性。数据仓库的核心特点包括面向主题(按业务主题组织数据)、集成性(整合多源数据)、非易失性(历史数据只读)和时变性(数据随时间积累)。选项A(实时性高)是操作型数据库(OLTP)的特点;选项C(实时更新)错误,数据仓库通过ETL批量更新历史数据;选项D(存储当前操作数据)描述的是操作型数据库,数据仓库聚焦历史分析数据。8.在Hadoop分布式文件系统(HDFS)中,负责管理文件系统元数据(如文件目录结构、权限、块位置等信息)的核心节点是?
A.NameNode
B.DataNode
C.SecondaryNameNode
D.ResourceManager【答案】:A
解析:本题考察HDFS核心节点的功能。NameNode是HDFS的主节点,负责管理整个文件系统的元数据,维护文件和目录的树状结构及块位置映射。DataNode是从节点,仅存储实际数据块;SecondaryNameNode主要用于合并元数据日志,减轻NameNode负担;ResourceManager是YARN资源管理器,与HDFS无关。9.以下哪项是OLAP(联机分析处理)的典型应用场景?
A.实时处理电商订单支付
B.企业财务报表的多维数据分析
C.高并发用户登录验证
D.数据库日常事务性查询【答案】:B
解析:本题考察OLAP与OLTP的核心区别。OLAP用于支持复杂的数据分析和决策支持,通常处理历史数据的多维切片、钻取等操作,典型场景如企业财务报表分析、销售趋势预测等。A、C、D均属于OLTP(联机事务处理)的应用场景,即实时处理业务交易、高并发事务性操作(如订单支付、用户登录验证),强调短响应时间和高吞吐量。因此正确答案为B。10.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对(Key-Value)型
B.文档(Document)型
C.列族(Column-Family)型
D.图(Graph)型【答案】:B
解析:本题考察NoSQL数据库类型。MongoDB以类似JSON的文档结构存储数据(如{"name":"Alice","age":30}),属于文档型数据库。选项A(如Redis)以键值对存储,选项C(如HBase)以列族组织数据,选项D(如Neo4j)以图结构存储关系,因此正确答案为B。11.MongoDB属于哪种类型的NoSQL数据库?
A.键值对(Key-Value)型
B.文档型(Document)
C.列族(Column-Family)型
D.图(Graph)型【答案】:B
解析:本题考察NoSQL数据库类型知识点。MongoDB以类JSON的BSON格式存储文档,支持复杂嵌套结构,属于文档型数据库。键值型如Redis(仅存储简单键值对);列族型如HBase(按列族组织数据,适用于结构化数据);图型如Neo4j(存储节点与关系数据)。因此正确答案为B。12.Spark相比MapReduce,其显著优势主要体现在?
A.内存计算为主
B.以磁盘I/O操作为主
C.仅支持结构化数据处理
D.完全依赖Hadoop生态【答案】:A
解析:本题考察Spark的核心特性。Spark采用内存计算模型,避免频繁磁盘I/O,大幅提升处理速度;B错误,MapReduce以磁盘I/O为主;C错误,Spark支持结构化、半结构化和非结构化数据;D错误,Spark可独立运行,无需完全依赖Hadoop。因此正确答案为A。13.在大数据数据预处理阶段,处理缺失值时最常用的方法之一是?
A.直接删除所有含缺失值的记录
B.使用均值/中位数对数值型数据进行插补
C.保留原始数据中的缺失值不做处理
D.随机删除非关键特征的缺失值【答案】:B
解析:本题考察数据预处理中的缺失值处理。选项B(均值/中位数插补)是数值型数据缺失值处理的常用方法,可在保留数据量的同时补充合理估计值。选项A(直接删除)会丢失大量数据信息,选项C(保留)可能导致模型偏差,选项D(随机删除)缺乏统计合理性。因此B为最优解。14.以下关于数据湖(DataLake)的描述,正确的是?
A.仅存储结构化数据(如关系型数据库表)
B.强调数据的标准化和一致性,适合BI分析
C.通常基于数据仓库架构构建,数据需预先清洗
D.可存储原始数据(结构化/半结构化/非结构化),支持灵活分析【答案】:D
解析:本题考察数据湖与数据仓库的概念区分。数据湖的核心特征是存储未经处理的原始数据(包括结构化、半结构化、非结构化),并支持灵活的分析需求(如机器学习、复杂查询),无需预先标准化。A错误(数据湖支持多类型数据);B错误(标准化是数据仓库特征);C错误(数据湖独立于数据仓库,数据仓库通常从数据湖提取清洗后构建)。15.MongoDB数据库属于以下哪种类型的NoSQL数据库?
A.键值(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档,属于文档型数据库。错误选项A(键值型)如Redis以键值对存储;B(列族型)如HBase以列族+行键组织数据;D(图型)如Neo4j以节点和边的关系模型存储。16.在数据仓库的星型模型中,以下哪类表属于‘事实表’?
A.销售订单表(包含订单ID、产品ID、金额等)
B.产品表(产品ID、名称、类别等)
C.客户表(客户ID、姓名、地址等)
D.时间维度表(时间ID、日期、季度等)【答案】:A
解析:本题考察数据仓库星型模型的核心表类型。星型模型由事实表和维度表组成:事实表存储度量值(如金额)和关联维度表的外键,是分析的核心;维度表描述事实表的属性(如产品、客户、时间)。选项A的销售订单表包含‘金额’(度量值),符合事实表特征;B、C、D均为维度表(描述产品、客户、时间等属性)。17.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.YARN
C.MapReduce
D.Hive【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统中负责分布式文件存储的核心组件,通过将数据分割成块并跨节点存储实现高容错性和高吞吐量;YARN是资源管理器,负责集群资源调度;MapReduce是分布式计算框架,用于并行处理海量数据;Hive是基于Hadoop的数据仓库工具,提供SQL查询功能。因此正确答案为A。18.在数据仓库设计中,以下哪种模型通常以事实表为中心,维度表直接与事实表相连,结构简单且查询效率高?
A.星型模型
B.雪花模型
C.星座模型
D.星型+雪花混合模型【答案】:A
解析:本题考察数据仓库模型知识点。星型模型由一个事实表和多个维度表组成,维度表直接连接事实表,结构对称且查询路径短,效率高;雪花模型是星型模型的扩展,维度表存在层级结构,复杂度更高;星座模型是多个事实表共享维度表的组合模型。因此星型模型是结构简单且高效的典型,正确答案为A。19.在分布式系统中,Raft协议主要解决的问题是?
A.数据一致性问题
B.负载均衡问题
C.节点故障检测
D.网络拥塞控制【答案】:A
解析:本题考察分布式系统一致性协议知识点。Raft是一种简化的分布式一致性算法,用于解决分布式系统中多副本数据的一致性问题(如主从节点数据同步);B选项负载均衡由专门的负载均衡算法(如Nginx)或分布式调度框架(如Kubernetes)处理;C选项节点故障检测属于心跳机制或故障转移机制(如ZooKeeper);D选项网络拥塞控制由TCP/IP协议栈或专用网络优化算法处理。正确答案为A。20.以下哪种算法属于数据挖掘中的分类算法?
A.K-Means聚类
B.Apriori关联规则
C.SVM支持向量机
D.PCA主成分分析【答案】:C
解析:本题考察数据挖掘算法类型。分类算法用于将数据映射到预定义类别。SVM(支持向量机)是典型的二分类/多分类算法,通过寻找最优超平面实现类别划分。K-Means是无监督聚类算法,用于将数据分为不同簇;Apriori是关联规则挖掘算法,用于发现项集间的关联关系(如“啤酒-尿布”);PCA是降维算法,通过线性变换减少特征维度,不涉及分类。因此正确答案为C。21.Spark相比MapReduce的主要优势在于?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.依赖磁盘存储中间结果
D.不支持复杂数据结构处理【答案】:A
解析:本题考察Spark与MapReduce的核心差异。Spark采用内存计算模型,避免了MapReduce中频繁的磁盘I/O操作,大幅提升计算速度;B错误,Spark同时支持批处理和流处理;C错误,Spark以内存计算为主,中间结果优先存储在内存而非磁盘;D错误,Spark支持丰富的数据结构(如RDD、DataFrame)。因此正确答案为A。22.在数据仓库的星型模型中,核心组成部分是?
A.多个事实表和多个维度表
B.中心的事实表和周围的维度表
C.中心的维度表和周围的事实表
D.仅包含一个维度表【答案】:B
解析:本题考察数据仓库星型模型特点。星型模型以一个中心事实表为核心,周围连接多个维度表(如时间、用户、产品等),维度表通过外键关联事实表;A错误,星型模型通常只有一个事实表;C错误,维度表是外围组件;D错误,星型模型包含多个维度表。因此正确答案为B。23.Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop生态系统核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责在集群中存储海量数据;MapReduce是分布式计算框架,用于并行处理大数据;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于数据仓库建模和查询。因此,负责分布式文件存储的是HDFS,A选项正确。24.在数据仓库设计中,星型模型的主要特点是?
A.以事实表为中心,维度表直接关联事实表
B.所有维度表均规范化为子表,形成层级结构
C.包含多个独立的事实表,覆盖不同业务主题
D.维度表之间存在父子层级关系,需显式指定关联路径【答案】:A
解析:本题考察数据仓库模型的知识点。星型模型以单一事实表为核心,所有维度表直接与事实表关联,结构简单直观;选项B描述的是雪花模型(维度表进一步规范化为子表);选项C错误,星型模型通常仅包含一个事实表;选项D描述的是雪花模型的层级关联特征。因此正确答案为A。25.以下哪种数据库系统最适合存储非结构化数据(如JSON文档、图片元数据等)?
A.MySQL(关系型数据库)
B.MongoDB(文档型数据库)
C.Redis(键值型数据库)
D.HBase(列族型数据库)【答案】:B
解析:本题考察NoSQL数据库的类型与适用场景。MongoDB作为文档型数据库,采用类似JSON的BSON格式存储数据,天然支持嵌套结构和灵活的非结构化数据。选项A(MySQL)是关系型数据库,依赖表结构,适合结构化数据;选项C(Redis)是键值型数据库,仅支持简单键值对,不支持复杂非结构化数据;选项D(HBase)是列族型数据库,适合海量结构化数据(如时序数据),不直接支持文档型结构。26.以下哪项是数据仓库的核心特点?
A.面向主题
B.实时性
C.高并发
D.低延迟【答案】:A
解析:本题考察数据仓库的核心特性。数据仓库的四大核心特点是:面向主题(围绕特定业务主题组织数据)、集成性(整合多源数据)、非易失性(数据写入后不轻易修改)、时变性(随时间变化)。而“实时性”“低延迟”通常是数据库或流处理系统的特性,“高并发”更多是事务型数据库的设计目标,均不符合数据仓库的核心特点。因此正确答案为A。27.Hadoop分布式文件系统(HDFS)的核心功能是?
A.分布式存储海量数据
B.分布式并行计算任务
C.实时流数据处理
D.数据清洗与转换【答案】:A
解析:本题考察HDFS的核心定位,HDFS是Hadoop生态系统的分布式文件系统,主要负责海量数据的分布式存储,提供高容错、高吞吐量的存储服务。B选项是MapReduce或YARN的任务调度功能;C选项是流处理框架(如Flink、SparkStreaming)的核心场景;D选项属于数据预处理工具(如Flume、Kafka)的功能范畴,因此正确答案为A。28.在数据仓库中,以下哪类表用于记录业务事件的度量数据(如订单金额、数量等)?
A.产品表
B.客户表
C.订单表
D.部门表【答案】:C
解析:本题考察数据仓库中事实表与维度表的定义。事实表是数据仓库的核心,记录业务事件(如订单、交易)的度量值及关联维度外键,例如订单表包含订单ID、用户ID、订单金额等核心业务数据。错误选项分析:A、B、D均为维度表,用于描述事实表的属性(如产品表描述订单表的商品信息,客户表描述订单表的用户信息,部门表描述订单表的组织归属),不直接记录业务事件的度量数据。29.Hadoop生态系统中,负责分布式存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责数据的分布式存储;MapReduce是分布式计算框架,YARN是资源管理器,Hive是基于Hadoop的数据仓库工具。因此正确答案为A。30.在数据仓库的维度建模中,以下哪个属于事实表?
A.客户表
B.产品表
C.销售记录表
D.员工表【答案】:C
解析:本题考察数据仓库维度建模的基础概念。事实表记录业务事件及度量值(如销售金额、数量),包含维度表的外键;维度表存储描述性属性(如客户信息、产品分类)。选项A(客户表)、B(产品表)、D(员工表)均为维度表,用于描述事实表的上下文;选项C(销售记录表)包含“销售额”“订单量”等度量值,属于事实表。31.以下关于数据仓库(DW)的描述,正确的是?
A.数据仓库的数据是实时更新的
B.数据仓库通常采用星型或雪花型模型
C.数据仓库只存储当前数据
D.数据仓库的主要操作是事务处理【答案】:B
解析:本题考察数据仓库的核心定义与特性。数据仓库是面向分析的集成化历史数据集合,其模型设计以星型(中心事实表+维度表)或雪花型(维度表层级细分)为主,便于复杂查询和聚合分析。选项A错误,数据仓库采用批处理更新(T+1或更长周期),非实时更新;选项C错误,数据仓库包含历史数据(如过去5年的业务数据),用于趋势分析;选项D错误,数据仓库主要支持查询与分析(OLAP操作),事务处理(OLTP)是数据库的核心功能。32.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的基础配置知识点。HDFS默认块大小为128MB(在Hadoop2.x及之前版本中),这一设计旨在平衡存储效率和读写性能。选项A(64MB)是早期HDFS的可选配置,并非默认值;选项C(256MB)和D(512MB)通常用于特定高性能场景或Hadoop3.x的大文件优化,但不属于默认配置。33.以下哪个数据库系统不属于列族(Column-family)存储类型?
A.HBase
B.Cassandra
C.Bigtable
D.MongoDB【答案】:D
解析:本题考察NoSQL数据库类型知识点。列族存储以列族为基本单元,支持高扩展性和稀疏数据存储,HBase、Cassandra、Bigtable均属于典型列族存储。MongoDB是文档型(Document)NoSQL数据库,以JSON/BSON文档格式存储数据,与列族存储结构不同,因此D选项错误。34.Hadoop生态系统中,不属于其核心组件的是?
A.HDFS(分布式文件系统)
B.MapReduce(分布式计算框架)
C.Spark(内存计算框架)
D.YARN(资源管理器)【答案】:C
解析:Hadoop核心组件包括HDFS(分布式存储)、MapReduce(分布式计算)和YARN(资源调度)。Spark是独立的开源计算框架,虽可与Hadoop集成,但不属于Hadoop核心组件,故C错误。35.ApacheFlink与其他流处理框架(如Storm、SparkStreaming)相比,最显著的优势在于?
A.支持Exactly-Once语义
B.只能处理批处理数据
C.不支持状态管理
D.仅适用于低延迟场景【答案】:A
解析:本题考察流处理框架的核心特性。Flink通过Checkpoint+Savepoint机制实现端到端的Exactly-Once语义,确保数据不丢失、不重复,这是其相比Storm(At-Least-Once)、SparkStreaming(默认At-Least-Once)的显著优势,故A正确。选项B错误(Flink以流处理为核心,批处理是其特殊场景);选项C错误(Flink提供KeyedState、OperatorState等强大状态管理);选项D错误(Flink支持毫秒级低延迟和分钟级高吞吐场景)。36.Spark相比MapReduce,其显著优势在于?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.只能处理结构化数据
D.完全依赖HDFS存储数据【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算模式,避免MapReduce的磁盘IO瓶颈,因此处理速度更快;B错误,Spark同时支持批处理和流处理;C错误,Spark支持结构化、半结构化及非结构化数据;D错误,Spark可直接使用内存、本地文件等多种存储,不依赖HDFS。37.在数据仓库设计中,用于存储业务事件度量值(如销售额、订单量)的表通常称为?
A.维度表
B.事实表
C.星型模型
D.雪花模型【答案】:B
解析:本题考察数据仓库表类型。事实表存储业务事件的度量数据(数值型),如“销售订单表”中的订单金额、数量等;维度表存储描述性属性(如时间、地区),用于解释事实表的上下文;星型模型和雪花模型是数据仓库的表组织模式(非表类型)。因此正确答案为B。38.Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一个?
A.MapReduce
B.HDFS
C.YARN
D.ZooKeeper【答案】:B
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务。因此正确答案为B。39.ApacheKafka主要用于以下哪种场景?
A.分布式批处理计算
B.实时消息传递与事件流处理
C.关系型数据库全量备份
D.分布式文件系统存储【答案】:B
解析:本题考察Kafka的核心定位。Kafka是高吞吐量的分布式消息系统,设计用于实时数据流的发布与订阅,典型场景包括日志收集、实时数据管道、事件驱动架构。选项A(分布式批处理计算)对应Spark、Flink等批处理/流处理框架;选项C(关系型数据库备份)通常使用mysqldump、XtraBackup等工具;选项D(分布式文件系统存储)是HDFS的功能。因此正确答案为B。40.以下哪个流处理框架支持低延迟的流处理和精确一次(Exactly-Once)语义?
A.ApacheFlink
B.ApacheSparkStreaming
C.ApacheStorm
D.ApacheKafkaStreams【答案】:A
解析:本题考察主流流处理框架特性。ApacheFlink是流批统一的框架,支持毫秒级低延迟处理和精确一次语义(确保数据不重复、不丢失)。错误选项B(SparkStreaming)是微批处理模型,依赖RDD实现,延迟较高;C(Storm)虽支持纯流处理,但不支持精确一次语义;D(KafkaStreams)需依赖Kafka存储层实现语义,自身不提供统一的精确一次语义支持。41.关于Hadoop分布式文件系统(HDFS)的核心作用,以下描述正确的是?
A.提供高容错性的分布式文件存储
B.负责大数据的批处理计算任务
C.管理集群资源分配与调度
D.实现数据仓库的ETL(抽取、转换、加载)流程【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS是Hadoop的分布式存储系统,其核心作用是通过多副本机制实现高容错性的海量数据存储,因此A正确。B选项是MapReduce的功能;C选项是YARN(资源管理器)的职责;D选项通常由Hive、Impala等数据仓库工具实现,故错误。42.在数据仓库构建流程中,‘先抽取数据,直接加载到目标数据仓库,再在目标库中进行清洗和转换’的模式称为?
A.ETL
B.ELT
C.ETL+ELT
D.LT【答案】:B
解析:本题考察ETL与ELT的区别。ETL(Extract-Transform-Load)是先抽取数据,经过清洗、转换后再加载到目标系统;ELT(Extract-Load-Transform)则是先将原始数据直接加载到目标系统(如数据仓库),再在目标系统中进行转换(利用目标系统的计算资源,减少数据传输量)。C选项“ETL+ELT”为混合模式,非标准概念;D选项“LT”无此定义。因此正确答案为B。43.在数据仓库建设中,ETL(Extract-Transform-Load)和ELT(Extract-Load-Transform)的核心区别在于?
A.ETL仅适用于结构化数据,ELT仅适用于非结构化数据
B.ETL在源系统完成数据转换,ELT在数据仓库完成数据转换
C.ETL比ELT更节省存储空间
D.ETL的执行速度比ELT更快【答案】:B
解析:本题考察数据处理流程的核心差异。ETL的核心是“先转换后加载”,即先从源系统提取数据,在ETL工具中完成清洗、转换后再加载到数据仓库;而ELT是“先加载后转换”,直接将原始数据加载到数据仓库,再在仓库内进行转换。选项A错误,两者均可处理结构化/非结构化数据;选项C错误,ELT因加载原始数据可能占用更多存储空间;选项D错误,ELT在大数据场景下(如Spark+ELT)因并行处理原始数据可能更高效。44.以下哪项是Hadoop分布式文件系统(HDFS)的主要功能?
A.分布式数据存储
B.分布式计算任务调度
C.分布式资源管理
D.分布式内存计算【答案】:A
解析:本题考察Hadoop核心组件HDFS的功能。HDFS是Hadoop生态系统的分布式文件系统,主要负责海量数据的分布式存储;B选项“分布式计算任务调度”是YARN的功能;C选项“分布式资源管理”同样属于YARN;D选项“分布式内存计算”是Spark的核心特性。因此正确答案为A。45.Spark相比MapReduce的主要技术优势是?
A.支持内存计算,减少磁盘IO
B.仅支持批处理任务
C.依赖分布式存储系统
D.仅适用于离线数据处理【答案】:A
解析:本题考察Spark与MapReduce技术差异知识点。Spark的核心优势是支持内存计算,可将中间结果缓存在内存中,大幅减少磁盘IO操作,计算速度远快于MapReduce;MapReduce虽也支持批处理,但依赖磁盘读写,效率较低。B选项错误,Spark同时支持批处理和流处理;C选项错误,两者均依赖分布式存储(如HDFS);D选项错误,Spark也支持实时流处理(如StructuredStreaming)。因此A选项正确。46.以下关于数据湖(DataLake)的描述,正确的是?
A.仅存储结构化数据,需ETL清洗后使用
B.通常存储原始数据,支持多种数据类型
C.数据已完成整合,可直接用于业务分析
D.只能通过批处理方式进行数据查询【答案】:B
解析:本题考察数据湖的核心特征。数据湖是原始数据的集中存储库,支持结构化、半结构化(如JSON)和非结构化(如视频)数据,无需提前ETL清洗。选项A错误,数据湖不限制数据类型;选项C错误,数据湖的数据需后续处理才能用于分析;选项D错误,现代数据湖支持实时分析(如Flink+数据湖架构)。47.以下哪个工具主要用于构建实时高吞吐、低延迟的数据流处理管道?
A.Kafka
B.Flink
C.SparkStreaming
D.HadoopStreaming【答案】:A
解析:本题考察大数据流处理工具特性知识点。Kafka是分布式消息队列,专为高吞吐、低延迟的实时数据流管道设计,提供消息持久化和实时传输能力。Flink和SparkStreaming是流处理计算框架(需依赖数据源如Kafka),HadoopStreaming是MapReduce的流处理API,不直接构建数据流管道,因此A选项正确。48.Spark相比MapReduce,其核心优势主要体现在?
A.内存计算,速度更快
B.仅支持批处理任务
C.只能运行在磁盘上
D.不支持流处理应用【答案】:A
解析:本题考察Spark与MapReduce的技术对比知识点。Spark采用内存计算框架,中间结果优先存储在内存中,避免MapReduce的大量磁盘I/O操作,因此处理速度更快。B错误(Spark既支持批处理也支持流处理,如SparkStreaming);C错误(Spark优先使用内存,仅在内存不足时落盘);D错误(SparkStreaming可实现流处理)。因此正确答案为A。49.在大数据数据预处理中,对于含有缺失值的数值型特征,以下哪种方法通常不适用?
A.使用均值填充缺失值
B.使用KNN算法基于近邻样本预测填充
C.直接删除缺失值比例超过阈值的样本
D.使用唯一值(如-999)填充所有缺失值【答案】:D
解析:本题考察缺失值处理方法。均值填充(A)、KNN预测(B)和阈值删除(C)是常用策略。D错误,数值型特征使用唯一值(如-999)填充会引入虚假模式,无法反映数据分布规律,可能误导后续分析(如分类算法误判为特殊类别)。正确做法是选择均值、中位数或合理删除无效样本。因此正确答案为D。50.MongoDB数据库属于哪种NoSQL数据库类型?
A.键值数据库
B.列族数据库
C.文档数据库
D.图数据库【答案】:C
解析:本题考察NoSQL数据库分类。MongoDB是典型的文档型数据库,以JSON格式存储半结构化数据,支持复杂查询和嵌套结构。选项A(如Redis)以键值对存储,B(如HBase)以列族组织数据,D(如Neo4j)以图结构存储关系,均与MongoDB特性不符。51.在大数据隐私保护中,用于对敏感数据进行非可逆替换以消除隐私风险的技术是?
A.数据脱敏
B.数据加密
C.访问控制
D.数据备份【答案】:A
解析:本题考察大数据隐私保护技术知识点。数据脱敏通过不可逆变换(如替换、屏蔽)将敏感数据转为非敏感数据,消除隐私风险;数据加密是可逆过程(需密钥解密);访问控制是权限管理,数据备份是容灾手段。题目强调“非可逆变换”,因此正确答案为A。52.MongoDB数据库按照NoSQL分类属于以下哪种类型?
A.键值对(Key-Value)数据库
B.列族(Column-Family)数据库
C.文档(Document)数据库
D.图(Graph)数据库【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档数据,属于文档型数据库。A选项(如Redis)以简单键值对存储,B选项(如HBase)按列族组织结构化数据,D选项(如Neo4j)专注实体关系图存储,均不符合MongoDB的存储模型。53.在MapReduce计算框架中,负责将Map任务输出的中间结果按照key进行分区并分发到对应Reduce节点的核心阶段是?
A.Map阶段
B.Shuffle阶段
C.Reduce阶段
D.Combine阶段【答案】:B
解析:本题考察MapReduce执行流程的知识点。MapReduce中,Map阶段负责数据分片和初步处理,Combine阶段是Map端的局部聚合(非必需),Reduce阶段负责接收Shuffle后的结果并聚合计算。而Shuffle阶段是核心分发环节,通过分区、排序、合并等操作将Map输出分发到Reduce节点,因此正确答案为B。54.Spark相比MapReduce的主要优势在于?
A.内存计算
B.磁盘计算
C.批处理模式
D.实时流处理【答案】:A
解析:本题考察Spark与MapReduce的计算模型差异。Spark采用内存计算模型,通过RDD(弹性分布式数据集)实现数据在内存中的多次迭代,避免了MapReduce基于磁盘的多次读写,显著提升计算速度;MapReduce是基于磁盘的批处理框架,速度较慢。Spark支持批处理和流处理,但核心优势是内存计算;实时流处理并非Spark独有的核心优势(如Flink更擅长)。因此正确答案为A。55.以下数据库中,属于文档型数据库的是?
A.MongoDB
B.HBase
C.Redis
D.Neo4j【答案】:A
解析:本题考察NoSQL数据库的类型分类。MongoDB是典型的文档型数据库,以JSON/BSON格式存储灵活结构的文档。选项B(HBase)是列族数据库;选项C(Redis)是键值型数据库;选项D(Neo4j)是图数据库,故A正确。56.在Hadoop分布式文件系统(HDFS)中,默认的副本因子是?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的核心配置知识点。HDFS默认将文件块(Block)复制3份以平衡数据可靠性与存储成本:3个副本可确保任意节点故障时数据仍可恢复,且相比2个副本容错性更高,相比4个副本更节省资源。选项A(1)仅1份数据,单点故障即丢失;选项B(2)容错能力有限;选项D(4)会过度消耗存储和带宽资源,不符合HDFS设计初衷。57.大数据系统中的元数据(Metadata)主要作用是?
A.记录数据的来源、转换和血缘关系
B.对数据进行加密和解密操作
C.实现数据的实时清洗和过滤
D.对海量数据进行压缩存储【答案】:A
解析:本题考察元数据的功能。元数据记录数据的全生命周期信息(来源、转换过程、存储位置等),形成数据血缘关系,帮助理解数据质量和追溯;数据加密属于安全模块,实时清洗是ETL或流处理任务,数据压缩是存储优化技术。因此A正确。58.大数据处理流程中,用于实时流数据传输与缓冲的工具是?
A.HDFS
B.Kafka
C.Hive
D.HBase【答案】:B
解析:本题考察大数据处理各环节的技术工具。Kafka是分布式流处理平台,主要用于实时流数据的传输、存储和处理,支持高吞吐量和持久化。选项A(HDFS)是分布式文件存储系统,用于静态数据持久化;选项C(Hive)是数据仓库工具,用于批处理查询;选项D(HBase)是列族存储数据库,用于海量数据的随机读写。因此正确答案为B。59.关于Spark中RDD(弹性分布式数据集)的描述,错误的是?
A.RDD是不可变的分布式集合
B.RDD通过分区实现并行计算
C.RDD的转换操作是惰性执行的
D.RDD的action操作不会触发计算【答案】:D
解析:RDD特性:不可变(A正确)、分区并行(B正确)、转换操作惰性执行(仅定义逻辑)、action操作触发计算(如count、collect),因此D错误。60.在大数据处理流程中,用于去除数据噪声、填补缺失值的环节是?
A.数据采集
B.数据清洗
C.数据存储
D.数据分析【答案】:B
解析:本题考察大数据处理流程各环节的功能。数据清洗(B选项)是数据预处理的核心步骤,主要任务包括去除重复数据、处理缺失值(如均值填充、删除)、识别并修正异常值(噪声),确保数据质量。数据采集(A选项)是获取原始数据的过程;数据存储(C选项)是将清洗后的数据持久化;数据分析(D选项)是基于清洗后的数据进行统计或挖掘。因此正确答案为B。61.Spark相比MapReduce的主要优势是?
A.基于内存计算,速度更快
B.仅支持批处理任务
C.只能处理结构化数据
D.不支持复杂数据结构【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算(RDD缓存),减少磁盘IO操作,大幅提升批处理速度;B选项错误,Spark同时支持批处理和流处理(StructuredStreaming);C选项错误,Spark支持多种数据结构(如DataFrame、Dataset),且可处理非结构化数据(如文本、JSON);D选项错误,Spark通过RDD、DataFrame等抽象支持复杂数据结构(如嵌套结构、数组)。62.Hadoop生态系统中,负责存储海量数据的分布式文件系统是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop分布式文件系统,负责海量数据的分布式存储;B选项MapReduce是分布式计算框架,C选项YARN是资源管理器,D选项Hive是数据仓库工具,均不负责数据存储。63.Hadoop分布式文件系统(HDFS)的默认数据块大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS核心参数知识点。Hadoop分布式文件系统(HDFS)的默认数据块大小为128MB(可配置),其设计目的是平衡磁盘IO效率与元数据管理开销。选项A(64MB)是HDFS早期版本的默认配置;C(256MB)和D(512MB)因过大导致随机IO开销剧增,不符合实际生产场景需求。64.以下哪种数据库属于列族(Column-Family)数据库?
A.HBase
B.MongoDB
C.Redis
D.MySQL【答案】:A
解析:本题考察NoSQL数据库的类型。列族数据库以HBase为代表,按列族组织数据,适合高写入、低延迟场景;B选项MongoDB是文档型数据库;C选项Redis是键值型数据库;D选项MySQL是关系型数据库。因此正确答案为A。65.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.128MB
B.64MB
C.256MB
D.512MB【答案】:A
解析:本题考察HDFS核心参数知识点。HDFS的块大小默认值为128MB(Hadoop2.x及以后版本),主要为平衡磁盘读写效率与内存利用率。64MB是Hadoop1.x的早期默认值;256MB和512MB为非默认配置或特定场景(如超大规模集群)使用,因此正确答案为A。66.在Hadoop分布式文件系统(HDFS)中,默认情况下一个文件会被存储为多少个副本以保证高可用性?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的核心特性——数据冗余机制。HDFS默认将文件存储为3个副本,这是基于容错性和资源利用率的平衡设计:3个副本既能有效应对单点故障(如一个副本所在节点宕机,剩余副本可继续提供服务),又避免了过多副本导致的存储资源浪费。选项A(1个副本)无冗余能力,无法容错;选项B(2个副本)冗余度不足,单点故障时可能丢失数据;选项D(4个副本)虽增加冗余但超出默认配置且非必要,会浪费存储空间。67.下列关于Spark与MapReduce相比的显著优势,说法错误的是?
A.内存计算
B.DAG执行引擎
C.迭代计算优化
D.仅支持批处理【答案】:D
解析:本题考察Spark的核心优势。Spark相比MapReduce的优势包括:A选项内存计算(Spark将数据缓存在内存中,减少磁盘IO)、B选项DAG执行引擎(支持复杂的管道式操作,优化任务执行顺序)、C选项迭代计算优化(通过内存缓存避免重复计算,迭代效率远高于MapReduce);而D选项错误,Spark不仅支持批处理,还支持流处理(SparkStreaming)、交互式查询(SparkSQL)等多种计算模式,因此“仅支持批处理”是错误描述。68.以下哪个大数据流处理框架采用纯流处理架构,支持事件时间处理和精确一次(Exactly-Once)语义,是实时计算的主流选择?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.ApacheKafkaStreams【答案】:B
解析:本题考察流处理框架特性。Flink是原生流处理框架,基于事件时间语义处理,支持状态管理和精确一次语义,适用于低延迟实时计算;SparkStreaming是微批处理框架(将流数据按批次处理,本质是批处理);Storm是早期实时流处理框架,但在状态管理和语义保证上不如Flink;KafkaStreams是轻量级流处理库,需依赖Kafka。因此正确答案为B。69.以下哪项是Hadoop分布式文件系统(HDFS)的核心作用?
A.分布式数据存储
B.实时流数据处理
C.数据挖掘算法实现
D.分布式任务调度【答案】:A
解析:本题考察Hadoop生态系统核心组件HDFS的功能。HDFS(HadoopDistributedFileSystem)是分布式文件系统,核心作用是在多节点集群中存储海量数据;B选项描述的是流处理框架(如Flink/SparkStreaming)的功能;C选项数据挖掘算法通常由独立工具(如Weka)实现;D选项分布式任务调度是YARN(YetAnotherResourceNegotiator)的职责。70.在Hadoop分布式文件系统(HDFS)中,默认的块大小通常是多少?
A.128MB
B.64MB
C.256MB
D.32MB【答案】:A
解析:本题考察HDFS的基础配置知识点。HDFS默认块大小为128MB(2012年后版本),主要为平衡存储利用率和读写效率。选项B(64MB)是HDFS早期版本的默认配置;选项C(256MB)需手动调整为高容量集群的可选配置,非默认值;选项D(32MB)过小,会导致文件元数据开销过大,不符合HDFS设计目标。71.MapReduce分布式计算框架中,‘Map’阶段的主要作用是?
A.将输入数据分割为键值对,进行并行映射处理
B.对Map输出的中间结果按key排序并合并
C.将数据从分布式存储系统加载到本地内存
D.将最终计算结果聚合并输出到分布式文件系统【答案】:A
解析:本题考察MapReduce的执行流程。MapReduce分为Map和Reduce两个核心阶段:Map阶段负责“分”,将输入数据(如键值对)分解为多个并行任务,对每个数据项进行映射转换(如计算局部结果);Reduce阶段负责“合”,对Map输出的中间结果按key分组、排序并聚合。选项A准确描述Map阶段的“并行映射”功能;B是Reduce阶段的任务,C是数据读取(非Map核心),D是Reduce阶段的输出环节。72.在数据挖掘中,‘根据客户消费行为特征将其自动分为高、中、低价值群体’属于哪种任务?
A.分类(Classification)
B.聚类(Clustering)
C.回归(Regression)
D.关联分析(AssociationAnalysis)【答案】:B
解析:本题考察数据挖掘核心任务的定义。聚类是无监督学习任务,通过特征相似度将数据对象自动分组,无需预先标签。题目中“自动分群体”符合聚类特征。选项A(分类)需已知类别标签(如“高价值”是预定义标签),属于有监督学习;选项C(回归)预测连续值(如销售额);选项D(关联分析)发现变量间关联规则(如“购买A的用户80%也购买B”),均不符合题意。73.数据仓库的核心特征不包括以下哪项?
A.面向主题的
B.集成的
C.易失性的
D.时变的【答案】:C
解析:本题考察数据仓库的定义特征。数据仓库的核心特征是“四性”:面向主题(Subject-oriented)、集成的(Integrated)、非易失的(Non-volatile,即数据一旦写入不可随意修改)、时变的(Time-variant,随时间变化)。选项C的“易失性的”与“非易失性”矛盾,因此错误。74.在大数据数据预处理中,处理缺失值的常用方法不包括以下哪种?
A.删除包含缺失值的记录
B.使用均值/中位数进行插补
C.使用KNN算法进行插补
D.直接忽略缺失值【答案】:D
解析:本题考察数据预处理中缺失值处理的最佳实践。缺失值处理需遵循“减少偏差、保留信息”原则:A正确,当缺失比例低且无特殊业务含义时,删除记录是常用方法;B正确,数值型数据常用均值/中位数插补;C正确,KNN算法通过相似样本的特征值预测缺失值,适用于小比例缺失场景。选项D错误,“直接忽略”会导致数据分布偏差(如某特征缺失值过多时,模型训练会因样本量不足或分布失真而失效),属于不规范的处理方式。75.根据CAP定理,分布式系统中以下哪项组合是无法同时满足的?
A.一致性(Consistency)、可用性(Availability)、分区容错性(Partitiontolerance)
B.一致性、可用性、高吞吐量
C.一致性、分区容错性、低延迟
D.可用性、分区容错性、高并发【答案】:A
解析:本题考察CAP定理知识点。CAP定理指出分布式系统无法同时满足一致性(数据一致)、可用性(服务响应)和分区容错性(网络分区后可用),三者最多满足两项(通常必须选择分区容错性P)。高吞吐量、低延迟等不属于CAP核心要素。因此正确答案为A。76.关于数据仓库(DataWarehouse)和数据湖(DataLake)的描述,正确的是?
A.数据仓库主要存储结构化数据,数据湖仅存储非结构化数据
B.数据仓库用于实时分析,数据湖仅用于离线分析
C.数据仓库面向分析场景,数据湖面向原始数据存储
D.数据仓库支持多源数据整合,数据湖不支持【答案】:C
解析:本题考察数据仓库与数据湖的核心区别。数据仓库(DataWarehouse)是面向分析场景的结构化数据整合平台,支持历史数据查询与BI分析;数据湖(DataLake)是原始数据存储中心,支持结构化、半结构化、非结构化数据的统一存储,便于后续挖掘;A选项错误,数据湖也可存储结构化数据;B选项错误,两者均可用于实时/离线分析;D选项错误,数据湖同样支持多源数据接入(如通过FlinkCDC同步)。77.大数据的5V特征通常指的是以下哪一组?
A.Volume,Velocity,Variety,Veracity,Value
B.Volume,Viscosity,Variety,Veracity,Value
C.Volume,Velocity,Variety,Variability,Value
D.Volume,Velocity,Viscosity,Veracity,Value【答案】:A
解析:本题考察大数据的5V特征知识点。大数据的5V特征是指Volume(容量)、Velocity(速度)、Variety(多样性)、Veracity(真实性)、Value(价值)。选项B中的Viscosity(粘度)是流体力学概念,非大数据特征;选项C中的Variability(可变性)和选项D中的Viscosity(粘度)均为错误替换,因此A为正确答案。78.以下哪种文件格式通常用于大数据场景下的列式存储,以提高查询效率?
A.CSV(逗号分隔值)
B.Parquet(列式存储格式)
C.JSON(JavaScript对象表示法)
D.XML(可扩展标记语言)【答案】:B
解析:本题考察大数据存储格式。Parquet是列式存储格式,按列而非行组织数据,支持高效压缩和复杂类型,可大幅减少IO操作,提升查询分析效率,广泛应用于Hadoop、Spark等大数据生态系统。ACSV和CJSON是行式半结构化格式,查询时需全表扫描;DXML是行式标记语言,同样不适合列式查询,且压缩率和查询效率远低于Parquet。79.关于数据湖(DataLake)的正确描述是?
A.仅存储结构化数据,用于业务分析
B.存储原始数据,支持多种数据类型和处理方式
C.是传统数据仓库的升级,仅存储历史数据
D.只能通过ETL工具访问数据【答案】:B
解析:本题考察数据湖的核心定义。数据湖是存储原始数据(结构化、半结构化、非结构化)的集中式平台,支持多种数据类型(如文本、日志、图像等),并能通过批处理、流处理、AI训练等多种方式处理数据。选项A错误,数据湖不局限于结构化数据;选项C错误,数据湖存储原始数据而非仅历史数据;选项D错误,数据湖数据可通过多种工具(如Spark、Flink、AI框架)直接访问,无需依赖ETL工具。因此正确答案为B。80.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop分布式文件系统,专门用于在集群中存储海量数据;MapReduce是分布式计算框架,负责数据处理;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于数据查询和分析。因此正确答案为A。81.ApacheKafka的主要应用场景是?
A.实时流数据传输与存储
B.分布式文件系统
C.批处理计算框架
D.数据仓库ETL工具【答案】:A
解析:本题考察流处理技术组件Kafka的定位知识点。Kafka是分布式流处理平台,专为高吞吐量的实时消息传递设计,支持消息持久化和实时数据传输;B选项是HDFS的功能;C选项是MapReduce/Spark的批处理定位;D选项是Hive/ETL工具的职责。因此A选项正确。82.在Hadoop分布式文件系统(HDFS)中,默认情况下,一个文件被分成块后,每个块会被存储在多少个数据节点上以保证高可用性?
A.2
B.3
C.4
D.5【答案】:B
解析:本题考察HDFS副本机制知识点。HDFS默认副本数为3,目的是通过冗余存储提升数据可靠性,防止单点故障导致数据丢失。A选项2是部分场景下的非默认配置;C、D选项4和5均高于HDFS默认的冗余策略,因此正确答案为B。83.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的基础架构知识点。HDFS默认块大小为128MB,这一设计是为了平衡磁盘读写效率与内存利用率(小文件过多会增加元数据管理开销,大文件会导致单次IO耗时过长)。选项A(64MB)是早期Hadoop版本的可选配置或特定场景优化值;选项C(256MB)常见于高性能存储集群的优化设置;选项D(512MB)因文件过大可能导致MapReduce任务拆分困难,故非默认值。84.ApacheSpark相比HadoopMapReduce的核心优势主要体现在?
A.基于内存计算,大幅减少磁盘IO操作
B.仅支持批处理任务,不支持实时数据处理
C.必须依赖HDFS存储数据,无法独立运行
D.仅适用于结构化数据处理,对非结构化数据支持弱【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心设计是内存计算(如RDD缓存),避免MapReduce中频繁的磁盘读写,显著提升计算速度;B选项错误,Spark通过StructuredStreaming支持实时处理;C选项错误,Spark可独立运行(如Local模式)或结合其他存储系统;D选项错误,Spark支持JSON、CSV等非结构化/半结构化数据处理。85.Kafka在大数据生态系统中主要承担的角色是?
A.实时计算引擎
B.分布式消息队列
C.批处理框架
D.分布式存储系统【答案】:B
解析:本题考察Kafka的功能定位。Kafka是高吞吐量的分布式消息队列,主要用于在分布式系统中传递数据流,解耦生产者与消费者;Flink/SparkStreaming是实时计算引擎;MapReduce/Spark是批处理框架;HDFS是分布式存储系统。因此正确答案为B。86.Spark中,用于表示分布式数据集的核心抽象是?
A.RDD
B.DataFrame
C.Dataset
D.DStream【答案】:A
解析:本题考察Spark核心概念。RDD(ResilientDistributedDataset)是Spark的核心抽象,是不可变、分区的分布式数据集合,支持转换(如map、filter)和动作(如count、collect)操作,提供容错性和并行计算能力;DataFrame是基于RDD的结构化数据集合,支持SQL查询;Dataset是类型安全的分布式数据集合,结合DataFrame的结构化和RDD的类型安全特性;DStream是SparkStreaming的离散流,本质是RDD的时间序列集合。因此正确答案为A。87.在数据挖掘中,K-means算法主要用于以下哪种任务?
A.分类任务
B.聚类任务
C.回归预测任务
D.关联规则挖掘任务【答案】:B
解析:本题考察数据挖掘算法。K-means是经典的无监督学习聚类算法,将数据点划分到K个不同簇中。分类任务常用决策树、SVM;回归预测常用线性回归;关联规则挖掘常用Apriori算法,因此正确答案为B。88.在数据仓库设计中,以下哪种是常用的维度建模方法?
A.星型模型
B.雪花模型
C.星座模型
D.以上都是【答案】:D
解析:本题考察数据仓库维度建模方法。星型模型以单个事实表为中心,关联多个维度表,结构简单直观;雪花模型是星型模型的扩展,维度表进一步规范化为子表,减少数据冗余;星座模型(事实星座)是多个事实表共享维度表的建模方式,适用于复杂业务场景。三者均为数据仓库维度建模的典型方法,因此正确答案为D。89.ApacheFlink作为流处理框架,其核心特性是?
A.基于内存计算,仅支持批处理
B.低延迟流处理,支持状态管理
C.需固定窗口大小,无法处理动态数据
D.基于SparkRDD模型实现流处理【答案】:B
解析:本题考察Flink的核心特性。Flink是开源流处理框架,支持低延迟的实时流处理(毫秒级延迟),并提供强大的状态管理能力(如KeyedState、WindowState),支持Exactly-Once语义。选项A错误,Flink既支持流处理也支持批处理;选项C错误,Flink窗口大小灵活且支持动态数据处理;选项D错误,Flink采用自己的DataFlow模型,与SparkRDD无关。因此正确答案为B。90.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的核心参数。HDFS默认块大小为128MB(旧版本为64MB),该设计用于平衡数据存储效率与MapReduce任务并行性。选项A是早期版本的默认块大小,选项C和D均大于HDFS标准默认值,因此正确答案为B。91.以下哪个是Hadoop分布式文件系统?
A.HDFS
B.HBase
C.MapReduce
D.YARN【答案】:A
解析:本题考察Hadoop生态系统核心组件。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责存储海量数据;B选项HBase是分布式NoSQL数据库;C选项MapReduce是分布式计算框架;D选项YARN是Hadoop资源管理器。因此正确答案为A。92.Spark作为大数据处理框架,相比MapReduce的主要优势是?
A.支持内存计算,减少磁盘IO
B.仅支持批处理任务,不支持流处理
C.必须依赖HDFS存储数据
D.无法进行复杂的数据清洗操作【答案】:A
解析:Spark的核心优势是内存计算,将中间结果保存在内存中,大幅减少磁盘读写操作,提升处理速度;B错误,Spark同时支持批处理(SparkCore)和流处理(SparkStreaming);C错误,Spark可从多种数据源读取数据(如Hive、Kafka等),不限于HDFS;D错误,Spark提供丰富的Transformation和ActionAPI,支持复杂的数据清洗、转换操作。93.Spark相比MapReduce,其显著优势在于?
A.内存计算,速度更快
B.仅支持批处理任务
C.必须依赖磁盘存储中间结果
D.不支持迭代计算【答案】:A
解析:本题考察Spark与MapReduce的对比知识点。Spark采用内存计算模型,中间结果可缓存于内存,避免MapReduce中大量磁盘I/O操作,因此迭代计算和实时分析速度更快;B选项错误,Spark支持批处理、流处理等多种任务;C选项错误,Spark以内存计算为主,非必须依赖磁盘;D选项错误,Spark擅长迭代计算(如机器学习)。正确答案为A。94.在大数据数据处理流程中,‘先抽取数据,加载到目标系统后再进行转换操作’的模式被称为?
A.ETL(Extract-Transform-Load)
B.ELT(Extract-Load-Transform)
C.ETL+ELT混合模式
D.实时ETL(Extract-Transform-LoadinReal-time)【答案】:B
解析:本题考察ETL与ELT的概念差异。ETL(A选项)是先抽取(Extract)、转换(Transform)、再加载(Load)的传统流程;ELT(B选项)则是先抽取数据,直接加载到目标系统(如数据仓库),再在目标系统中进行转换,因大数据场景下目标系统(如Hadoop、数据仓库)的计算能力更强,ELT可减少数据传输和IO开销。C选项无此标准混合模式;D选项“实时ETL”并非ELT的定义,ELT更侧重批处理场景。95.MapReduce计算框架中,负责将输入数据分割为多个独立分片(Split)并分配给Map任务的阶段是?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Merge阶段【答案】:A
解析:本题考察MapReduce执行流程。Map阶段的核心任务是将输入数据按Split(默认128MB)分割为多个独立数据块,每个数据块由一个Map任务并行处理(通过InputFormat实现分片逻辑)。错误选项分析:B选项Reduce阶段负责对Map输出的中间结果进行分区、排序和合并;C选项Shuffle阶段是Map与Reduce之间的数据传输环节(含分区、排序、合并等操作),不负责输入数据分割;D选项Merge阶段是Reduce端合并Map输出结果的子步骤,非核心输入分割环节。96.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库的分类及典型代表。MongoDB是文档型数据库,以类似JSON的键值对文档形式存储数据,支持动态模式(schema-less),适合存储半结构化数据(如日志、用户信息)。选项A键值型代表为Redis、Memcached;选项B列族型代表为HBase、Cassandra;选项D图数据库代表为Neo4j。因此正确答案为C。97.Spark相比MapReduce的主要优势是?
A.内存计算,减少磁盘IO开销
B.完全依赖磁盘存储中间结果
C.仅支持批处理任务
D.不支持实时计算场景【答案】:A
解析:本题考察主流大数据处理框架对比。Spark的核心优势在于基于内存计算,中间结果直接保存在内存中,避免了MapReduce需频繁读写磁盘的IO瓶颈,因此处理速度远快于MapReduce。选项B错误(Spark优先内存计算);选项C错误(Spark支持批处理和流处理);选项D错误(SparkStreaming支持实时计算)。98.在大数据预处理阶段,对于含有缺失值的数据,以下哪种方法不属于常用的缺失值处理策略?
A.使用均值/中位数填充缺失数值
B.直接删除含有缺失值的记录
C.通过KNN算法基于相似样本预测缺失值
D.忽略缺失值直接进行数据分析【答案】:D
解析:本题考察数据预处理中的缺失值处理知识点。常用策略包括:删除(记录或特征)、填充(均值、KNN、回归等);D选项“忽略缺失值直接分析”会导致数据偏差和统计结果不准确,属于不推荐的做法。A、B、C均为常见且合理的处理方法。因此正确答案为D。99.Spark相比MapReduce,在数据处理上的主要优势是?
A.支持内存计算
B.仅适用于批处理任务
C.实时流处理能力更强
D.高容错性优于MapReduce【答案】:A
解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算(A选项),它将数据缓存在内存中进行迭代计算,大幅减少磁盘I/O操作,显著提升处理速度。MapReduce(B选项)也支持批处理,且两者均具备高容错性(D选项),只是Spark的内存计算效率更高;而实时流处理(C选项)是SparkStreaming的功能,但并非Spark的核心优势,且MapReduce本身不擅长实时流处理。因此正确答案为A。100.ApacheFlink作为流处理框架,其核心技术优势是?
A.仅支持无状态的批处理任务
B.基于磁盘的高延迟计算
C.支持低延迟、高吞吐的有状态流处理
D.完全依赖Spark作为底层引擎【答案】:C
解析:本题考察Flink的技术特点。Flink是开源流处理框架,核心优势是低延迟(毫秒级)、高吞吐,支持有状态流处理(如状态管理、窗口计算);它不依赖Spark,且既支持流处理也支持批处理(通过批处理API)。选项A错误(Flink支持有状态处理),选项B错误(Flink基于内存计算,延迟低),选项D错误(Flink独立运行)。因此正确答案为C。101.Hadoop分布式文件系统(HDFS)默认的副本因子是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的核心特性,正确答案为C。HDFS默认将文件块复制3份以提供容错能力和数据冗余,3个副本既能保证数据可靠性(避免单点故障),又能平衡存储成本与读取效率。选项A(1个副本)无容错能力,数据丢失后无法恢复;选项B(2个副本)容错能力较弱,单点故障仍可能导致数据不可用;选项D(4个副本)会增加存储开销,超出HDFS默认优化的存储效率范围。102.Spark相比MapReduce的主要优势是?
A.仅支持内存计算,不依赖磁盘存储
B.支持多种数据处理模型(批处理、流处理、交互式查询等)
C.必须基于磁盘存储数据,确保数据持久性
D.仅适用于离线批处理场景,无法处理实时数据【答案】:B
解析:本题考察Spark的技术特点。Spark的核心优势是支持多种数据处理模型,包括批处理(SparkCore)、流处理(SparkStreaming)、交互式查询(SparkSQL)等,而MapReduce仅支持批处理。A错误,Spark虽优先内存计算,但也支持磁盘存储;C错误,Spark以内存计算为核心,非必
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年沈阳市东陵区社区工作者招聘笔试参考题库及答案解析
- 碳中和技术集成与应用
- 2026年南京市栖霞区社区工作者招聘笔试模拟试题及答案解析
- 2026年莱芜市莱城区社区工作者招聘考试模拟试题及答案解析
- 2026年省直辖行政单位神农架林区社区工作者招聘笔试参考题库及答案解析
- 羊场疾病预警系统研究
- 第六节 物体的颜色教学设计初中物理八年级全一册(2024)北师大版(2024·李春密)
- 2026年洛阳市廛河回族区社区工作者招聘考试备考试题及答案解析
- 2026年河南省濮阳市社区工作者招聘考试备考试题及答案解析
- 2026年通化市二道江区社区工作者招聘笔试模拟试题及答案解析
- 微量泵故障应急预案
- 老年人截肢术护理
- 再生资源公司介绍
- 上海某高校学生心理健康事件应急干预与支持办法
- 安全生产管理及培训制度电力公司
- 企业联络员岗位职责细则
- 尾矿库安全事故案例
- 质量成本培训课件
- 2025成都铁路局集团笔试题目
- 智能卷帘门PLC控制完整设计方案
- 车间高温烫伤安全培训课件
评论
0/150
提交评论