2026年大数据技术专业综合提升练习题(预热题)附答案详解_第1页
2026年大数据技术专业综合提升练习题(预热题)附答案详解_第2页
2026年大数据技术专业综合提升练习题(预热题)附答案详解_第3页
2026年大数据技术专业综合提升练习题(预热题)附答案详解_第4页
2026年大数据技术专业综合提升练习题(预热题)附答案详解_第5页
已阅读5页,还剩87页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年大数据技术专业综合提升练习题(预热题)附答案详解1.大数据系统中的元数据(Metadata)主要作用是?

A.记录数据的来源、转换和血缘关系

B.对数据进行加密和解密操作

C.实现数据的实时清洗和过滤

D.对海量数据进行压缩存储【答案】:A

解析:本题考察元数据的功能。元数据记录数据的全生命周期信息(来源、转换过程、存储位置等),形成数据血缘关系,帮助理解数据质量和追溯;数据加密属于安全模块,实时清洗是ETL或流处理任务,数据压缩是存储优化技术。因此A正确。2.在大数据处理流程中,用于去除数据噪声、填补缺失值的环节是?

A.数据采集

B.数据清洗

C.数据存储

D.数据分析【答案】:B

解析:本题考察大数据处理流程各环节的功能。数据清洗(B选项)是数据预处理的核心步骤,主要任务包括去除重复数据、处理缺失值(如均值填充、删除)、识别并修正异常值(噪声),确保数据质量。数据采集(A选项)是获取原始数据的过程;数据存储(C选项)是将清洗后的数据持久化;数据分析(D选项)是基于清洗后的数据进行统计或挖掘。因此正确答案为B。3.以下关于数据仓库(DataWarehouse)的描述,正确的是?

A.主要存储结构化数据,面向企业决策分析

B.仅用于存储原始未处理的业务数据

C.数据模型固定,无法支持新业务需求

D.不支持非结构化数据的存储和分析【答案】:A

解析:本题考察数据仓库的核心概念。数据仓库以结构化数据为核心,通过ETL过程整合多源数据,面向企业决策分析场景。B错误,数据仓库存储的是清洗后的结构化数据,而非原始数据;C错误,现代数据仓库支持维度建模等灵活模型,可适应业务变化;D错误,数据仓库通过ETL工具可间接处理非结构化数据(如文本转结构化字段)。4.Hadoop分布式文件系统(HDFS)的默认数据块大小是多少?

A.64MB

B.128MB

C.256MB

D.512MB【答案】:B

解析:本题考察HDFS核心参数知识点。Hadoop分布式文件系统(HDFS)的默认数据块大小为128MB(可配置),其设计目的是平衡磁盘IO效率与元数据管理开销。选项A(64MB)是HDFS早期版本的默认配置;C(256MB)和D(512MB)因过大导致随机IO开销剧增,不符合实际生产场景需求。5.下列哪种流处理框架支持低延迟的实时计算,并提供Exactly-Once语义保证?

A.KafkaStreams

B.SparkStreaming

C.ApacheFlink

D.ApacheStorm【答案】:C

解析:本题考察流处理框架的特性。ApacheFlink是实时计算引擎,基于DAG执行引擎和Checkpoint机制,支持低延迟(毫秒级)和Exactly-Once语义(数据不丢失、不重复);KafkaStreams基于Kafka,但语义通常为At-Least-Once;SparkStreaming是微批处理框架,延迟较高(秒级);Storm是纯实时框架,但语义较弱(At-Most-Once)。因此正确答案为C。6.HadoopYARN(YetAnotherResourceNegotiator)的主要功能是?

A.管理分布式文件系统的元数据

B.负责集群资源的分配与任务调度

C.实现数据仓库的ETL流程

D.提供实时流数据的消息队列服务【答案】:B

解析:本题考察YARN的核心职责。YARN是Hadoop2.x引入的资源管理器,负责集群资源(CPU、内存等)的统一管理、任务调度和资源隔离,为上层计算框架(如MapReduce、Spark)提供资源支持。A选项是HDFSNameNode的功能;C选项属于数据仓库工具(如Hive)的ETL流程;D选项是消息队列(如Kafka)的功能。因此正确答案为B。7.与传统MapReduce相比,Spark的主要优势不包括以下哪项?

A.基于内存计算,处理速度更快

B.支持多种计算模型(批处理、流处理等)

C.仅能进行批处理任务,无法处理实时数据

D.提供丰富的API(如SparkSQL、DataFrame等)【答案】:C

解析:本题考察Spark与MapReduce的技术对比。Spark的核心优势包括:A正确,基于内存计算(而非MapReduce的磁盘IO),大幅提升速度;B正确,Spark支持批处理(SparkCore)、流处理(SparkStreaming)、交互式查询(SparkSQL)等多种场景;D正确,Spark提供DataFrame、Dataset等统一数据抽象API,易用性强。选项C错误,Spark不仅支持批处理,更通过SparkStreaming、StructuredStreaming等模块支持实时流处理,而MapReduce仅能处理离线批处理任务。8.MongoDB属于以下哪种NoSQL数据库模型?

A.键值对(Key-Value)模型

B.文档(Document)模型

C.列族(Column-Family)模型

D.图(Graph)模型【答案】:B

解析:本题考察NoSQL数据库的分类,正确答案为B。MongoDB以JSON格式的“文档”(Document)为基本存储单元,支持嵌套文档和灵活的模式,属于文档模型;A典型代表为Redis、DynamoDB;C代表为HBase、Cassandra;D代表为Neo4j。9.大数据的“4V”特征中,描述数据规模巨大(包括结构化、半结构化和非结构化数据)的是哪个特征?

A.Volume(数据量大)

B.Velocity(数据产生速度快)

C.Variety(数据类型多样)

D.Value(数据价值密度高)【答案】:A

解析:本题考察大数据核心特征知识点。大数据的4V特征中,Volume特指数据规模巨大,涵盖结构化(如数据库表)、半结构化(如XML)和非结构化(如文本、图片)数据的总量;Velocity强调数据产生和处理速度快(如传感器实时数据);Variety指数据来源和格式多样;Value则指数据价值密度低,需通过分析挖掘。因此正确答案为A。10.MongoDB在NoSQL数据库分类中属于以下哪种类型?

A.键值对(Key-Value)型

B.文档型(Document)

C.列族(Column-family)型

D.图数据库(Graph)型【答案】:B

解析:本题考察NoSQL数据库类型分类。MongoDB是典型的文档型数据库,以类JSON的文档(BSON)形式存储数据,支持嵌套结构和灵活查询。A错误(键值对型如Redis,仅存储简单键值对);C错误(列族型如HBase,按列族组织数据);D错误(图数据库如Neo4j,存储实体与关系)。11.MapReduce计算框架中,负责将输入数据分割为多个独立分片(Split)并分配给Map任务的阶段是?

A.Map阶段

B.Reduce阶段

C.Shuffle阶段

D.Merge阶段【答案】:A

解析:本题考察MapReduce执行流程。Map阶段的核心任务是将输入数据按Split(默认128MB)分割为多个独立数据块,每个数据块由一个Map任务并行处理(通过InputFormat实现分片逻辑)。错误选项分析:B选项Reduce阶段负责对Map输出的中间结果进行分区、排序和合并;C选项Shuffle阶段是Map与Reduce之间的数据传输环节(含分区、排序、合并等操作),不负责输入数据分割;D选项Merge阶段是Reduce端合并Map输出结果的子步骤,非核心输入分割环节。12.在数据仓库的维度建模中,用于描述业务事件的表是?

A.维度表

B.事实表

C.宽表

D.雪花表【答案】:B

解析:本题考察数据仓库维度建模的核心概念。事实表存储业务事件的度量值(如销售额、订单量)和关联维度键,是描述业务事件的核心表。选项A(维度表)存储描述性信息(如客户名称、产品类别);选项C(宽表)是星型模型的一种实现形式(非标准术语);选项D(雪花表)是维度表的规范化结构,非业务事件描述表。13.以下哪个框架是基于纯流处理模型设计的实时计算引擎?

A.SparkStreaming

B.ApacheFlink

C.ApacheStorm

D.ApacheKafkaStreams【答案】:B

解析:本题考察流处理框架的核心模型。ApacheFlink是唯一基于纯流处理模型(无批处理阶段)设计的实时计算引擎,支持毫秒级延迟和状态管理。选项A(SparkStreaming)本质是微批处理(将流拆分为小批次处理);选项C(Storm)虽支持实时流处理,但更偏向底层流处理API,未像Flink那样提供统一的流-批处理语义;选项D(KafkaStreams)依赖Kafka作为数据源,但其核心逻辑仍属于轻量级流处理工具,并非独立的“纯流处理框架”。14.Spark相比MapReduce,其显著优势在于?

A.内存计算,速度更快

B.仅支持批处理任务

C.必须依赖磁盘存储中间结果

D.不支持迭代计算【答案】:A

解析:本题考察Spark与MapReduce的对比知识点。Spark采用内存计算模型,中间结果可缓存于内存,避免MapReduce中大量磁盘I/O操作,因此迭代计算和实时分析速度更快;B选项错误,Spark支持批处理、流处理等多种任务;C选项错误,Spark以内存计算为主,非必须依赖磁盘;D选项错误,Spark擅长迭代计算(如机器学习)。正确答案为A。15.Spark相比MapReduce的主要优势不包括以下哪项?

A.基于内存计算,处理速度更快

B.支持迭代计算和交互式查询

C.不支持SQL语法,仅依赖MapReduce编程模型

D.采用DAG执行引擎优化任务执行计划【答案】:C

解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势包括:A项基于内存计算,速度远快于MapReduce的磁盘IO;B项支持迭代计算(如机器学习)和交互式查询(SparkShell);D项通过DAG(有向无环图)引擎优化执行计划,减少冗余计算。而C项错误,Spark通过SparkSQL完全支持SQL语法,且其编程模型不仅限于MapReduce的Map/Reduce函数,支持更灵活的转换操作。因此正确答案为C。16.以下哪个系统通常用于构建实时流处理应用(如实时计算、实时分析)?

A.Kafka

B.Storm

C.Hive

D.HBase【答案】:B

解析:本题考察流处理技术的典型工具。流处理系统需支持低延迟、高吞吐的数据实时处理:B正确,Storm是开源的实时流处理框架,基于“元组(Tuple)”模型,支持毫秒级延迟的实时计算(如实时统计在线用户数)。选项A错误,Kafka是分布式消息队列,主要用于存储和传递流数据(如日志、事件流),自身不直接提供流处理能力;选项C错误,Hive是基于Hadoop的离线数据仓库工具,仅支持批处理查询;选项D错误,HBase是分布式NoSQL数据库,用于海量结构化数据存储,非流处理框架。17.以下哪种文件格式通常用于大数据场景下的列式存储,以提高查询效率?

A.CSV(逗号分隔值)

B.Parquet(列式存储格式)

C.JSON(JavaScript对象表示法)

D.XML(可扩展标记语言)【答案】:B

解析:本题考察大数据存储格式。Parquet是列式存储格式,按列而非行组织数据,支持高效压缩和复杂类型,可大幅减少IO操作,提升查询分析效率,广泛应用于Hadoop、Spark等大数据生态系统。ACSV和CJSON是行式半结构化格式,查询时需全表扫描;DXML是行式标记语言,同样不适合列式查询,且压缩率和查询效率远低于Parquet。18.Hadoop分布式文件系统(HDFS)默认的副本因子是多少?

A.1

B.2

C.3

D.4【答案】:C

解析:本题考察HDFS核心参数知识点。HDFS为保障数据高容错性,默认将每个文件块复制3份并存储在不同节点,以防止单点故障导致数据丢失。选项A(1份)无容错性,选项B(2份)容错性不足,选项D(4份)超出默认设置,因此C为正确答案。19.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?

A.64MB

B.128MB

C.256MB

D.512MB【答案】:B

解析:本题考察HDFS的核心参数。HDFS默认块大小为128MB(旧版本为64MB),该设计用于平衡数据存储效率与MapReduce任务并行性。选项A是早期版本的默认块大小,选项C和D均大于HDFS标准默认值,因此正确答案为B。20.在大数据处理的ETL流程中,字母‘T’代表的操作是?

A.Extract(抽取)

B.Transform(转换)

C.Load(加载)

D.Analyze(分析)【答案】:B

解析:本题考察ETL流程的核心步骤。ETL即Extract(数据抽取)、Transform(数据转换)、Load(数据加载),其中‘T’代表数据转换,包括清洗、整合、格式转换等操作。选项A是‘E’,选项C是‘L’,选项D不属于ETL标准流程,故正确答案为B。21.以下哪个是Hadoop分布式文件系统的核心组件?

A.HDFS

B.MapReduce

C.YARN

D.ZooKeeper【答案】:A

解析:本题考察Hadoop生态系统核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的存储;MapReduce是分布式计算框架,用于并行处理海量数据;YARN是资源管理器,负责集群资源的分配与调度;ZooKeeper是分布式协调服务,提供配置管理、命名服务等。因此正确答案为A。22.Spark相比MapReduce的主要优势在于?

A.基于内存计算,速度更快

B.仅支持批处理任务

C.依赖磁盘存储中间结果

D.不支持复杂数据结构处理【答案】:A

解析:本题考察Spark与MapReduce的核心差异。Spark采用内存计算模型,避免了MapReduce中频繁的磁盘I/O操作,大幅提升计算速度;B错误,Spark同时支持批处理和流处理;C错误,Spark以内存计算为主,中间结果优先存储在内存而非磁盘;D错误,Spark支持丰富的数据结构(如RDD、DataFrame)。因此正确答案为A。23.Spark相比MapReduce,其核心优势在于?

A.基于磁盘的计算模型

B.内存计算框架

C.仅支持批处理

D.只能处理结构化数据【答案】:B

解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势是采用内存计算框架,中间结果暂存内存以减少磁盘IO,大幅提升计算速度。选项A错误(MapReduce才是基于磁盘迭代处理);选项C错误(Spark同时支持批处理和流处理);选项D错误(Spark支持结构化、半结构化和非结构化数据),故正确答案为B。24.以下哪一项不是Hadoop的核心组成部分?

A.HDFS

B.MapReduce

C.YARN

D.Hive【答案】:D

解析:本题考察Hadoop核心组件知识点。Hadoop的核心组成部分为HDFS(分布式文件系统)、MapReduce(分布式计算框架)和YARN(资源管理器),三者共同构成Hadoop生态的基础架构。Hive是基于Hadoop的开源数据仓库工具,用于SQL风格的查询处理,属于Hadoop生态系统的扩展工具而非核心组件。25.以下哪项是数据仓库(DataWarehouse)的核心特征?

A.面向主题

B.实时事务处理

C.高并发读写

D.支持实时查询【答案】:A

解析:本题考察数据仓库基本概念。数据仓库的核心特征包括面向主题(围绕特定业务主题组织数据)、集成性(整合多源数据)、非易失性(数据加载后一般不修改)、时变性(随时间维度分析)。选项B(实时事务处理)是操作型数据库(OLTP)的典型特征;选项C(高并发读写)属于OLTP的性能需求;选项D(支持实时查询)更偏向实时数据仓库或OLAP系统的特性,而非数据仓库的核心定义。因此正确答案为A。26.以下哪个是Hadoop分布式计算框架?

A.HDFS(分布式文件系统)

B.MapReduce(分布式计算框架)

C.YARN(资源管理器)

D.Hive(数据仓库工具)【答案】:B

解析:本题考察Hadoop生态系统核心组件的知识点。Hadoop生态系统中,HDFS(选项A)是分布式文件存储系统,负责数据的持久化存储;YARN(选项C)是分布式资源管理器,负责集群资源调度;Hive(选项D)是基于Hadoop的数据仓库工具,提供类SQL查询接口;而MapReduce(选项B)是Hadoop原生的分布式计算框架,通过Map和Reduce两个阶段实现并行计算。因此正确答案为B。27.星型模型是数据仓库维度建模中的典型结构,其核心特征是?

A.由多个事实表和一个中心维度表组成

B.中心是事实表,周围是维度表

C.仅包含一个事实表和一个维度表

D.所有表通过主键关联【答案】:B

解析:本题考察数据仓库星型模型的结构。星型模型以事实表为中心,周围环绕维度表,维度表通过外键与事实表连接;A错误,星型模型通常只有一个事实表;C错误,维度表数量可多个(如时间、地区等);D错误,星型模型中维度表与事实表通过外键关联,并非所有表都以主键关联。正确答案为B。28.根据CAP定理,分布式系统中以下哪项组合是无法同时满足的?

A.一致性(Consistency)、可用性(Availability)、分区容错性(Partitiontolerance)

B.一致性、可用性、高吞吐量

C.一致性、分区容错性、低延迟

D.可用性、分区容错性、高并发【答案】:A

解析:本题考察CAP定理知识点。CAP定理指出分布式系统无法同时满足一致性(数据一致)、可用性(服务响应)和分区容错性(网络分区后可用),三者最多满足两项(通常必须选择分区容错性P)。高吞吐量、低延迟等不属于CAP核心要素。因此正确答案为A。29.以下关于数据仓库(DW)的描述,正确的是?

A.数据仓库的数据是实时更新的

B.数据仓库通常采用星型或雪花型模型

C.数据仓库只存储当前数据

D.数据仓库的主要操作是事务处理【答案】:B

解析:本题考察数据仓库的核心定义与特性。数据仓库是面向分析的集成化历史数据集合,其模型设计以星型(中心事实表+维度表)或雪花型(维度表层级细分)为主,便于复杂查询和聚合分析。选项A错误,数据仓库采用批处理更新(T+1或更长周期),非实时更新;选项C错误,数据仓库包含历史数据(如过去5年的业务数据),用于趋势分析;选项D错误,数据仓库主要支持查询与分析(OLAP操作),事务处理(OLTP)是数据库的核心功能。30.在分布式系统中,Raft协议主要解决的问题是?

A.数据一致性问题

B.负载均衡问题

C.节点故障检测

D.网络拥塞控制【答案】:A

解析:本题考察分布式系统一致性协议知识点。Raft是一种简化的分布式一致性算法,用于解决分布式系统中多副本数据的一致性问题(如主从节点数据同步);B选项负载均衡由专门的负载均衡算法(如Nginx)或分布式调度框架(如Kubernetes)处理;C选项节点故障检测属于心跳机制或故障转移机制(如ZooKeeper);D选项网络拥塞控制由TCP/IP协议栈或专用网络优化算法处理。正确答案为A。31.SparkStreaming的核心处理模式是?

A.微批处理

B.实时流处理

C.全量批处理

D.内存计算【答案】:A

解析:本题考察SparkStreaming的处理模型。SparkStreaming基于微批处理架构,将数据流分割为小批量(通常1-10秒)进行处理,属于“准实时”处理;而实时流处理是Flink等框架的核心模式;全量批处理是MapReduce的典型场景;内存计算是Spark的底层特性,非处理模式。因此正确答案为A。32.处理连续型数值数据的缺失值时,以下哪种方法最为常用?

A.直接删除包含缺失值的记录

B.使用该字段的均值进行填充

C.使用该字段的众数进行填充

D.使用该字段的最大值进行填充【答案】:B

解析:本题考察大数据数据清洗中的缺失值处理。连续型数值(如温度、销售额)的缺失值处理需保持数据分布特性:均值填充(选项B)是最常用方法,能保留数据的统计特性;众数(选项C)适用于类别型数据(如颜色、性别);直接删除(A)可能导致样本量不足或偏差;最大值(D)会高估数据分布,影响后续分析。33.Spark相比MapReduce的主要优势在于?

A.内存计算

B.磁盘计算

C.批处理模式

D.实时流处理【答案】:A

解析:本题考察Spark与MapReduce的计算模型差异。Spark采用内存计算模型,通过RDD(弹性分布式数据集)实现数据在内存中的多次迭代,避免了MapReduce基于磁盘的多次读写,显著提升计算速度;MapReduce是基于磁盘的批处理框架,速度较慢。Spark支持批处理和流处理,但核心优势是内存计算;实时流处理并非Spark独有的核心优势(如Flink更擅长)。因此正确答案为A。34.以下哪个数据库系统不属于列族(Column-family)存储类型?

A.HBase

B.Cassandra

C.Bigtable

D.MongoDB【答案】:D

解析:本题考察NoSQL数据库类型知识点。列族存储以列族为基本单元,支持高扩展性和稀疏数据存储,HBase、Cassandra、Bigtable均属于典型列族存储。MongoDB是文档型(Document)NoSQL数据库,以JSON/BSON文档格式存储数据,与列族存储结构不同,因此D选项错误。35.数据仓库设计中,哪种模型是将维度表直接与事实表相连,且维度表不进行规范化拆分?

A.星型模型

B.雪花模型

C.星座模型

D.雪花星型混合模型【答案】:A

解析:本题考察数据仓库模型的结构特点。星型模型以事实表为中心,维度表直接与事实表相连,无中间表,结构简单且查询效率高;雪花模型是维度表规范化拆分后的结构(如地理维度表拆分为国家、省、市三级),虽符合范式但查询复杂度增加;C选项“星座模型”是多个事实表共享维度表的设计;D选项非标准术语。因此星型模型符合题意,选A。36.在大数据数据处理流程中,‘先抽取数据,加载到目标系统后再进行转换操作’的模式被称为?

A.ETL(Extract-Transform-Load)

B.ELT(Extract-Load-Transform)

C.ETL+ELT混合模式

D.实时ETL(Extract-Transform-LoadinReal-time)【答案】:B

解析:本题考察ETL与ELT的概念差异。ETL(A选项)是先抽取(Extract)、转换(Transform)、再加载(Load)的传统流程;ELT(B选项)则是先抽取数据,直接加载到目标系统(如数据仓库),再在目标系统中进行转换,因大数据场景下目标系统(如Hadoop、数据仓库)的计算能力更强,ELT可减少数据传输和IO开销。C选项无此标准混合模式;D选项“实时ETL”并非ELT的定义,ELT更侧重批处理场景。37.ApacheKafka主要用于以下哪种场景?

A.分布式批处理计算

B.实时消息传递与事件流处理

C.关系型数据库全量备份

D.分布式文件系统存储【答案】:B

解析:本题考察Kafka的核心定位。Kafka是高吞吐量的分布式消息系统,设计用于实时数据流的发布与订阅,典型场景包括日志收集、实时数据管道、事件驱动架构。选项A(分布式批处理计算)对应Spark、Flink等批处理/流处理框架;选项C(关系型数据库备份)通常使用mysqldump、XtraBackup等工具;选项D(分布式文件系统存储)是HDFS的功能。因此正确答案为B。38.Hadoop生态系统中,负责分布式存储的核心组件是?

A.HDFS

B.YARN

C.MapReduce

D.Hive【答案】:A

解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于存储海量数据;YARN是资源管理器,负责集群资源调度;MapReduce是分布式计算框架;Hive是基于Hadoop的数据仓库工具。因此正确答案为A。39.与MapReduce相比,Spark的主要优势在于?

A.Spark仅支持批处理,不支持流处理

B.Spark采用内存计算,比MapReduce更高效

C.Spark不支持复杂的转换操作,仅支持简单计算

D.Spark的Map阶段需要大量磁盘IO,而MapReduce不需要【答案】:B

解析:本题考察Spark与MapReduce的技术对比知识点。Spark的核心优势是采用内存计算框架,避免了MapReduce基于磁盘的多次IO操作,显著提升计算效率。选项A错误,Spark同时支持批处理和流处理(如SparkStreaming);选项C错误,Spark支持RDD的多种复杂转换操作(如join、groupByKey等);选项D错误,Spark通过内存计算减少磁盘IO,而MapReduce确实依赖磁盘存储中间结果。因此B为正确答案。40.Spark相比MapReduce,在数据处理上的主要优势是?

A.支持内存计算

B.仅适用于批处理任务

C.实时流处理能力更强

D.高容错性优于MapReduce【答案】:A

解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算(A选项),它将数据缓存在内存中进行迭代计算,大幅减少磁盘I/O操作,显著提升处理速度。MapReduce(B选项)也支持批处理,且两者均具备高容错性(D选项),只是Spark的内存计算效率更高;而实时流处理(C选项)是SparkStreaming的功能,但并非Spark的核心优势,且MapReduce本身不擅长实时流处理。因此正确答案为A。41.在数据仓库设计中,用于存储业务事件度量值(如销售额、订单量)的表通常称为?

A.维度表

B.事实表

C.星型模型

D.雪花模型【答案】:B

解析:本题考察数据仓库表类型。事实表存储业务事件的度量数据(数值型),如“销售订单表”中的订单金额、数量等;维度表存储描述性属性(如时间、地区),用于解释事实表的上下文;星型模型和雪花模型是数据仓库的表组织模式(非表类型)。因此正确答案为B。42.Hadoop生态系统中,负责存储海量结构化和半结构化数据的核心分布式文件系统是以下哪一个?

A.MapReduce

B.HDFS

C.YARN

D.Hive【答案】:B

解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统的分布式文件系统,用于存储海量数据;MapReduce是分布式计算框架,负责数据处理逻辑;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于SQL查询。因此正确答案为B。43.在数据挖掘中,K-means算法主要用于以下哪种任务?

A.分类任务

B.聚类任务

C.回归预测任务

D.关联规则挖掘任务【答案】:B

解析:本题考察数据挖掘算法。K-means是经典的无监督学习聚类算法,将数据点划分到K个不同簇中。分类任务常用决策树、SVM;回归预测常用线性回归;关联规则挖掘常用Apriori算法,因此正确答案为B。44.以下哪种系统通常属于联机分析处理(OLAP)系统?

A.电商订单交易系统

B.银行实时转账系统

C.企业财务数据分析平台

D.物联网实时监控系统【答案】:C

解析:本题考察OLAP与OLTP的区别。OLAP(联机分析处理)主要用于数据分析和决策支持,如财务分析、市场趋势分析等;OLTP(联机事务处理)面向业务操作,如电商订单、银行交易、物联网监控等实时事务处理场景。因此企业财务分析平台属于OLAP系统,正确答案为C。45.以下哪种计算框架通常被认为是内存计算,比MapReduce更高效?

A.MapReduce

B.Spark

C.Flink

D.HadoopStreaming【答案】:B

解析:本题考察主流计算框架特性。Spark采用内存计算模型,将中间结果存储在内存中,避免MapReduce的大量磁盘IO操作,迭代计算效率更高。MapReduce(A)依赖磁盘存储中间结果,效率较低;Flink(C)虽也支持内存计算,但题目问“通常被认为更高效”的典型代表是Spark;HadoopStreaming(D)是基于MapReduce的接口工具,非独立计算框架。因此正确答案为B。46.下列关于Spark与MapReduce相比的显著优势,说法错误的是?

A.内存计算

B.DAG执行引擎

C.迭代计算优化

D.仅支持批处理【答案】:D

解析:本题考察Spark的核心优势。Spark相比MapReduce的优势包括:A选项内存计算(Spark将数据缓存在内存中,减少磁盘IO)、B选项DAG执行引擎(支持复杂的管道式操作,优化任务执行顺序)、C选项迭代计算优化(通过内存缓存避免重复计算,迭代效率远高于MapReduce);而D选项错误,Spark不仅支持批处理,还支持流处理(SparkStreaming)、交互式查询(SparkSQL)等多种计算模式,因此“仅支持批处理”是错误描述。47.根据分布式系统的CAP理论,当系统面临网络分区(Partition)时,为保证系统可用性(Availability),必须放弃的特性是?

A.分区容错性(Partitiontolerance)

B.一致性(Consistency)

C.可用性(Availability)

D.原子性(Atomicity)【答案】:B

解析:本题考察CAP理论的核心逻辑。CAP理论中,分区容错性(P)是分布式系统的固有特性(必须支持),因此无法放弃;当网络分区发生时,系统只能在一致性(C)和可用性(A)中选择其一。为保证系统可用(A),必须放弃一致性(C),即系统可能出现数据不一致但仍对外提供服务。D选项“原子性”是事务特性,非CAP理论范畴,故正确答案为B。48.以下哪项是数据仓库(DataWarehouse)的核心特点?

A.面向主题,整合多源数据

B.实时响应业务操作需求

C.直接存储原始业务系统数据

D.仅保留最新时刻的数据快照【答案】:A

解析:本题考察数据仓库的核心特征。数据仓库面向主题(如销售、财务),整合企业多源数据(如业务系统、外部数据),具有非易失性(数据长期存储)和时变性(随时间积累历史数据);而实时响应是OLTP(联机事务处理)的特点,原始数据存储于操作型数据库,数据仓库是经过清洗、整合后的结构化数据。因此正确答案为A。49.HBase属于以下哪种NoSQL数据库类型?

A.文档型

B.列族型

C.键值型

D.图数据库【答案】:B

解析:本题考察NoSQL数据库类型及典型应用。HBase是典型的列族数据库,以列族(ColumnFamily)为基本存储单位,适合海量结构化数据的随机读写。选项A(文档型)如MongoDB,选项C(键值型)如Redis,选项D(图数据库)如Neo4j,均不符合HBase的存储模型,故正确答案为B。50.Hadoop分布式文件系统(HDFS)的默认块大小是多少?

A.64MB

B.128MB

C.256MB

D.512MB【答案】:B

解析:本题考察HDFS的核心配置知识点,正确答案为B。HDFS默认块大小为128MB,这一设置平衡了存储效率和IO效率:较大的块可减少NameNode元数据压力(块数量少),同时避免小文件过多导致的IO频繁问题;而64MB块会增加NameNode内存占用,256MB/512MB则可能降低IO效率(单次读写数据量大,网络传输耗时增加)。51.HBase作为典型的NoSQL数据库,其数据模型属于以下哪种类型?

A.列族数据库

B.文档数据库

C.键值数据库

D.图数据库【答案】:A

解析:本题考察NoSQL数据库类型。HBase基于列族(ColumnFamily)组织数据,核心结构为行键(RowKey)、列族、列限定符(ColumnQualifier),支持稀疏存储与高吞吐量读写;B选项(如MongoDB)以JSON文档为核心;C选项(如Redis)以键值对直接存储;D选项(如Neo4j)以节点-关系图结构存储。52.在数据挖掘中,‘根据客户消费行为特征将其自动分为高、中、低价值群体’属于哪种任务?

A.分类(Classification)

B.聚类(Clustering)

C.回归(Regression)

D.关联分析(AssociationAnalysis)【答案】:B

解析:本题考察数据挖掘核心任务的定义。聚类是无监督学习任务,通过特征相似度将数据对象自动分组,无需预先标签。题目中“自动分群体”符合聚类特征。选项A(分类)需已知类别标签(如“高价值”是预定义标签),属于有监督学习;选项C(回归)预测连续值(如销售额);选项D(关联分析)发现变量间关联规则(如“购买A的用户80%也购买B”),均不符合题意。53.Spark相比MapReduce的主要优势在于?

A.基于内存计算中间结果

B.仅支持批处理任务

C.只能处理实时流数据

D.依赖磁盘存储数据【答案】:A

解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势是采用内存计算中间结果,避免了MapReduce中基于磁盘的IO操作,显著提升计算速度;MapReduce同样支持批处理任务,SparkStreaming可处理实时流数据,而分布式存储是HDFS的功能(非Spark核心优势)。因此A为正确选项。54.Spark相较于MapReduce的主要优势在于?

A.磁盘IO操作更少,计算速度更快

B.仅支持批处理任务,不支持流处理

C.完全依赖磁盘存储中间结果

D.编程模型更复杂,学习成本高【答案】:A

解析:本题考察分布式计算框架的对比。Spark的核心优势是内存计算(将数据缓存在内存中,减少磁盘IO),因此计算速度远快于MapReduce(MapReduce依赖磁盘存储中间结果,多次IO操作导致性能瓶颈)。选项B错误,Spark支持批处理和流处理(SparkStreaming);选项C错误,Spark通过内存缓存减少磁盘依赖;选项D错误,Spark提供了更简洁的API(如DataFrame),编程模型更简单。因此正确答案为A。55.以下哪项是数据集市(DataMart)的典型特征?

A.面向企业级全业务主题的集成数据

B.存储原始业务系统的详细数据

C.通常针对特定部门需求构建

D.由多个独立数据仓库组成【答案】:C

解析:本题考察数据仓库体系中的数据集市概念。数据集市是数据仓库的子集,专注于特定业务部门(如销售、财务)需求,规模小且结构紧凑(C正确)。A是企业级数据仓库特征;B描述的是操作型数据库(OLTP)的原始数据存储;D混淆了数据集市与数据仓库的关系(数据集市从数据仓库提取数据)。因此正确答案为C。56.数据仓库(DataWarehouse)与数据湖(DataLake)的核心区别是?

A.存储的数据类型

B.构建的技术工具

C.数据的更新频率

D.数据的访问速度【答案】:A

解析:本题考察数据仓库与数据湖的概念差异。数据仓库以结构化数据为主,通过ETL(提取-转换-加载)构建面向分析的多维模型;数据湖存储原始数据(结构化、半结构化、非结构化),支持全量数据存储。两者的核心区别在于数据类型(结构化vs多类型),而非构建工具(均可使用多种工具)、更新频率(均以批处理为主)或访问速度(均需优化)。因此正确答案为A。57.下列关于Hive的描述,正确的是?

A.Hive是实时流处理引擎

B.Hive使用HiveQL(HQL)进行查询

C.Hive仅支持结构化数据处理

D.Hive的元数据默认存储在HDFS中【答案】:B

解析:Hive是基于Hadoop的数据仓库工具,通过HiveQL(HQL)实现类SQL查询,B正确。A错误,Hive是批处理工具,实时流处理引擎如Flink;C错误,Hive支持半结构化数据(如JSON);D错误,元数据默认存储在MySQL等关系型数据库。58.K-means聚类算法属于以下哪种机器学习类别?

A.监督学习

B.无监督学习

C.强化学习

D.深度学习【答案】:B

解析:本题考察机器学习算法分类。K-means是典型的无监督学习算法,通过数据自身特征自动划分簇(Cluster),无需人工标注标签。选项A(监督学习)需训练数据带标签(如分类、回归);选项C(强化学习)通过与环境交互学习最优策略(如AlphaGo);选项D(深度学习)是基于神经网络的多层模型,属于监督/无监督学习的子方法。因此正确答案为B。59.以下哪种数据库系统最适合存储非结构化数据(如JSON文档、图片元数据等)?

A.MySQL(关系型数据库)

B.MongoDB(文档型数据库)

C.Redis(键值型数据库)

D.HBase(列族型数据库)【答案】:B

解析:本题考察NoSQL数据库的类型与适用场景。MongoDB作为文档型数据库,采用类似JSON的BSON格式存储数据,天然支持嵌套结构和灵活的非结构化数据。选项A(MySQL)是关系型数据库,依赖表结构,适合结构化数据;选项C(Redis)是键值型数据库,仅支持简单键值对,不支持复杂非结构化数据;选项D(HBase)是列族型数据库,适合海量结构化数据(如时序数据),不直接支持文档型结构。60.以下哪项是Hadoop分布式文件系统(HDFS)的主要功能?

A.分布式数据存储

B.分布式计算任务调度

C.分布式资源管理

D.分布式内存计算【答案】:A

解析:本题考察Hadoop核心组件HDFS的功能。HDFS是Hadoop生态系统的分布式文件系统,主要负责海量数据的分布式存储;B选项“分布式计算任务调度”是YARN的功能;C选项“分布式资源管理”同样属于YARN;D选项“分布式内存计算”是Spark的核心特性。因此正确答案为A。61.在数据仓库的星型模型中,核心组成部分是?

A.多个事实表和多个维度表

B.中心的事实表和周围的维度表

C.中心的维度表和周围的事实表

D.仅包含一个维度表【答案】:B

解析:本题考察数据仓库星型模型特点。星型模型以一个中心事实表为核心,周围连接多个维度表(如时间、用户、产品等),维度表通过外键关联事实表;A错误,星型模型通常只有一个事实表;C错误,维度表是外围组件;D错误,星型模型包含多个维度表。因此正确答案为B。62.在数据仓库的维度建模中,用于存储业务事件度量值(如销售额、订单量)的表是?

A.事实表

B.维度表

C.汇总表

D.明细表【答案】:A

解析:本题考察数据仓库维度建模的基础概念,正确答案为A。事实表是维度建模的核心,记录业务事件的度量值(可量化指标)和关联维度表的外键,例如“销售事实表”包含销售额、订单数量等数值型度量值。选项B(维度表)用于提供上下文描述(如时间、产品、客户维度),不存储度量值;选项C(汇总表)是事实表的聚合结果,非原始度量值存储;选项D(明细表)是事实表的细化记录,本质仍属于事实表的一种,与问题中“度量值存储”的核心描述不符。63.以下哪种数据库属于文档型NoSQL数据库?

A.MySQL

B.MongoDB

C.Redis

D.HBase【答案】:B

解析:MongoDB是典型的文档型NoSQL数据库,以JSON格式存储文档,支持灵活的数据结构;A错误,MySQL是关系型数据库(RDBMS);C错误,Redis是键值型NoSQL数据库;D错误,HBase是列族型NoSQL数据库,适用于海量结构化数据的随机读写。64.数据仓库的核心特性是?

A.面向操作型事务处理

B.面向主题

C.数据实时更新

D.数据冗余度低【答案】:B

解析:本题考察数据仓库的定义与特性。数据仓库是面向主题的(围绕特定业务主题组织数据)、集成的、非易失的、时变的数据集,用于支持管理决策。选项A错误,操作型事务处理是OLTP(联机事务处理)的特点;选项C错误,数据仓库的数据一旦加载后通常不实时更新,以保证分析数据的一致性;选项D错误,数据仓库为提高查询效率,通常会整合冗余数据。因此正确答案为B。65.以下数据库中,属于文档型数据库的是?

A.MongoDB

B.HBase

C.Redis

D.Neo4j【答案】:A

解析:本题考察NoSQL数据库的类型分类。MongoDB是典型的文档型数据库,以JSON/BSON格式存储灵活结构的文档。选项B(HBase)是列族数据库;选项C(Redis)是键值型数据库;选项D(Neo4j)是图数据库,故A正确。66.ApacheFlink与ApacheStorm在流处理中的核心差异在于?

A.Flink支持有状态计算,Storm不支持

B.Flink仅适用于批处理,Storm仅适用于流处理

C.Flink的吞吐量远低于Storm

D.Flink仅处理无界流,Storm仅处理有界流【答案】:A

解析:本题考察流处理框架的核心特性。Flink支持有状态计算(如窗口操作、状态后端管理),Storm是无状态的实时流处理;B选项错误,Flink同时支持流处理和批处理(统一处理引擎);C选项错误,Flink吞吐量更高,适合高并发场景;D选项错误,两者均支持无界流,Storm也可处理有界流(如从文件读取)。因此正确答案为A。67.以下哪种文件格式常用于大数据场景下的列式存储,以提高查询效率?

A.CSV

B.JSON

C.Parquet

D.XML【答案】:C

解析:本题考察大数据存储格式。Parquet是列式存储格式,适合大数据场景下的高效查询(仅读取所需列)和压缩。CSV、JSON、XML均为行式文本格式,查询时需扫描大量无关数据,效率较低。因此正确答案为C。68.在数据仓库中,用于记录业务事件(如销售金额、订单数量等度量值)的表类型是?

A.维度表

B.事实表

C.分层表

D.分区表【答案】:B

解析:本题考察数据仓库表结构。事实表记录业务事件的度量值(如销售额、订单数),并关联维度表提供上下文;维度表(A)用于描述事实表的分析角度(如时间、地区),属于描述性表;分层表(C)和分区表(D)是数据存储优化手段,非表类型分类。因此正确答案为B。69.在数据仓库设计中,星型模型与雪花模型的主要区别在于?

A.事实表的数量

B.维度表是否进行规范化处理

C.度量值的存储单位

D.是否包含事实表【答案】:B

解析:本题考察数据仓库模型设计知识点。星型模型的维度表通常不进行规范化(即直接关联事实表),而雪花模型将维度表进一步规范化,拆分为更小的子维度表(类似雪花的层级结构)。A选项事实表数量与模型类型无关;C选项度量值存储单位不是核心区别;D选项两者均包含事实表。因此正确答案为B。70.MongoDB属于哪种类型的NoSQL数据库?

A.键值对(Key-Value)型

B.文档型(Document)

C.列族(Column-Family)型

D.图(Graph)型【答案】:B

解析:本题考察NoSQL数据库类型知识点。MongoDB以类JSON的BSON格式存储文档,支持复杂嵌套结构,属于文档型数据库。键值型如Redis(仅存储简单键值对);列族型如HBase(按列族组织数据,适用于结构化数据);图型如Neo4j(存储节点与关系数据)。因此正确答案为B。71.K-means聚类算法最典型的应用场景是?

A.客户分群(CustomerSegmentation)

B.预测股票价格走势

C.检测信用卡欺诈交易

D.分析用户评论情感倾向【答案】:A

解析:本题考察K-means算法的应用。K-means是无监督聚类算法,通过相似度度量将数据自动分组,客户分群是典型场景(如电商用户按消费习惯分群)。选项B(时间序列预测)、C(异常检测)、D(情感分析)分别对应ARIMA、孤立森林、NLP分类模型,因此正确答案为A。72.在MapReduce编程模型中,Map函数的输出数据格式是?

A.键值对<key,value>

B.仅键值对中的key

C.仅键值对中的value

D.无序的字节流【答案】:A

解析:本题考察MapReduce工作原理。Map函数的输出是中间结果的键值对<key,value>,经过Shuffle阶段的分区、排序、合并后,由Reduce函数处理。选项B、C仅提取部分数据,不符合MapReduce中间结果格式;选项D(无序字节流)无结构,无法进行后续计算。因此正确答案为A。73.在大数据数据预处理中,对于含有缺失值的数值型特征,以下哪种方法通常不适用?

A.使用均值填充缺失值

B.使用KNN算法基于近邻样本预测填充

C.直接删除缺失值比例超过阈值的样本

D.使用唯一值(如-999)填充所有缺失值【答案】:D

解析:本题考察缺失值处理方法。均值填充(A)、KNN预测(B)和阈值删除(C)是常用策略。D错误,数值型特征使用唯一值(如-999)填充会引入虚假模式,无法反映数据分布规律,可能误导后续分析(如分类算法误判为特殊类别)。正确做法是选择均值、中位数或合理删除无效样本。因此正确答案为D。74.在Hadoop分布式文件系统(HDFS)中,默认情况下,一个文件被分成块后,每个块会被存储在多少个数据节点上以保证高可用性?

A.2

B.3

C.4

D.5【答案】:B

解析:本题考察HDFS副本机制知识点。HDFS默认副本数为3,目的是通过冗余存储提升数据可靠性,防止单点故障导致数据丢失。A选项2是部分场景下的非默认配置;C、D选项4和5均高于HDFS默认的冗余策略,因此正确答案为B。75.MapReduce分布式计算框架的核心设计思想是?

A.分而治之(DivideandConquer)

B.实时流处理

C.内存计算优先

D.数据本地性优化【答案】:A

解析:本题考察MapReduce的核心原理。MapReduce通过将大规模任务分解为多个独立的Map任务(数据分片处理)和Reduce任务(结果汇总),体现“分而治之”的思想。选项B是流处理框架(如Flink/SparkStreaming)的特性,选项C是Spark的优势,选项D是HDFS的优化策略,均不符合MapReduce的核心思想,因此正确答案为A。76.Spark相比MapReduce,其显著优势在于?

A.基于内存计算,速度更快

B.仅支持批处理任务

C.只能处理结构化数据

D.完全依赖HDFS存储数据【答案】:A

解析:本题考察Spark与MapReduce的技术差异。Spark采用内存计算模式,避免MapReduce的磁盘IO瓶颈,因此处理速度更快;B错误,Spark同时支持批处理和流处理;C错误,Spark支持结构化、半结构化及非结构化数据;D错误,Spark可直接使用内存、本地文件等多种存储,不依赖HDFS。77.大数据的5V特征通常指的是以下哪一组?

A.Volume,Velocity,Variety,Veracity,Value

B.Volume,Viscosity,Variety,Veracity,Value

C.Volume,Velocity,Variety,Variability,Value

D.Volume,Velocity,Viscosity,Veracity,Value【答案】:A

解析:本题考察大数据的5V特征知识点。大数据的5V特征是指Volume(容量)、Velocity(速度)、Variety(多样性)、Veracity(真实性)、Value(价值)。选项B中的Viscosity(粘度)是流体力学概念,非大数据特征;选项C中的Variability(可变性)和选项D中的Viscosity(粘度)均为错误替换,因此A为正确答案。78.MongoDB数据库按照NoSQL分类属于以下哪种类型?

A.键值对(Key-Value)数据库

B.列族(Column-Family)数据库

C.文档(Document)数据库

D.图(Graph)数据库【答案】:C

解析:本题考察NoSQL数据库类型。MongoDB以JSON/BSON格式存储文档数据,属于文档型数据库。A选项(如Redis)以简单键值对存储,B选项(如HBase)按列族组织结构化数据,D选项(如Neo4j)专注实体关系图存储,均不符合MongoDB的存储模型。79.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?

A.128MB

B.64MB

C.256MB

D.512MB【答案】:A

解析:本题考察HDFS核心参数知识点。HDFS的块大小默认值为128MB(Hadoop2.x及以后版本),主要为平衡磁盘读写效率与内存利用率。64MB是Hadoop1.x的早期默认值;256MB和512MB为非默认配置或特定场景(如超大规模集群)使用,因此正确答案为A。80.SparkStreaming的核心处理模式是?

A.实时流处理

B.微批处理

C.全内存计算

D.分布式批处理【答案】:B

解析:本题考察流处理框架的技术特点。SparkStreaming基于微批处理(Micro-batch)模型,将流数据按固定时间窗口切割为小批量RDD进行处理;选项A是Flink等流处理框架的典型特征;选项C(全内存计算)是Spark的通用特性,但非SparkStreaming独有;选项D(分布式批处理)属于SparkRDD的基础模式,而非流处理核心。因此正确答案为B。81.以下哪种工具主要用于大数据的离线批处理和SQL查询?

A.Hive

B.HDFS

C.Kafka

D.Flume【答案】:A

解析:本题考察大数据技术栈的工具定位。Hive是基于Hadoop的数据仓库工具,支持类SQL的HQL语法,用于离线批处理和复杂数据分析。选项B(HDFS)是分布式文件系统,选项C(Kafka)是高吞吐消息队列,选项D(Flume)是日志收集工具,均不符合题意,故正确答案为A。82.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?

A.128MB

B.64MB

C.256MB

D.512MB【答案】:A

解析:本题考察HDFS核心参数知识点。HDFS默认块大小为128MB,该设计主要为减少NameNode元数据存储压力并优化数据传输效率。错误选项B(64MB)是Hadoop1.x版本的默认块大小,C(256MB)通常用于大数据存储密度优化的特殊场景,D(512MB)超出HDFS标准配置范围。83.MongoDB数据库属于哪种NoSQL数据库类型?

A.键值数据库

B.列族数据库

C.文档数据库

D.图数据库【答案】:C

解析:本题考察NoSQL数据库分类。MongoDB是典型的文档型数据库,以JSON格式存储半结构化数据,支持复杂查询和嵌套结构。选项A(如Redis)以键值对存储,B(如HBase)以列族组织数据,D(如Neo4j)以图结构存储关系,均与MongoDB特性不符。84.Spark相比MapReduce的主要优势是?

A.支持内存计算,处理速度更快

B.仅支持批处理场景,不支持流处理

C.必须依赖磁盘存储中间结果

D.无法进行复杂数据挖掘算法计算【答案】:A

解析:本题考察Spark与MapReduce的技术差异。Spark的核心优势在于内存计算,中间结果无需频繁写入磁盘,因此处理速度显著快于MapReduce(后者依赖磁盘I/O)。选项B错误,Spark通过StructuredStreaming等组件支持流处理;选项C错误,Spark优先使用内存存储数据;选项D错误,Spark支持复杂算法(如机器学习MLlib)和复杂数据处理。85.在数据仓库维度建模中,最常用的模型是?

A.星型模型

B.雪花模型

C.星座模型

D.星群模型【答案】:A

解析:本题考察数据仓库维度建模知识点。星型模型是维度建模中最常用的结构,以事实表为中心,周围连接多个维度表,结构简单、查询效率高;雪花模型是星型模型的规范化扩展,维度表可进一步拆分为子表,虽数据冗余少但查询复杂;星座模型是多个星型模型的组合,适用于复杂业务场景,非最常用;D选项“星群模型”非标准术语。因此A选项正确。86.以下关于Spark和MapReduce的描述,正确的是?

A.Spark仅支持批处理,MapReduce支持流处理

B.Spark默认使用内存计算,MapReduce以磁盘IO为主

C.Spark不支持迭代计算,MapReduce适合迭代计算

D.Spark的编程模型比MapReduce更复杂【答案】:B

解析:本题考察分布式计算框架的核心差异。Spark的核心优势是内存计算(默认将中间结果缓存于内存,减少磁盘IO),而MapReduce需频繁读写磁盘存储中间结果,故B正确。选项A错误(Spark通过StructuredStreaming支持流处理,MapReduce仅支持批处理);选项C错误(Spark因内存缓存特性,非常适合迭代计算如机器学习);选项D错误(Spark提供RDD、DataFrame等简洁API,编程模型更直观)。87.以下哪种算法属于无监督学习算法?

A.决策树(DecisionTree)

B.K-means聚类算法

C.线性回归(LinearRegression)

D.贝叶斯分类器(NaiveBayes)【答案】:B

解析:本题考察机器学习算法的类别。无监督学习无需标签数据,通过数据内在结构发现规律,K-means是典型的无监督聚类算法,将数据划分为不同簇;A、C、D均为监督学习算法:决策树和贝叶斯用于分类(需标签),线性回归用于回归预测(需标签)。因此选B。88.以下哪种数据库属于文档型NoSQL数据库?

A.MongoDB

B.HBase

C.Redis

D.Cassandra【答案】:A

解析:本题考察NoSQL数据库类型。MongoDB是典型的文档型NoSQL数据库,以JSON格式存储数据,适合非结构化/半结构化数据;B选项HBase是列族型NoSQL数据库;C选项Redis是键值型数据库;D选项Cassandra是分布式列族型数据库。因此正确答案为A。89.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?

A.64MB

B.128MB

C.256MB

D.512MB【答案】:B

解析:本题考察HDFS的核心参数知识点。HDFS的块大小是文件系统的重要参数,默认值为128MB。HDFS通过将大文件分割为固定大小的块,实现数据的并行存储与容错(如副本机制)。选项A(64MB)是HDFS早期版本的块大小,非当前默认;选项C(256MB)和D(512MB)均超出HDFS标准默认配置,通常用于特殊场景。90.Kafka在大数据生态系统中主要扮演的角色是?

A.实时流处理引擎

B.分布式消息队列

C.批处理计算框架

D.分布式存储系统【答案】:B

解析:本题考察Kafka的技术定位。Kafka是高吞吐量的分布式消息系统,用于跨系统传递数据流(如作为Flink/SparkStreaming的数据源);实时流处理引擎是Flink/Storm,批处理框架是MapReduce/Spark,分布式存储是HDFS。因此B为正确选项。91.Hadoop分布式文件系统(HDFS)默认的副本因子是多少?

A.1

B.2

C.3

D.4【答案】:C

解析:本题考察HDFS的核心特性,正确答案为C。HDFS默认将文件块复制3份以提供容错能力和数据冗余,3个副本既能保证数据可靠性(避免单点故障),又能平衡存储成本与读取效率。选项A(1个副本)无容错能力,数据丢失后无法恢复;选项B(2个副本)容错能力较弱,单点故障仍可能导致数据不可用;选项D(4个副本)会增加存储开销,超出HDFS默认优化的存储效率范围。92.Spark相比MapReduce的主要优势是?

A.内存计算,减少磁盘IO开销

B.完全依赖磁盘存储中间结果

C.仅支持批处理任务

D.不支持实时计算场景【答案】:A

解析:本题考察主流大数据处理框架对比。Spark的核心优势在于基于内存计算,中间结果直接保存在内存中,避免了MapReduce需频繁读写磁盘的IO瓶颈,因此处理速度远快于MapReduce。选项B错误(Spark优先内存计算);选项C错误(Spark支持批处理和流处理);选项D错误(SparkStreaming支持实时计算)。93.在数据仓库的维度建模中,以下哪个属于事实表?

A.客户表

B.产品表

C.销售记录表

D.员工表【答案】:C

解析:本题考察数据仓库维度建模的基础概念。事实表记录业务事件及度量值(如销售金额、数量),包含维度表的外键;维度表存储描述性属性(如客户信息、产品分类)。选项A(客户表)、B(产品表)、D(员工表)均为维度表,用于描述事实表的上下文;选项C(销售记录表)包含“销售额”“订单量”等度量值,属于事实表。94.K-means聚类算法属于以下哪种机器学习类型?

A.监督学习

B.无监督学习

C.半监督学习

D.强化学习【答案】:B

解析:本题考察机器学习算法类型。K-means无需标注数据(无监督),通过相似度将数据分组;监督学习需要标签(如分类、回归);半监督学习结合少量标签数据;强化学习通过奖励机制学习策略。因此正确答案为B。95.在Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?

A.64MB

B.128MB

C.256MB

D.512MB【答案】:B

解析:本题考察HDFS的基础配置知识点。HDFS默认块大小为128MB(在Hadoop2.x及之前版本中),这一设计旨在平衡存储效率和读写性能。选项A(64MB)是早期HDFS的可选配置,并非默认值;选项C(256MB)和D(512MB)通常用于特定高性能场景或Hadoop3.x的大文件优化,但不属于默认配置。96.Spark相比传统MapReduce计算框架,其显著优势主要体现在哪里?

A.支持更多的数据处理算法

B.基于内存计算,大幅提升计算速度

C.只能处理批处理任务

D.对硬件资源要求更低【答案】:B

解析:本题考察Spark与MapReduce的核心差异。Spark采用内存计算模式,避免了MapReduce中大量的磁盘IO操作,因此计算速度远快于MapReduce;A选项中两者均支持丰富算法,Spark在算法实现上更灵活但并非主要优势;C选项错误,Spark同时支持批处理和流处理;D选项错误,Spark对内存资源要求更高。因此正确答案为B。97.在大数据数据预处理中,处理缺失值的常用方法不包括以下哪种?

A.删除包含缺失值的记录

B.使用均值/中位数进行插补

C.使用KNN算法进行插补

D.直接忽略缺失值【答案】:D

解析:本题考察数据预处理中缺失值处理的最佳实践。缺失值处理需遵循“减少偏差、保留信息”原则:A正确,当缺失比例低且无特殊业务含义时,删除记录是常用方法;B正确,数值型数据常用均值/中位数插补;C正确,KNN算法通过相似样本的特征值预测缺失值,适用于小比例缺失场景。选项D错误,“直接忽略”会导致数据分布偏差(如某特征缺失值过多时,模型训练会因样本量不足或分布失真而失效),属于不规范的处理方式。98.相比MapReduce,Spark的主要优势在于?

A.批处理能力更强

B.内存计算,迭代效率高

C.仅支持流处理

D.适用于超大规模数据存储【答案】:B

解析:本题考察主流计算框架的对比知识点。MapReduce是Hadoop原生的分布式计算框架,基于磁盘IO实现,迭代计算效率低;Spark(选项B)采用内存计算模式,将数据缓存在内存中,避免频繁磁盘IO,因此在迭代计算(如机器学习)和交互式查询中效率显著高于MapReduce。选项A错误,两者均支持批处理,Spark无明显批处理优势;选项C错误,Spark也支持批处理,实时流处理更依赖Flink;选项D错误,Spark是计算引擎,不直接负责数据存储,数据存储需依赖HDFS等组件。因此正确答案为B。99.ApacheFlink主要用于处理哪种类型的大数据任务?

A.实时流处理任务

B.批处理任务

C.离线数据挖掘任务

D.分布式文件存储任务【答案】:A

解析:本题考察流处理框架特性。Flink是Apache开源的实时流处理引擎,擅长低延迟、高吞吐的实时数据流处理,同时支持批处理任务(统一流批处理)。Spark主要用于批处理,MapReduce也是批处理框架,分布式文件存储由HDFS承担,因此正确答案为A。100.Spark相比MapReduce在计算效率上的主要优势是?

A.内存计算

B.批处理能力

C.分布式存储

D.实时流处理【答案】:A

解析:本题考察Spark与MapReduce的技术差异。Spark的核心设计是基于内存的计算引擎,避免了MapReduce中频繁的磁盘IO操作,大幅提升计算速度;MapReduce也支持批处理但依赖磁盘IO;分布式存储由HDFS提供而非Spark;实时流处理是Flink/Storm等框架的专长,SparkStreaming是其流处理模块但核心优势仍是内存计算。因此正确答案为A。101.Spark相比MapReduce的主要优势是?

A.仅支持内存计算,不依赖磁盘存储

B.支持多种数据处理模型(批处理、流处理、交互式查询等)

C.必须基于磁盘存储数据,确保数据持久性

D.仅适用于离线批处理场景,无法处理实时数据【答案】:B

解析:本题考察Spark的技术特点。Spark的核心优势是支持多种数据处理模型,包括批处理(SparkCore)、流处理(SparkStreaming)、交互式查询(SparkSQL)等,而MapReduce仅支持批处理。A错误,Spark虽优先内存计算,但也支持磁盘存储;C错误,Spark以内存计算为核心,非必须基于磁盘;D错误,Spark支持实时数据处理(如StructuredStreaming)。102.与传统MapReduce相比,ApacheSpark的主要优势在于?

A.基于磁盘计算,适合大规模批处理

B.基于内存计算,减少磁盘IO开销

C.仅支持实时流处理,不支持批处理

D.依赖HDFS存储所有中间结果【答案】:B

解析:本题考察Spark的技术特点。Spark的核心优势是利用内存存储数据和计算,减少磁盘IO操作,从而大幅提升计算速度;MapReduce是基于磁盘的迭代计算,速度较慢。Spark既支持批处理也支持流处理,且依赖内存而非仅依赖HDFS存储中间结果。因此正确答案为B。103.以下哪种数据库属于文档型NoSQL数据库?

A.MongoDB

B.HBase

C.Redis

D.MySQL【答案】:A

解析:本题考察NoSQL数据库类型。MongoDB是典型的文档型数据库,以JSON格式存储数据;HBase是列族型数据库(如Hadoop生态的结构化存储);Redis是键值型内存数据库;MySQL是关系型数据库(非NoSQL)。因此正确答案为A。104.K-means聚类算法的核心特点不包括以下哪项?

A.基于距离的聚类算法

B.需要预先指定簇的数量K

C.对异常值敏感

D.属于层次聚类算法【答案】:D

解析:本题考察数据挖掘算法特性。K-means是划分式聚类算法,基于欧氏距离度量簇内相似度,需预先指定簇数量K,且均值计算易受异常值影响(异常值会拉低均值);而层次聚类(如AGNES、DIANA)通过构建树状结构逐步合并

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论