版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年大数据技术能力高分题库【名校卷】附答案详解1.大数据的4V特征中,体现数据生成和处理速度的是以下哪一项?
A.Volume(数据量大)
B.Velocity(处理速度快)
C.Variety(数据类型多样)
D.Veracity(数据准确性)【答案】:B
解析:本题考察大数据的4V特征知识点。大数据的4V特征中,Velocity(速度)特指数据生成和处理的快速性,包括实时或准实时的数据采集与分析需求。A选项Volume指数据规模庞大,C选项Variety指数据类型多样(结构化、半结构化、非结构化),D选项Veracity指数据的真实性与可靠性。因此正确答案为B。2.在Hadoop分布式文件系统(HDFS)中,负责管理文件元数据(如目录结构、文件信息、块的位置等)的核心节点是?
A.NameNode
B.DataNode
C.SecondaryNameNode
D.ResourceManager【答案】:A
解析:HDFS采用主从架构,NameNode是主节点,负责管理整个文件系统的元数据,包括文件和目录的创建、删除、重命名等操作,以及块的位置信息。DataNode是从节点,负责存储实际的数据块。SecondaryNameNode是辅助节点,主要用于周期性合并FsImage和EditLog,减轻NameNode负担,并非核心元数据管理者。ResourceManager是YARN的资源管理器,与HDFS无关。因此正确答案为A。3.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值对数据库
B.列族数据库
C.文档数据库
D.图数据库【答案】:C
解析:本题考察NoSQL数据库类型。MongoDB以BSON(类似JSON)格式存储文档,支持嵌套结构和灵活模式,属于文档型数据库。选项A(键值对)如Redis,以键值对存储简单数据;选项B(列族)如HBase,按列族组织稀疏数据;选项D(图数据库)如Neo4j,存储节点与关系数据(如社交网络)。4.在数据仓库构建流程中,‘先加载原始数据到目标数据仓库,再进行数据转换’的模式称为?
A.ETL(Extract-Transform-Load)
B.ELT(Extract-Load-Transform)
C.ETL+ELT混合模式
D.LT(Load-Transform)【答案】:B
解析:本题考察ETL与ELT的概念区别。ETL(A选项)是先抽取(Extract)、转换(Transform)、再加载(Load)到数据仓库;ELT(B选项)则是先将原始数据直接加载(Load)到数据仓库,再在仓库内进行转换(Transform),可利用目标端强大计算资源处理大数据量。C选项混合模式非标准术语;D选项LT未涵盖数据抽取环节。因此正确答案为B。5.Spark相比MapReduce的主要改进是?
A.支持内存计算
B.采用分布式存储
C.仅支持批处理模式
D.专注实时流处理【答案】:A
解析:本题考察大数据计算框架技术对比。正确答案为A,Spark的核心优势是基于内存计算,避免了MapReduce中Map/Reduce阶段多次读写磁盘的IO开销,显著提升计算效率。错误选项解释:B选项分布式存储是HadoopHDFS的特性,非Spark独有;C选项MapReduce和Spark均支持批处理,Spark更擅长内存批处理;D选项实时流处理是SparkStreaming的功能之一,但并非Spark相比MapReduce的核心改进。6.Spark与MapReduce相比,最显著的性能优势主要来源于以下哪个特性?
A.基于内存的计算模型
B.仅支持批处理任务
C.依赖分布式存储系统HDFS
D.专门针对实时流处理优化【答案】:A
解析:本题考察主流大数据处理框架的核心差异。Spark通过内存计算避免了MapReduce中频繁的磁盘IO操作,大幅提升计算速度。错误选项分析:B选项错误,MapReduce本身也支持批处理;C选项错误,HDFS是Hadoop生态的分布式存储,并非Spark独有的优势;D选项错误,SparkStreaming可处理流数据,但实时流处理的核心优势(如低延迟)并非Spark的基础特性。7.下列关于数据湖的描述,错误的是
A.数据湖可存储结构化、半结构化和非结构化数据
B.数据湖通常采用ELT(提取-加载-转换)流程处理数据
C.数据湖的核心目标是存储原始数据并支持灵活分析
D.数据湖仅支持面向分析的结构化数据存储,与数据仓库无本质区别【答案】:D
解析:本题考察数据湖与数据仓库的核心区别知识点。数据湖与数据仓库的本质区别在于:数据湖支持存储结构化、半结构化、非结构化等全类型原始数据,而数据仓库以结构化数据为主。选项A、B、C均符合数据湖的特性(支持全类型数据、ELT流程、原始数据存储与分析);选项D错误,数据湖与数据仓库的核心区别在于存储数据类型和处理目标,数据湖并非仅支持结构化数据,且与数据仓库定位不同。故正确答案为D。8.Hadoop生态系统中负责分布式数据存储的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统中负责分布式数据存储的核心组件,采用块(Block)形式存储海量数据并支持高容错性。B选项MapReduce是分布式计算框架,负责并行数据处理;C选项YARN是资源管理器,负责集群资源调度;D选项ZooKeeper是分布式协调服务,用于管理集群元数据和协调分布式任务。因此正确答案为A。9.大数据处理中,解决数据倾斜问题的常用优化手段是?
A.预聚合
B.分库分表
C.使用SparkSQL
D.增加计算节点【答案】:A
解析:本题考察数据倾斜的优化方法,正确答案为A。数据倾斜指某一key的数据量远大于其他key,预聚合可在数据处理前对高频key进行局部聚合,减少数据量;分库分表是分布式存储的扩容手段,SparkSQL不直接解决倾斜问题,增加节点仅能分摊压力,无法从根本上消除倾斜。10.ApacheFlink在流处理中支持的“精确一次(Exactly-Once)”语义的核心目的是?
A.确保每条数据记录仅被处理一次,避免重复或丢失
B.提高数据处理吞吐量,减少任务延迟
C.仅允许批处理任务执行一次,防止重复调度
D.强制所有数据必须经过HDFS持久化存储【答案】:A
解析:本题考察Flink的核心特性。“精确一次”语义通过两阶段提交等机制,确保流处理中每条数据记录在故障恢复后仅被处理一次,避免重复计算或数据丢失;吞吐量和延迟是性能指标,与语义无关;Flink支持流批一体,且“精确一次”不依赖HDFS持久化存储。因此正确答案为A。11.Kafka中,能够保证消息“至少一次”投递的语义是?
A.At-Most-Once(最多一次)
B.At-Least-Once(至少一次)
C.Exactly-Once(恰好一次)
D.Zero-Once(零次)【答案】:B
解析:本题考察Kafka消息投递语义知识点。Kafka中,At-Least-Once通过生产者重试+消费者确认机制实现(消费者可能重复接收消息),默认配置下可达到该语义。选项A(最多一次)是不等待确认的直接发送,可能丢失消息;选项C(恰好一次)需结合事务消息和幂等性消费,实现复杂;选项D非标准语义。12.Hadoop生态系统中,负责分布式存储海量数据的核心组件是?
A.HDFS
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,专为存储海量数据设计,支持高容错、高吞吐量的文件存储;MapReduce是分布式计算框架,负责数据处理;YARN是资源管理器,负责集群资源调度;Hive是基于Hadoop的数据仓库工具,用于数据仓库建模和查询。因此正确答案为A。13.以下哪种算法属于无监督学习?
A.K-means聚类算法
B.支持向量机(SVM)分类算法
C.线性回归预测算法
D.决策树分类算法【答案】:A
解析:本题考察机器学习算法类型。无监督学习无需标签数据,通过数据内在特征分组。K-means是典型无监督聚类算法,通过距离度量划分数据簇。支持向量机(SVM)、线性回归、决策树均需标注数据(如类别标签或数值目标),属于监督学习。正确答案为A。14.MongoDB数据库属于以下哪种NoSQL数据库类型?
A.键值(Key-Value)存储
B.文档(Document)型存储
C.列族(Column-Family)存储
D.图(Graph)存储【答案】:B
解析:本题考察NoSQL数据库的分类。MongoDB以JSON/BSON格式存储文档,支持嵌套结构和灵活模式,属于文档型数据库。选项A(键值存储)如Redis,以键值对直接存储;选项C(列族存储)如HBase,按列族组织数据;选项D(图存储)如Neo4j,用于存储实体关系网络。15.在实时流处理场景中,以低延迟、高吞吐和‘精确一次’(Exactly-Once)语义著称的开源框架是?
A.Storm
B.Flink
C.SparkStreaming
D.KafkaStreams【答案】:B
解析:本题考察实时流处理框架的特性。Flink是Apache顶级项目,以低延迟、高吞吐和‘精确一次’语义为核心优势,支持事件时间窗口、状态管理等复杂流处理逻辑。A选项Storm虽支持实时处理,但语义通常为‘最多一次’或‘至少一次’;C选项SparkStreaming依赖微批处理,语义弱于Flink;D选项KafkaStreams是基于Kafka的轻量级流处理库,功能较Flink更单一。因此正确答案为B。16.在大数据处理中,Spark相较于MapReduce的显著优势主要体现在?
A.支持SQL查询
B.基于内存计算,减少磁盘I/O
C.仅能处理结构化数据
D.只能运行在YARN上【答案】:B
解析:本题考察分布式计算框架的核心特性对比。Spark的核心优势是**基于内存计算**,将中间结果缓存在内存中,避免了MapReduce中频繁的磁盘读写操作(MapReduce需多次Shuffle并写入磁盘),从而大幅提升处理速度。A选项错误,MapReduce可通过Hive、Impala等工具支持SQL查询,并非Spark独有;C选项错误,Spark支持结构化、半结构化(如JSON)、非结构化(如文本)等多种数据类型;D选项错误,Spark可独立运行或基于YARN/Mesos/Kubernetes等集群管理器,并非仅依赖YARN。17.Hadoop分布式文件系统(HDFS)的核心作用是?
A.提供分布式存储服务
B.负责集群资源管理
C.执行分布式计算任务
D.提供分布式协调服务【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop生态系统的分布式文件系统,核心作用是提供海量数据的分布式存储服务。选项B中负责集群资源管理的是YARN(YetAnotherResourceNegotiator);选项C中执行分布式计算任务的是MapReduce或Spark等计算框架;选项D中提供分布式协调服务的是ZooKeeper。因此正确答案为A。18.在分布式数据库中,用于保证数据一致性的经典算法是?
A.Paxos算法
B.Kafka分区机制
C.HBase存储模型
D.MapReduce计算框架【答案】:A
解析:本题考察分布式系统一致性算法。Paxos算法是分布式一致性协议的经典代表,用于解决多副本节点间的数据一致性问题(如ZooKeeper、分布式数据库等场景)。选项B错误,Kafka分区机制是基于分区复制实现高可用,不直接解决一致性;选项C错误,HBase是列式存储数据库,依赖底层HDFS,自身不提供一致性算法;选项D错误,MapReduce是计算模型,与一致性算法无关。19.在实时流处理架构中,常用于解耦生产者和消费者,提供高吞吐量消息传递的中间件是?
A.Kafka
B.HBase
C.Hive
D.Flume【答案】:A
解析:本题考察流处理中间件的功能。Kafka是高吞吐量分布式消息队列,支持生产者/消费者解耦,适合实时数据流;HBase是列式存储数据库,Hive是基于HDFS的数据仓库工具,Flume是日志收集工具(侧重数据采集而非消息传递)。因此选A。20.以下哪个大数据处理框架是专为实时流数据处理设计,具备低延迟和状态管理能力?
A.SparkStreaming(微批处理)
B.Flink(实时流处理)
C.KafkaStreams(微批处理)
D.SparkSQL(批处理查询)【答案】:B
解析:本题考察实时流处理框架特性。SparkStreaming基于微批处理(将流数据切分为小批次),延迟较高;Flink是真正的流处理框架,支持低延迟、状态管理和精确一次语义;KafkaStreams是消息队列Kafka的流处理API,本质是微批处理;SparkSQL主要用于批处理场景的SQL查询。因此正确答案为B。21.Hadoop分布式文件系统(HDFS)的主要功能是?
A.提供分布式数据存储服务
B.负责并行计算任务的调度与资源管理
C.实现离线批处理计算逻辑
D.处理实时流数据的计算与分析【答案】:A
解析:本题考察Hadoop生态系统核心组件功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,核心功能是分布式数据存储与管理;选项B是YARN(资源管理器)的职责;选项C是MapReduce(分布式计算框架)的用途;选项D是SparkStreaming或Flink等流处理框架的功能。因此正确答案为A。22.MongoDB数据库按数据模型分类,属于以下哪种NoSQL类型?
A.键值型(Key-Value)
B.文档型(Document)
C.列族型(Column-Family)
D.图数据库(Graph)【答案】:B
解析:本题考察NoSQL数据库的分类及典型代表。MongoDB以BSON(BinaryJSON)格式存储半结构化文档数据,支持嵌套字段和灵活的模式设计,属于文档型数据库。A错误,键值型数据库(如Redis)仅存储简单键值对,无嵌套结构;C错误,列族型数据库(如HBase)按列族组织数据,适用于海量结构化数据(如时序数据);D错误,图数据库(如Neo4j)以节点和边存储关系数据,与MongoDB的文档模型无关。23.Spark相比传统MapReduce计算框架,最显著的技术优势在于?
A.支持内存计算,减少磁盘IO开销
B.仅适用于批处理场景,无法处理流数据
C.必须依赖HDFS存储所有数据,扩展性差
D.仅支持结构化数据处理,灵活性低【答案】:A
解析:本题考察Spark与MapReduce对比知识点。Spark的核心优势是支持内存计算,可将中间结果缓存在内存中,大幅减少磁盘IO操作,从而显著提升计算速度;MapReduce基于磁盘IO进行数据读写,速度较慢。B选项错误,SparkStreaming支持实时流处理;C选项错误,Spark可从多种数据源读取数据,不限于HDFS;D选项错误,Spark支持结构化、半结构化和非结构化数据处理,灵活性高。因此正确答案为A。24.在Hadoop生态系统中,负责集群资源分配、节点管理和应用程序调度的组件是?
A.HDFS
B.MapReduce
C.YARN
D.HBase【答案】:C
解析:本题考察Hadoop生态系统中YARN的功能。YARN(YetAnotherResourceNegotiator)是Hadoop的资源管理器,负责节点资源监控、应用程序资源分配和任务调度;HDFS负责分布式存储;MapReduce是旧版计算框架;HBase是分布式NoSQL数据库。因此正确答案为C。25.关于HDFS的描述,正确的是?
A.HDFS采用单副本存储以节省存储空间
B.HDFS文件块默认大小为128MB
C.NameNode负责存储实际数据块
D.HDFS仅支持文本格式文件存储【答案】:B
解析:本题考察HDFS的特性。A选项错误,HDFS默认采用3副本机制以提高容错性和可靠性;B选项正确,HDFS文件块(Block)默认大小为128MB,可根据需求调整;C选项错误,NameNode负责存储文件元数据(如目录结构、块位置等),实际数据块由DataNode存储;D选项错误,HDFS支持二进制、文本等多种格式文件存储。因此正确答案为B。26.Hadoop分布式文件系统(HDFS)的默认块大小和副本数分别是?
A.64MB,2副本
B.128MB,3副本
C.256MB,3副本
D.512MB,2副本【答案】:B
解析:本题考察HDFS基础架构知识点。HDFS默认块大小为128MB(可根据集群需求调整),默认副本数为3(用于数据冗余和容错)。选项A中64MB为旧版本默认块大小,C中256MB非默认配置,D中512MB块大小过大且副本数错误,故正确答案为B。27.以下关于SparkRDD的描述,错误的是?
A.RDD是Spark的核心抽象,代表一个不可变的分布式数据集
B.RDD的分区数量在创建后不可修改
C.RDD支持惰性计算,只有在Action操作触发时才会执行计算
D.RDD的转换操作(Transformation)是延迟执行的【答案】:B
解析:本题考察SparkRDD核心特性。RDD的分区特性是可调整的,通过`coalesce`(减少分区)或`repartition`(增加分区)方法可动态修改分区数,因此选项B错误。选项A正确,RDD本质是不可变的分布式数据集;选项C正确,惰性计算是Spark性能优化的关键(仅Action触发真正计算);选项D正确,转换操作仅记录逻辑,不立即执行。28.以下哪项属于大数据实时数据采集工具?
A.Flume
B.Kafka
C.Hive
D.Sqoop【答案】:B
解析:本题考察大数据数据采集工具知识点。Kafka是分布式消息队列,专为实时数据流设计,支持高吞吐和低延迟的数据传输。A选项Flume侧重离线日志聚合;C选项Hive是数据仓库工具,用于批处理分析;D选项Sqoop是关系数据库与Hadoop间的批量数据导入工具。29.以下哪个流处理框架以“事件时间(EventTime)”处理和“精确一次(Exactly-Once)”语义为核心特性?
A.SparkStreaming
B.KafkaStreams
C.ApacheFlink
D.ApacheStorm【答案】:C
解析:ApacheFlink是专为流处理设计的框架,支持事件时间窗口计算和精确一次语义(确保数据处理一致性)。A选项SparkStreaming是微批处理模型,事件时间支持较弱;B选项KafkaStreams依赖Kafka,事件时间处理能力不如Flink;D选项Storm侧重实时处理但缺乏事件时间和精确一次语义。30.以下哪个流处理框架是Apache顶级项目,支持高吞吐低延迟的实时数据处理?
A.ApacheFlink
B.ApacheSparkStreaming
C.ApacheKafkaStreams
D.ApacheStorm【答案】:A
解析:本题考察流处理框架的特性。ApacheFlink是Apache顶级项目,以高吞吐、低延迟、精确一次(Exactly-Once)语义为核心优势,支持事件时间窗口、状态管理和复杂计算。B选项SparkStreaming基于微批处理模型,本质是批处理框架的扩展,延迟较高;C选项KafkaStreams是基于Kafka的轻量级流处理库,功能较单一;D选项Storm虽支持实时处理,但在状态管理和事件时间处理上不如Flink完善。因此正确答案为A。31.在Hadoop生态系统中,负责分布式数据存储的核心组件是
A.MapReduce(分布式计算框架)
B.HDFS(分布式文件系统)
C.YARN(资源管理器)
D.Hive(数据仓库工具)【答案】:B
解析:本题考察Hadoop生态系统核心组件知识点。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,专为大规模数据存储设计,支持高容错性和高吞吐量;选项AMapReduce是分布式计算框架,负责数据处理逻辑;选项CYARN是资源管理系统,调度集群资源;选项DHive是基于Hadoop的SQL工具,用于数据仓库分析。因此负责分布式存储的核心组件为HDFS,正确答案为B。32.MongoDB属于哪种类型的NoSQL数据库?
A.键值型(Key-Value)
B.文档型(Document)
C.列族型(Column-Family)
D.图数据库(Graph)【答案】:B
解析:MongoDB以“文档”(类似JSON)为基本存储单元,属于文档型数据库。A选项键值型如Redis,以键值对存储;C选项列族型如HBase,按列族组织数据;D选项图数据库如Neo4j,以图结构存储节点和关系。33.Spark相比MapReduce的核心优势是?
A.支持SQL查询功能
B.基于内存计算,执行速度更快
C.仅能处理批处理任务
D.仅支持Java语言开发【答案】:B
解析:本题考察大数据计算框架对比。Spark核心设计为内存计算(中间结果存内存而非磁盘),大幅减少IO开销,执行速度远快于MapReduce(依赖磁盘读写)。选项A中SQL查询可通过SparkSQL或Hive实现,非Spark独有;选项C错误,Spark同时支持批处理和流处理;选项D错误,Spark支持Scala、Java、Python等多语言,故正确答案为B。34.Spark相比MapReduce,其主要优势不包括以下哪项?
A.内存计算,减少磁盘I/O
B.支持DAG执行引擎,优化任务依赖
C.仅支持批处理计算
D.丰富的API生态(Scala/Python/Java等)【答案】:C
解析:本题考察Spark核心优势知识点。Spark的优势包括内存计算(减少磁盘I/O,提升速度)、DAG执行引擎(优化任务调度和依赖关系)、多语言API支持(Scala/Python/Java等);而Spark不仅支持批处理,还能通过SparkStreaming(微批处理)、StructuredStreaming(流处理)处理实时数据,因此“仅支持批处理计算”是错误描述。正确答案为C。35.以下哪项是Hadoop分布式文件系统(HDFS)的默认副本系数?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS副本机制知识点。HDFS默认副本系数为3,以平衡数据可靠性与存储成本。A选项1个副本易因单点故障丢失数据;B选项2个副本容错性不足,仍存在数据丢失风险;D选项4个副本会过度消耗存储空间,不符合经济存储原则。36.在大数据ETL流程中,‘将分散的数据源整合,并统一数据格式和编码’属于哪个步骤?
A.抽取(Extract)
B.转换(Transform)
C.加载(Load)
D.清洗(Clean)【答案】:B
解析:本题考察ETL流程的核心步骤。转换(Transform)步骤负责数据整合、格式标准化、编码转换等,确保数据符合目标系统要求。抽取是从源系统获取数据;加载是将处理后的数据写入目标存储;清洗(Clean)是转换的子环节(如去重、缺失值处理),并非独立步骤。正确答案为B。37.Spark作为主流的分布式计算框架,相比MapReduce,其显著的性能优势主要体现在以下哪个方面?
A.支持多种编程语言(Scala/Java/Python等)
B.基于内存计算,减少磁盘I/O操作
C.原生支持SQL查询(通过SparkSQL)
D.提供更高的任务吞吐量(适用于超大规模数据)【答案】:B
解析:本题考察Spark与MapReduce的性能对比知识点。MapReduce基于磁盘存储中间结果,需频繁进行磁盘I/O操作,导致计算效率较低;而Spark的核心优势是基于内存计算,将中间结果暂存于内存中,仅在必要时写入磁盘,大幅减少了磁盘I/O耗时。选项A、C是Spark的功能特性,但并非相比MapReduce的“显著性能优势”;选项D描述不准确,MapReduce在特定场景下也可通过优化实现高吞吐量,而Spark的优势核心是内存计算。因此正确答案为B。38.在Hadoop分布式文件系统(HDFS)中,默认情况下一个文件会被存储为多少个副本以保证高可用性?
A.1个
B.2个
C.3个
D.4个【答案】:C
解析:本题考察HDFS的副本机制知识点。HDFS默认通过`dfs.replication`参数配置文件副本数,默认值为3。选择3个副本可在单节点故障时通过其他副本恢复数据,同时避免过多副本导致的存储资源浪费。选项A(1个副本)无容错能力,数据丢失风险高;选项B(2个副本)容错能力弱于3个,仅能容忍1个节点故障;选项D(4个副本)超出默认配置,且会增加额外存储和网络传输成本。39.ApacheFlink作为流处理框架,其相比其他流处理技术(如SparkStreaming)的核心优势之一是对哪种语义的原生支持?
A.高吞吐率
B.低延迟
C.精确一次(Exactly-Once)语义
D.状态管理能力【答案】:C
解析:本题考察Flink的核心优势。Flink通过Checkpoint机制和两阶段提交协议,能够严格保证数据处理的“精确一次(Exactly-Once)”语义,即数据既不重复处理也不丢失,这是其在实时流处理中区别于其他框架(如SparkStreaming的At-Least-Once)的关键优势。A、B是流处理的通用目标,但非Flink独有的核心优势;D“状态管理”是Flink的能力之一,但“精确一次语义”是其在一致性保障上的标志性特性。40.MongoDB是哪种类型的NoSQL数据库?
A.键值(Key-Value)型
B.列族(Column-Family)型
C.文档(Document)型
D.图(Graph)型【答案】:C
解析:本题考察NoSQL数据库的类型及代表。MongoDB以JSON(BSON)格式存储数据,属于文档型数据库,每个文档是一个独立的数据单元,支持嵌套结构和灵活的模式。A选项键值型如Redis、DynamoDB,以键值对存储;B选项列族型如HBase、Cassandra,按列族组织数据,适合稀疏数据;D选项图数据库如Neo4j,以节点和关系存储复杂网络数据(如社交关系)。MongoDB的核心是文档模型,因此正确答案为C。41.大数据的5V特征不包括以下哪一项?
A.Volume(数量)
B.Velocity(速度)
C.Variety(多样性)
D.Variability(可变性)【答案】:D
解析:本题考察大数据5V核心特征知识点。大数据的5V特征是Volume(数据规模大)、Velocity(处理速度快)、Variety(数据类型多样)、Veracity(数据真实性)、Value(数据价值密度低但价值高)。选项D“Variability(可变性)”并非5V标准特征,属于干扰项。其他选项均为5V的核心组成部分。42.在数据仓库的ETL流程中,“Transform”(转换)步骤的主要作用是?
A.从源系统提取原始数据
B.将处理后的数据加载到目标系统
C.对数据进行清洗、格式转换和计算
D.实时监控数据变化【答案】:C
解析:ETL中,Transform是核心步骤,负责数据清洗(去重、补全)、格式转换(如日期标准化)、计算衍生指标等。A选项是Extract(提取)的功能,B选项是Load(加载)的功能,D选项属于实时数据处理或CDC(变更数据捕获)范畴,非ETL的Transform步骤。43.以下哪种数据脱敏方式适用于开发测试环境,且脱敏后的数据无法恢复原始数据?
A.动态脱敏
B.静态脱敏
C.可逆脱敏
D.字段脱敏【答案】:B
解析:本题考察数据脱敏技术的类型及应用场景。静态脱敏是在数据存储阶段(如生产环境)预先对敏感字段进行不可逆脱敏(如替换为随机字符串、掩码处理),脱敏后的数据可直接用于开发测试环境,且无法恢复原始数据。A错误,动态脱敏是实时脱敏(如查询时替换敏感字段),用于生产环境的实时数据访问;C错误,可逆脱敏通过加密算法实现,脱敏后可恢复原始数据,不适用于测试环境;D错误,“字段脱敏”是脱敏的操作粒度(针对特定字段),非独立类型,与题干描述的“不可逆且用于测试环境”无关。44.在Hadoop分布式文件系统(HDFS)中,默认的副本因子是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS副本机制知识点。HDFS默认副本因子为3,目的是通过多副本实现数据容错(如某节点故障时可从其他节点读取副本)。选项A(1)为单副本,仅适用于特殊场景且非默认;选项B(2)可能在特定配置中使用,但非HDFS默认值;选项D(4)会大幅增加存储成本,不符合HDFS默认设计目标。45.数据湖相比数据仓库,其主要特点不包括以下哪项?
A.支持存储非结构化数据
B.存储原始数据而非预处理数据
C.主要存储结构化数据
D.支持多种数据处理工具集成【答案】:C
解析:本题考察数据湖与数据仓库的核心区别。数据湖的核心特点是存储原始数据(结构化、半结构化、非结构化),支持多种数据类型和工具集成(如A、B、D所述);而数据仓库主要面向结构化数据,通过ETL进行预处理。选项C“主要存储结构化数据”是数据仓库的特点,而非数据湖,因此正确答案为C。46.在Hadoop分布式文件系统(HDFS)中,数据块(Block)的默认副本数是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS核心参数知识点。正确答案为C,HDFS为保证数据可靠性和容错能力,默认将每个数据块存储3个副本,防止单点故障导致数据丢失。错误选项解释:A选项1个副本无法容错,单点故障会直接丢失数据;B选项2个副本容错能力不足,仅能应对1个节点故障;D选项4个副本超出HDFS默认配置标准,属于冗余配置。47.在MapReduce或Spark等分布式计算任务中,以下哪种情况最容易导致数据倾斜?
A.数据中存在大量空值
B.数据中存在大量重复的“热点Key”(如某商品ID被高频访问)
C.数据中存在较多缺失值
D.数据总量过大且分布均匀【答案】:B
解析:本题考察大数据处理中数据倾斜的成因知识点,正确答案为B。数据倾斜指部分计算节点负载过高(如某Reduce任务数据量远超其他),通常由“热点Key”导致——某Key值出现频率极高,所有含该Key的数据被分配到同一节点,造成负载失衡。A、C的空值/缺失值对倾斜影响较小;D中数据分布均匀则不会倾斜。因此选B。48.数据仓库中,ODS层的核心作用是?
A.存储原始业务数据
B.进行数据清洗与转换
C.构建用户画像与标签
D.提供业务分析报表数据【答案】:A
解析:本题考察数据仓库分层结构。ODS(OperationalDataStore)即操作数据存储层,主要作用是直接存储原始业务数据(未经过加工的),为后续清洗、转换提供基础;B选项描述的是DWD层(数据明细层)的功能,C是ADS层(应用服务层),D是业务报表数据。因此正确答案为A。49.在Hadoop分布式文件系统(HDFS)中,为了保证数据可靠性和容错性,默认每个数据块会被复制的次数是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS的副本机制知识点。HDFS为确保数据可靠性,默认将每个数据块复制为3份并存储在不同节点,即使单个节点故障,其他副本仍能维持数据可用性。正确答案为C。错误选项分析:A选项1个副本无冗余,极易因节点故障丢失数据;B选项2个副本在部分故障场景下仍可能失效;D选项4个副本虽可靠性更高,但会造成资源浪费。50.在Hadoop生态系统中,负责分布式文件存储的核心组件是?
A.HDFS(HadoopDistributedFileSystem)
B.MapReduce
C.YARN
D.Hive【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS是Hadoop的分布式文件系统,专为海量数据存储设计,通过多副本机制保证数据可靠性;MapReduce是分布式计算框架,负责数据处理逻辑;YARN是资源管理器,负责集群资源调度;Hive是数据仓库工具,提供SQL查询接口。因此正确答案为A。51.在数据仓库的分层设计中,负责存储原始业务数据、未经任何清洗和转换的数据层是?
A.ODS层
B.DWD层
C.DWS层
D.ADS层【答案】:A
解析:本题考察数据仓库分层知识点。数据仓库典型分层包括:ODS(操作数据存储,存储原始数据,未清洗)、DWD(数据明细层,经过清洗和标准化)、DWS(数据汇总层,多维度聚合)、ADS(应用数据服务层,面向业务应用)。选项B“DWD层”已完成数据清洗,C“DWS层”为汇总层,D“ADS层”为应用输出层,均不符合“原始数据未清洗”的描述。52.数据治理中,元数据管理的核心作用不包括以下哪项?
A.实现数据血缘追踪,记录数据流转路径
B.校验数据质量,识别异常值和缺失值
C.辅助数据安全审计,明确数据访问权限
D.转换数据存储格式,优化数据存储效率【答案】:D
解析:元数据管理的核心是“描述数据的数据”,主要作用包括:记录数据血缘(A正确),帮助理解数据来源和流转;支持数据质量校验(B正确,如通过元数据中的字段定义、业务规则校验数据有效性);辅助数据安全审计(C正确,通过元数据中的数据敏感级别、访问权限配置实现审计)。而数据存储格式转换属于ETL/数据处理工具的功能,元数据仅描述数据结构和来源,不负责执行格式转换操作。因此正确答案为D。53.在Hadoop生态系统中,负责分布式存储的核心组件是?
A.HDFS(HadoopDistributedFileSystem)
B.MapReduce
C.YARN(YetAnotherResourceNegotiator)
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件功能。HDFS是Hadoop的分布式文件系统,通过多副本机制实现数据冗余存储,是大数据分布式存储的核心组件。B选项MapReduce是分布式计算框架,负责并行数据处理;C选项YARN是资源管理器,负责集群资源调度;D选项ZooKeeper是分布式协调服务,用于集群状态管理。因此正确答案为A。54.以下哪种NoSQL数据库类型最适合存储和处理具有高并发读写需求的社交平台用户行为数据(如点赞、评论)?
A.键值对数据库(Key-ValueStore)
B.列族数据库(Column-FamilyStore)
C.文档数据库(DocumentStore)
D.图数据库(GraphDatabase)【答案】:A
解析:本题考察NoSQL数据库的类型与应用场景。键值对数据库(如Redis)通过简单键值映射支持极高并发读写,适合存储结构化、非结构化且访问模式简单的数据。正确答案为A。错误选项分析:B选项错误,列族数据库(如HBase)更适合海量数据列级查询;C选项错误,文档数据库(如MongoDB)并发性能弱于键值对;D选项错误,图数据库(如Neo4j)适合复杂实体关系查询(如社交网络)。55.在大数据实时流处理场景中,Kafka主要用于实现什么功能?
A.分布式文件存储
B.高吞吐量的消息队列
C.关系型数据库的事务管理
D.分布式缓存【答案】:B
解析:本题考察Kafka核心功能知识点。Kafka是分布式消息系统,专为高吞吐量、高可靠性的实时数据流传输设计,广泛用于日志收集、事件流处理等场景。选项A是HDFS的功能;选项C是MySQL等数据库的事务特性;选项D是Redis等缓存系统的功能。56.以下哪项是数据仓库(DataWarehouse)的核心特点?
A.实时性高,支持事务处理
B.面向主题,集成历史数据
C.直接存储原始业务数据
D.支持实时数据写入与更新【答案】:B
解析:本题考察数据仓库特点。数据仓库以“面向主题、集成性、非易失性、时变性”为核心特点:面向主题(围绕业务主题组织数据)、集成性(整合多源数据)、非易失性(数据写入后不轻易修改)、时变性(随时间变化反映历史趋势)。A、D是OLTP(事务处理系统)特点,C是原始数据库特征。因此正确答案为B。57.以下哪一项不属于Hadoop生态系统的核心组件?
A.HDFS
B.MapReduce
C.YARN
D.ApacheFlink【答案】:D
解析:本题考察Hadoop生态系统组成。Hadoop生态系统的核心组件包括分布式文件系统HDFS、分布式计算框架MapReduce、资源管理器YARN等。选项D的ApacheFlink是独立的开源流处理框架,不属于Hadoop生态系统的核心组件。因此正确答案为D。选项A、B、C均为Hadoop生态的核心组件,故排除。58.数据集市(DataMart)在大数据架构中的定位是?
A.企业级综合数据存储与分析平台
B.部门级小型数据仓库,服务特定业务需求
C.实时流数据处理的核心存储系统
D.仅用于存储结构化数据的关系型数据库【答案】:B
解析:数据集市是数据仓库的子集,针对特定业务部门(如销售、财务)构建,提供部门级数据服务;A是企业级数据仓库(EDW)的定义;C选项流数据存储通常由Kafka、FlinkState等实现;D选项数据集市可存储结构化/半结构化数据,且非仅关系型数据库(如MongoDB也可作为数据集市存储)。59.在实时流处理系统中,Kafka的主要作用是?
A.提供分布式计算能力
B.存储实时计算结果
C.作为数据源接收和转发实时数据流
D.负责数据的持久化存储【答案】:C
解析:本题考察实时流处理系统中Kafka的角色。A选项错误,分布式计算能力由Flink、SparkStreaming等框架提供;B选项错误,实时计算结果通常存储于HBase、Redis等存储系统,Kafka不直接负责结果存储;C选项正确,Kafka是高吞吐量消息队列,作为流处理系统的核心数据源,负责接收、存储和转发实时数据流,实现上下游系统的解耦;D选项错误,Kafka虽支持消息持久化,但核心作用是数据传输而非通用持久化存储。因此正确答案为C。60.在Hadoop分布式文件系统(HDFS)中,默认的副本因子(副本数)是多少?
A.1
B.2
C.3
D.4【答案】:C
解析:本题考察HDFS分布式文件系统的核心特性,正确答案为C。HDFS为保证数据可靠性和高可用性,默认将每个文件块(Block)复制3份存储在不同数据节点上,既避免单节点故障导致数据丢失,又通过多副本并行读取提升性能。错误选项分析:A选项1份副本无法应对节点故障;B选项2份副本在双节点故障时仍有风险;D选项4份副本会显著增加存储和IO开销,不符合资源优化设计。61.下列哪种流处理框架以“低延迟、高吞吐、支持Exactly-Once语义”为核心优势,适用于实时数据处理场景?
A.SparkStreaming
B.ApacheFlink
C.ApacheStorm
D.KafkaStreams【答案】:B
解析:本题考察流处理框架特点。ApacheFlink是专为流处理设计的框架,支持低延迟(毫秒级)、高吞吐,且通过Checkpoint机制实现Exactly-Once语义(数据不重复、不丢失),适合实时数据处理。A选项SparkStreaming基于微批处理,存在秒级延迟;C选项Storm虽实时性高但缺乏状态管理;D选项KafkaStreams依赖Kafka且生态较窄。因此正确答案为B。62.ApacheFlink作为实时流处理框架,其核心优势之一是支持的计算语义为?
A.At-Least-Once
B.At-Most-Once
C.Exactly-Once
D.At-Least-Exactly【答案】:C
解析:本题考察实时计算框架Flink的特性知识点,正确答案为C。Flink通过Checkpoint和Savepoint机制实现精确一次(Exactly-Once)语义,确保数据处理的准确性(无重复、无丢失);At-Least-Once(至少一次)是早期SparkStreaming等框架的常见语义(可能重复);At-Most-Once(最多一次)可能导致数据丢失;“At-Least-Exactly”非标准术语。因此选C。63.在大数据处理中,ApacheSpark相比HadoopMapReduce的主要性能优势在于?
A.基于内存计算,减少磁盘IO操作
B.支持更强的批处理能力
C.原生支持分布式存储
D.仅适用于实时流处理场景【答案】:A
解析:本题考察Spark与MapReduce的技术对比。Spark的核心设计是内存计算,通过将数据缓存在内存中进行计算,避免了MapReduce中大量的磁盘IO操作,尤其在迭代计算(如机器学习)中效率显著提升。B错误:两者均支持批处理,MapReduce本身就是经典的批处理框架;C错误:分布式存储由HDFS提供,并非Spark的优势;D错误:Spark既支持批处理(SparkCore)也支持流处理(SparkStreaming),且“仅适用于”表述错误。因此正确答案为A。64.ApacheSpark作为主流大数据处理框架,其核心优势主要体现在?
A.基于内存计算,执行速度快
B.必须依赖分布式文件系统存储数据
C.仅支持实时流处理,不支持批处理
D.只能在磁盘上进行数据计算【答案】:A
解析:Spark的核心特性是内存计算模型,通过缓存数据减少磁盘I/O,大幅提升处理速度;B选项Spark支持多种存储系统(HDFS、S3等),非必须依赖;C选项Spark既支持批处理(SparkBatch)也支持流处理(SparkStreaming);D选项Spark优先使用内存计算,仅在内存不足时落盘,并非“只能磁盘计算”。65.在数据仓库分层架构中,负责存储原始数据经过清洗、标准化后的明细数据的是哪个层级?
A.ODS层(操作数据存储)
B.DWD层(数据明细层)
C.DWS层(数据汇总层)
D.ADS层(应用数据服务层)【答案】:B
解析:本题考察数据仓库分层设计的核心概念。数据仓库分层通常包括:ODS(原始数据层,存储未经处理的原始数据)、DWD(数据明细层,对ODS数据清洗、标准化后的明细数据)、DWS(数据汇总层,基于DWD数据进行聚合计算)、ADS(应用数据服务层,面向业务应用的数据服务)。A选项ODS层仅存储原始数据,未经过清洗;C选项DWS层是汇总数据,而非明细;D选项ADS层是为业务系统提供的最终数据,不负责存储明细数据。66.Hadoop分布式文件系统(HDFS)的核心组件不包括以下哪一项?
A.NameNode
B.DataNode
C.ResourceManager
D.SecondaryNameNode【答案】:C
解析:本题考察HDFS核心组件知识点。HDFS的核心组件包括NameNode(元数据管理)、DataNode(数据存储)和SecondaryNameNode(元数据备份)。而ResourceManager是YARN(YetAnotherResourceNegotiator)的核心组件,负责资源调度和集群管理,不属于HDFS。67.在数据治理中,确保数据在不同系统或版本间保持一致的特性称为?
A.数据准确性
B.数据一致性
C.数据及时性
D.数据完整性【答案】:B
解析:本题考察数据治理中数据质量维度知识点。数据一致性指数据在不同存储、处理系统或版本迭代中保持逻辑一致,例如用户ID在各系统中唯一且关联;数据准确性是指数据真实反映客观事实;数据及时性是指数据更新频率满足业务需求;数据完整性是指数据无缺失、无冗余(或冗余合理)。因此正确答案为B。68.以下关于Spark的描述,错误的是?
A.Spark是基于内存计算的大数据处理框架
B.Spark仅支持批处理任务,不支持流处理
C.Spark支持多种数据源(如HDFS、MySQL、JSON等)
D.Spark通过RDD(弹性分布式数据集)实现分布式计算【答案】:B
解析:本题考察Spark的核心特性。A选项正确,Spark以内存计算为核心优势,相比MapReduce速度提升显著;C选项正确,Spark支持HDFS、MySQL、JSON、Parquet等多种数据源;D选项正确,RDD是Spark的核心抽象,提供分布式数据操作接口;B选项错误,Spark不仅支持批处理,还通过StructuredStreaming、SparkStreaming等模块支持流处理任务,可实时处理数据流。因此错误选项为B。69.Hadoop分布式文件系统(HDFS)的核心作用是?
A.提供分布式存储海量数据的能力
B.实现分布式实时流数据处理
C.负责集群资源的调度与管理
D.执行分布式数据挖掘算法【答案】:A
解析:HDFS是Hadoop生态系统的分布式文件系统,核心功能是通过多节点分布式存储实现海量数据的可靠存储与访问。B选项是SparkStreaming或Flink的流处理功能;C选项是YARN的资源调度职责;D选项属于机器学习或数据挖掘工具(如Mahout)的功能,均非HDFS核心作用。70.ApacheFlink是大数据流处理领域的重要框架,其核心优势不包括以下哪项?
A.支持低延迟的实时流处理
B.提供精确一次(Exactly-Once)语义保证
C.采用微批处理模型提高吞吐量
D.支持高吞吐、低延迟的流数据处理【答案】:C
解析:本题考察Flink流处理框架特点。Flink是原生流处理框架,支持低延迟、高吞吐、精确一次语义;而“微批处理模型”是SparkStreaming的核心特征(将流数据分成小批次处理),并非Flink。因此C选项描述错误,正确答案为C。71.与HadoopMapReduce相比,ApacheSpark的主要优势不包括以下哪项?
A.内存计算
B.DAG执行引擎
C.支持迭代计算
D.优化磁盘IO密集型任务【答案】:D
解析:本题考察Spark与MapReduce的核心差异。Spark的优势包括:①内存计算(减少磁盘IO,提升速度);②DAG执行引擎(有向无环图优化任务依赖关系);③支持迭代计算(如机器学习场景,避免重复读写磁盘)。而MapReduce本身依赖磁盘IO(Map和Reduce阶段多次读写HDFS),Spark通过内存计算减少磁盘操作,因此“优化磁盘IO密集型任务”并非Spark的优势,反而MapReduce更依赖磁盘IO优化。正确答案为D。72.在数据质量管理中,以下哪项不属于数据质量的核心维度?
A.准确性(数据是否正确反映真实情况)
B.完整性(数据是否存在缺失值)
C.可扩展性(数据是否支持未来系统扩展)
D.一致性(数据在不同场景/来源下是否一致)【答案】:C
解析:本题考察数据质量核心维度,正确答案为C。数据质量维度包括准确性、完整性、一致性、及时性等,“可扩展性”是系统架构特性,与数据质量无关。错误选项分析:A、B、D均为数据质量核心维度,分别对应数据正确性、完整性、一致性要求。73.以下哪项是数据仓库的核心特点之一?
A.数据面向具体业务应用(如事务处理)
B.数据随时间变化,保留历史数据(时变性)
C.数据实时存储在内存中,不允许长时间保留(易失性)
D.仅支持结构化数据,无法处理非结构化数据【答案】:B
解析:本题考察数据仓库核心特点知识点。数据仓库的四大核心特点为:面向主题(而非具体应用)、集成性(整合多源数据)、非易失性(数据写入后不轻易修改)、时变性(数据随时间推移积累历史记录)。A选项“面向具体业务应用”是操作型数据库(OLTP)的特点;C选项“内存存储、易失性”与数据仓库非易失性(通常存储在磁盘,数据长期保留)相悖;D选项“仅支持结构化数据”错误,数据仓库可支持结构化、半结构化甚至非结构化数据。因此正确答案为B。74.星型模型是数据仓库维度建模的典型结构,其核心特点是?
A.中心为事实表,周围环绕维度表
B.中心为维度表,周围环绕事实表
C.仅包含单一事实表,无维度表
D.包含多个独立事实表【答案】:A
解析:本题考察星型模型的结构定义,正确答案为A。星型模型以事实表为中心,事实表存储度量值(如销售额、数量),周围环绕多个维度表(如时间、产品、地区),维度表通过外键关联事实表;维度表在中心的是雪花模型的特点,单一表或多事实表均不符合星型模型定义。75.关于数据仓库与数据湖的核心区别,以下说法正确的是?
A.数据仓库主要存储结构化数据,数据湖可存储多格式原始数据
B.数据仓库仅支持批处理分析,数据湖仅支持实时流分析
C.数据仓库的数据无需预处理,数据湖的数据需深度清洗后使用
D.数据仓库的数据生命周期较短,数据湖的数据生命周期较长【答案】:A
解析:本题考察数据仓库与数据湖的概念区别。数据仓库以结构化数据为核心,面向主题集成分析;数据湖则存储原始数据(结构化、半结构化、非结构化),保留数据多样性。选项B错误,两者均支持批处理和实时分析;选项C错误,数据湖也需预处理;选项D错误,数据生命周期由业务需求决定,与存储类型无关。因此正确答案为A。76.在MapReduce编程模型中,Map函数的主要作用是?
A.对输入数据进行分片和映射,生成中间键值对
B.对中间结果进行排序和合并(Shuffle阶段)
C.对最终结果进行聚合计算并输出
D.对数据进行压缩和解压以优化传输效率【答案】:A
解析:本题考察MapReduce核心流程知识点。Map函数负责将输入数据分解为键值对,通过映射规则(如过滤、转换)生成中间结果,是数据处理的源头环节。选项B是Shuffle阶段的核心功能(合并排序);选项C是Reduce函数的作用(聚合中间结果);选项D并非Map函数的职责,MapReduce的压缩主要在输入输出阶段配置,与Map函数无关。77.数据仓库中,存储与业务事件直接相关的可量化数据(如销售额、订单量)的表类型是?
A.维度表
B.事实表
C.宽表
D.星型表【答案】:B
解析:本题考察数据仓库表类型。事实表存储业务事件的度量值(如销售额、订单量),通常包含外键关联维度表。A选项维度表用于存储描述性数据(如客户、产品信息);C选项宽表是冗余存储结构,非标准表类型;D选项星型表是数据仓库模型结构(事实表关联维度表),非表类型。因此正确答案为B。78.在实时大数据处理场景中,以下哪种框架更适合低延迟、高吞吐的流数据处理?
A.ApacheHadoopMapReduce
B.ApacheFlink
C.ApacheSparkStreaming
D.ApacheHive【答案】:B
解析:本题考察实时流处理技术选型。ApacheFlink是专为流处理设计的框架,采用事件驱动模型,支持毫秒级低延迟和高吞吐(每秒百万级事件),并具备状态管理能力。选项A(MapReduce)是批处理框架,延迟高;选项C(SparkStreaming)基于微批处理(类似批处理),延迟通常在秒级;选项D(Hive)是数据仓库工具,主要用于离线分析。79.在数据仓库构建流程中,先将数据从源系统抽取到目标数据仓库,再在数据仓库内部进行转换的流程称为?
A.ETL(抽取-转换-加载)
B.ELT(抽取-加载-转换)
C.ETL+ELT混合流程
D.以上都不是【答案】:B
解析:本题考察ETL/ELT流程定义。ETL是先转换(Transform)再加载(Load),将数据清洗后加载到目标表;ELT是先抽取(Extract)后加载(Load),直接将原始数据加载到目标表再进行转换,可减少源系统计算压力;不存在C选项的混合流程,因此正确答案为B。80.关于Hadoop生态系统,以下哪个组件负责分布式数据存储?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,负责大数据的分布式存储;MapReduce是分布式计算框架,YARN是资源管理器,ZooKeeper是分布式协调服务。因此正确答案为A。81.在分布式数据库系统中,CAP定理指出一个分布式系统最多只能同时满足哪三个特性?
A.一致性(Consistency)、可用性(Availability)、分区容错性(PartitionTolerance)
B.一致性(Consistency)、原子性(Atomicity)、分区容错性(PartitionTolerance)
C.可用性(Availability)、原子性(Atomicity)、分区容错性(PartitionTolerance)
D.一致性(Consistency)、可用性(Availability)、事务性(Transaction)【答案】:A
解析:本题考察CAP定理的核心概念。CAP定理定义分布式系统的三个不可兼得特性:一致性(数据实时一致)、可用性(服务始终可用)、分区容错性(网络分区时系统仍运行)。选项B、C中的原子性是数据库事务特性,与CAP无关;选项D中的事务性不属于CAP定理范畴,CAP仅关注系统架构层面的一致性、可用性和容错性。82.SparkStreaming的核心执行引擎是?
A.DStream
B.ResilientDistributedDataset(RDD)
C.FlinkJobManager
D.KafkaStreams【答案】:B
解析:本题考察SparkStreaming的底层架构。SparkStreaming基于RDD模型,将流数据按微批处理,每个微批对应一个RDD。选项ADStream是SparkStreaming中对流数据的抽象,基于RDD实现;选项CFlinkJobManager是Flink的核心组件,与Spark无关;选项DKafkaStreams是独立流处理框架,非SparkStreaming的执行引擎。83.适用于存储海量非结构化日志数据(如服务器访问日志)的数据库类型是?
A.键值型(如Redis)
B.列族型(如HBase)
C.文档型(如MongoDB)
D.图数据库(如Neo4j)【答案】:C
解析:本题考察NoSQL数据库的适用场景。文档型数据库(如MongoDB)支持半结构化/非结构化数据存储,以JSON/BSON等文档格式灵活存储日志数据,适合存储结构多变的日志。键值型(如Redis)适合简单键值对;列族型(如HBase)适合结构化数据(如时序数据);图数据库(如Neo4j)适合实体关系建模(如社交网络)。因此正确答案为C。84.数据仓库(DataWarehouse)的核心特征不包括以下哪项?
A.面向主题
B.集成性
C.实时性
D.非易失性【答案】:C
解析:数据仓库的核心特征包括:面向主题(围绕业务主题组织数据)、集成性(整合多源数据并消除冲突)、非易失性(数据仅追加不修改,用于历史分析)、时变性(数据随时间积累,反映历史趋势)。“实时性”是OLTP系统(联机事务处理)的典型特征,数据仓库主要用于离线分析和历史趋势挖掘,不强调实时性,因此答案为C。85.以下哪种数据脱敏方法是在数据存储阶段对敏感数据进行处理,以保护数据安全?
A.静态脱敏
B.动态脱敏
C.实时脱敏
D.脱敏算法【答案】:A
解析:本题考察数据脱敏技术的分类。静态脱敏是在数据存储阶段(如ETL过程中)对敏感数据进行脱敏处理,生成脱敏后的数据存储,适用于离线分析场景(A正确);动态脱敏是在数据访问时实时处理(如查询过程中),适用于在线场景;C选项“实时脱敏”属于动态脱敏的一种细分,并非独立分类;D选项“脱敏算法”是脱敏的技术手段而非方法类型。因此正确答案为A。86.在MapReduce分布式计算框架中,负责将输入数据分割为多个并行处理任务的阶段是?
A.Map阶段
B.Reduce阶段
C.Shuffle阶段
D.Combine阶段【答案】:A
解析:本题考察MapReduce工作原理知识点。MapReduce分为Map、Shuffle、Reduce三个核心阶段:Map阶段负责将输入数据分割为mapper任务并行处理,生成中间键值对;Reduce阶段负责聚合Map输出结果;Shuffle阶段负责数据分区和传输;Combine阶段为Map后的局部聚合优化。只有Map阶段负责数据分割与并行处理。87.以下哪项不属于大数据的5V特征?
A.Volume
B.Velocity
C.Variety
D.Storage【答案】:D
解析:大数据的5V特征是指Volume(数据量巨大)、Velocity(数据产生与处理速度快)、Variety(数据类型多样,含结构化、半结构化、非结构化数据)、Veracity(数据真实性与准确性)、Value(数据价值密度低但潜在价值高)。选项A、B、C均为5V特征中的核心要素,而D选项“Storage(存储)”并非5V特征之一,因此答案为D。88.Spark相比MapReduce,在计算性能上的主要优势是?
A.内存计算
B.批处理能力
C.实时流处理
D.数据存储优化【答案】:A
解析:本题考察Spark与MapReduce的技术差异,正确答案为A。Spark的核心设计是基于内存计算,避免了MapReduce中频繁的磁盘IO操作,尤其在迭代计算场景下性能提升显著;MapReduce也支持批处理(但依赖磁盘),SparkStreaming虽支持实时处理但核心优势非实时,数据存储优化不属于计算框架的核心优势。89.在Hadoop生态系统中,负责分布式存储海量数据的核心组件是?
A.Hive
B.HDFS
C.HBase
D.YARN【答案】:B
解析:本题考察Hadoop生态系统核心组件。HDFS(HadoopDistributedFileSystem)是Hadoop分布式文件系统,专为存储海量数据设计,是数据存储层的核心。A选项Hive是数据仓库工具;C选项HBase是分布式NoSQL数据库;D选项YARN是资源管理器。因此正确答案为B。90.在数据仓库中,以下哪类表主要用于记录业务过程中的度量值(如销售额、订单量)和关联维度的外键?
A.事实表
B.维度表
C.宽表
D.汇总表【答案】:A
解析:本题考察数据仓库中表的核心分类。事实表以数值型度量值为核心,通过外键关联维度表,描述业务事件的具体发生情况(如“某订单”对应“用户”“商品”等维度)。错误选项分析:B选项维度表用于描述维度属性(如用户表的“地区”“性别”);C选项宽表通常指整合多维度数据的宽表结构,非标准数据仓库术语;D选项汇总表是事实表的聚合结果,属于事实表的特例而非基础分类。91.Hadoop分布式文件系统(HDFS)中,默认的块(Block)大小是多少?
A.64MB
B.128MB
C.256MB
D.512MB【答案】:B
解析:本题考察HDFS的基础架构知识点。HDFS将文件分割为固定大小的块(Block),默认块大小为128MB。选择该大小的核心原因是:机械硬盘的寻址时间(约10ms)占比较大,128MB的块能有效降低寻址时间在整体IO操作中的占比(提升IO效率),同时避免过小的块导致过多的块管理开销。早期HDFS版本(如0.20.x)块大小为64MB,256MB/512MB因块过大可能增加随机寻址时间占比,降低性能。因此A、C、D错误。92.在大数据分析中,K-means算法主要用于解决什么问题?
A.分类问题(如垃圾邮件识别)
B.聚类问题(如用户分群)
C.预测问题(如销售额预测)
D.关联规则挖掘(如购物篮分析)【答案】:B
解析:本题考察数据挖掘算法应用。K-means是经典的无监督聚类算法,用于将数据点划分为K个不同的簇(Cluster),实现用户分群等场景。A选项分类问题通常用决策树、SVM等;C预测问题用回归算法;D关联规则挖掘用Apriori算法。因此正确答案为B。93.在Hadoop生态系统中,负责分布式数据存储的核心组件是以下哪一项?
A.HDFS
B.MapReduce
C.YARN
D.ZooKeeper【答案】:A
解析:本题考察Hadoop核心组件的功能。HDFS(HadoopDistributedFileSystem)是Hadoop的分布式文件系统,用于在集群中存储大规模数据,支持高容错性和高吞吐量。B选项MapReduce是分布式计算框架,负责数据处理逻辑;C选项YARN是资源管理器,负责集群资源调度;D选项ZooKeeper是分布式协调服务,用于维护配置信息和同步管理。因此正确答案为A。94.以下哪项是数据仓库(DataWarehouse)的典型应用场景?
A.实时处理电商订单交易
B.支持企业级复杂业务分析查询
C.存储原始日志数据不做处理
D.仅支持结构化数据存储【答案】:B
解析:本题考察数据仓库核心特征。数据仓库是面向分析的集成数据集合,用于支持企业级复杂分析查询(如OLAP操作)。A是OLTP(联机事务处理)的应用场景;C错误,数据仓库通常经过ETL/ELT处理,非原始数据;D错误,现代数据仓库可支持半结构化数据(如JSON)。因此正确答案为B。95.大数据系统中,数据脱敏技术的主要目的是?
A.防止数据丢失
B.防止数据泄露
C.提高数据处理速度
D.压缩数据存储【答案】:B
解析:本题考察数据脱敏的核心作用,正确答案为B。数据脱敏通过对敏感信息(如身份证号、手机号)进行变形(如替换、加密),在保留数据可用性的同时避免隐私泄露;防止数据丢失依赖备份与容灾,提高处理速度是计算优化的目标,压缩存储属于数据压缩技术,均非脱敏的目的。96.一致性哈希算法在分布式系统中的主要优势是?
A.避免因节点变化导致的大规模数据迁移
B.提供强一致性保障,确保数据绝对一致
C.显著提高哈希函数的计算速度
D.自动修复数据冗余和副本丢失问题【答案】:A
解析:一致性哈希通过环形空间和虚拟节点减少节点变化时的数据迁移量,仅影响相邻节点的数据;B错误,一致性哈希不保证强一致性(如Paxos/Raft);C错误,哈希计算速度与算法本身复杂度有关,非一致性哈希的核心优势;D错误,数据冗余和副本修复通常由副本机制或分布式存储系统(如HDFS副本)实现。97.在ApacheFlink中,“Exactly-Once”语义的主要作用是?
A.确保数据处理的低延迟,亚秒级响应
B.保证流数据处理中每条记录被精确处理且不多次处理
C.支持动态调整并行度以优化资源利用
D.允许在处理过程中实时更新数据字典【答案】:B
解析:本题考察流处理框架的核心语义。“Exactly-Once”是流处理中的关键特性,确保数据在故障恢复后既不丢失也不重复,每条记录仅被处理一次。选项A描述的是Flink的低延迟窗口特性(如毫秒级处理),与Exactly-Once无关;选项C是Flink的动态资源调度能力;选项D属于元数据更新,与数据处理语义无关。98.下列哪项是ApacheFlink流处理框架的核心特性?
A.基于微批处理,将数据流划分为小批量进行计
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 机电设备安装技术交底方案
- 2026年兽医临床诊断学综合提升测试卷附答案详解(培优A卷)
- 2026年水利知识竞赛综合提升练习题含答案详解(突破训练)
- 2026年计算机文化基础考前冲刺练习题附完整答案详解【网校专用】
- 2026年抗菌药物培训每日一练含完整答案详解(易错题)
- 2026年初级银行从业资格之初级银行管理模拟考试试卷带答案详解(A卷)
- 2026年消防设施操作员之消防设备中级技能-通关题库及答案详解(基础+提升)
- 2026年停车技术大全道能力检测试卷带答案详解(基础题)
- 2026年医院药剂招聘考核考前自测高频考点模拟试题带答案详解(综合题)
- 施工材料采购作业指导书
- 2025年长沙市芙蓉区事业单位真题
- 2026年见证取样员模拟题库讲解附参考答案详解【综合题】
- (一模)青岛市2026年高三年级第一次适应性检测英语试卷(含答案)
- 总承包安全生产管理制度
- 儿科留置针护理实践指南(2025年版)
- 卫星运控技术科普
- 2025年开封大学单招职业技能测试题库附答案
- 招标专员考试题库
- CKD患者心理状态分期评估与干预方案
- 汉语言文学本科专业毕业论文撰写规范要求
- 2026届新高考数学冲刺突破复习新题型研究
评论
0/150
提交评论