版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2025重庆广播电视集团所属企业招聘人工智能工程师解决工程师4人笔试历年典型考点题库附带答案详解(第1套)一、单项选择题下列各题只有一个正确答案,请选出最恰当的选项(共30题)1、在卷积神经网络(CNN)中,以下哪一项操作主要用于减少特征图的空间维度,同时保留关键特征信息?A.卷积运算
B.激活函数
C.池化操作
D.批量归一化2、在机器学习中,以下哪种方法最适用于处理类别不平衡问题?A.增加模型复杂度
B.使用准确率作为评估指标
C.采用F1-score作为评估标准
D.减少训练数据量3、在自然语言处理中,Word2Vec模型的主要目标是什么?A.实现文本分类
B.生成句子的语法树
C.将词语映射为低维稠密向量
D.进行机器翻译4、以下哪种优化算法在训练深度神经网络时能自适应地调整学习率?A.SGD
B.Momentum
C.AdaGrad
D.RMSProp5、在K-means聚类算法中,以下哪项是决定聚类结果的关键因素?A.样本标签
B.距离度量方式
C.激活函数
D.学习率6、在深度学习中,批归一化(BatchNormalization)的主要作用不包括以下哪一项?A.加快模型收敛速度B.降低对初始化的敏感性C.减少内部协变量偏移D.显著减少模型参数量7、以下哪种激活函数容易导致“梯度消失”问题?A.ReLUB.LeakyReLUC.SigmoidD.ELU8、在卷积神经网络中,若输入特征图尺寸为32×32,卷积核大小为5×5,步长为1,无填充,则输出特征图的尺寸是多少?A.28×28B.30×30C.26×26D.32×329、以下关于交叉熵损失函数的描述,错误的是?A.适用于分类任务B.输出概率越接近真实标签,损失值越小C.常与Softmax函数结合使用D.适用于回归任务的损失计算10、在K-means聚类算法中,以下哪项操作不能有效缓解其对初始聚类中心敏感的问题?A.多次运行取最优结果B.使用K-means++初始化C.增加聚类数量KD.结合层次聚类确定初始中心11、在卷积神经网络(CNN)中,以下哪一项操作主要用于降低特征图的空间维度,同时保留重要特征信息?A.卷积操作B.激活函数C.池化操作D.批归一化12、在机器学习中,以下哪种方法常用于解决类别不平衡问题?A.增加模型层数B.使用准确率作为评估指标C.对少数类进行过采样D.减少训练数据总量13、在自然语言处理中,以下哪项技术能够将词语转换为具有语义信息的向量表示?A.One-Hot编码B.TF-IDFC.Word2VecD.PCA14、在支持向量机(SVM)中,使用核函数的主要目的是什么?A.提高训练速度B.降低模型复杂度C.将非线性可分问题转化为线性可分D.减少特征数量15、在梯度下降算法中,学习率设置过大会导致以下哪种后果?A.模型收敛速度变慢B.容易陷入局部最优C.损失函数值震荡甚至发散D.模型泛化能力增强16、在卷积神经网络(CNN)中,池化层的主要作用是什么?A.增加网络的非线性表达能力B.提取图像的边缘特征C.降低特征图的空间维度,减少参数量D.反向传播误差以更新权重17、在机器学习中,以下哪种方法常用于解决过拟合问题?A.增加模型复杂度B.减少训练数据量C.使用Dropout机制D.延长训练迭代次数18、在K-means聚类算法中,初始聚类中心的选择对最终结果有何影响?A.完全不影响结果B.仅影响算法运行速度C.可能导致收敛到局部最优解D.决定聚类类别数量19、以下关于梯度消失问题的描述,正确的是?A.常发生在浅层神经网络中B.导致网络参数更新过快C.多层网络中梯度反向传播时逐渐变小D.可通过增大学习率有效解决20、在自然语言处理中,Word2Vec模型的主要输出是什么?A.句子的语法树结构B.词汇的上下文概率分布C.词的分布式向量表示D.文档的主题向量21、在深度神经网络中,梯度消失问题通常发生在使用哪种激活函数的深层网络中?A.ReLUB.LeakyReLUC.SigmoidD.ELU22、在机器学习中,以下哪种方法主要用于降低模型的方差?A.增加训练样本B.减少特征数量C.引入正则化项D.降低模型复杂度23、在卷积神经网络中,若输入特征图尺寸为32×32,卷积核大小为5×5,步幅为2,无填充,则输出特征图的尺寸是多少?A.14×14B.15×15C.16×16D.17×1724、在K-means聚类算法中,以下哪项是决定聚类结果的关键超参数?A.学习率B.聚类中心数量KC.正则化系数D.迭代次数上限25、在自然语言处理中,Word2Vec模型中的Skip-gram结构主要用于:A.根据上下文预测目标词B.根据目标词预测上下文词C.降维词袋模型表示D.计算词频-逆文档频率26、在卷积神经网络(CNN)中,以下哪个操作主要用于减少特征图的空间维度,同时保留关键信息?A.卷积操作B.激活函数C.池化操作D.批归一化27、在机器学习中,以下哪种方法常用于解决类别不平衡问题?A.增加模型层数B.使用准确率作为唯一评估指标C.对少数类进行过采样D.减少训练数据28、以下哪项是梯度消失问题最常发生的神经网络类型?A.卷积神经网络B.支持向量机C.深层前馈神经网络D.线性回归模型29、在K均值聚类算法中,选择K值的常用方法是?A.交叉验证B.轮廓系数法C.主成分分析D.梯度下降30、下列哪项技术可用于防止深度神经网络的过拟合?A.增加网络宽度B.使用DropoutC.提高学习率D.减少激活函数使用二、多项选择题下列各题有多个正确答案,请选出所有正确选项(共15题)31、在机器学习中,以下关于过拟合的说法哪些是正确的?A.过拟合通常发生在训练数据较少的情况下B.增加模型复杂度有助于缓解过拟合C.采用正则化方法(如L1、L2)可以有效抑制过拟合D.过拟合的模型在训练集上表现差,在测试集上表现好32、以下关于卷积神经网络(CNN)的描述,哪些是正确的?A.卷积层通过共享权重降低参数数量B.池化层可以显著提升图像分类的准确率C.全连接层通常位于CNN的末端用于分类D.CNN仅适用于图像数据,不适用于文本处理33、在自然语言处理中,以下哪些技术可用于文本向量化?A.TF-IDFB.Word2VecC.PCAD.BERT34、以下关于监督学习与无监督学习的说法,哪些是正确的?A.监督学习需要标注数据进行训练B.K-means聚类属于监督学习算法C.无监督学习可用于发现数据的潜在结构D.分类和回归都属于监督学习任务35、在深度学习训练过程中,以下哪些方法可以加快模型收敛?A.使用合适的权重初始化方法B.增加批量大小(batchsize)C.采用学习率衰减策略D.使用梯度裁剪36、在深度学习模型训练过程中,以下哪些方法可以有效缓解过拟合问题?A.增加模型的网络层数和神经元数量B.使用Dropout技术C.采用数据增强(DataAugmentation)D.引入L1或L2正则化37、关于卷积神经网络(CNN)中的池化层,下列说法正确的是?A.最大池化能够保留纹理等显著特征B.平均池化常用于减少特征图尺寸C.池化操作具有可学习的参数D.池化层能有效降低模型计算量38、下列关于梯度下降算法的描述,哪些是正确的?A.随机梯度下降(SGD)每次使用一个样本更新参数B.Adam优化器结合了动量和自适应学习率机制C.学习率过大可能导致损失函数震荡不收敛D.批量梯度下降(BGD)收敛速度快且内存占用小39、在自然语言处理任务中,以下哪些属于词嵌入(WordEmbedding)技术的优点?A.将词语映射为低维稠密向量B.能捕捉词语间的语义相似性C.解决传统one-hot表示的高维稀疏问题D.可直接用于句子长度分类,无需额外处理40、以下关于监督学习与无监督学习的说法,哪些是正确的?A.监督学习需要标注数据进行模型训练B.K-means聚类是一种监督学习方法C.无监督学习可用于发现数据潜在结构D.分类和回归任务属于监督学习范畴41、在深度学习模型训练过程中,以下哪些方法可以有效缓解过拟合现象?A.增加训练数据量B.使用Dropout层C.提高模型复杂度D.引入L1或L2正则化E.早停法(EarlyStopping)42、在自然语言处理任务中,以下关于词嵌入(WordEmbedding)技术的描述正确的是?A.Word2Vec能够捕捉词语间的语义相似性B.One-hot编码具有密集低维特性C.GloVe通过全局词共现矩阵进行训练D.BERT生成上下文无关的词向量E.词嵌入可作为下游任务的特征输入43、以下关于卷积神经网络(CNN)结构特点的描述,哪些是正确的?A.卷积层通过滑动窗口提取局部特征B.池化层可减少参数量并保留重要信息C.全连接层通常位于网络前端D.多通道卷积核可处理彩色图像E.CNN适用于序列数据建模,优于RNN44、在机器学习项目中,以下哪些操作属于数据预处理的关键步骤?A.缺失值填充B.特征标准化C.类别标签编码D.模型超参数调优E.异常值检测与处理45、关于监督学习与无监督学习的区别,以下说法正确的是?A.监督学习需要标注数据B.无监督学习可用于聚类分析C.支持向量机属于无监督学习算法D.主成分分析(PCA)是一种降维方法E.两者均可用于预测任务三、判断题判断下列说法是否正确(共10题)46、在神经网络训练过程中,批量归一化(BatchNormalization)的主要作用是加速模型收敛并降低对初始化的敏感性。A.正确B.错误47、在支持向量机(SVM)中,使用高斯核函数可以有效处理非线性分类问题。A.正确B.错误48、准确率(Accuracy)是评估分类模型性能的唯一可靠指标,适用于所有数据分布场景。A.正确B.错误49、卷积神经网络(CNN)中的池化层不包含可训练参数,其主要功能是降维和增强特征的平移不变性。A.正确B.错误50、梯度消失问题通常发生在使用ReLU激活函数的深层神经网络中。A.正确B.错误51、在卷积神经网络中,池化层的主要作用是降低特征图的空间维度,同时保留重要特征信息。A.正确B.错误52、在机器学习中,过拟合是指模型在训练集上表现差,而在测试集上表现好。A.正确B.错误53、K均值聚类算法是一种有监督学习方法,需要预先提供样本标签。A.正确B.错误54、梯度消失问题常发生在深层神经网络中,导致前层权重更新缓慢甚至停滞。A.正确B.错误55、Precision(精确率)是指模型预测为正类的样本中,实际为正类的比例。A.正确B.错误
参考答案及解析1.【参考答案】C【解析】池化操作(如最大池化或平均池化)通过下采样降低特征图的空间尺寸,减少参数数量和计算量,同时保留主要特征,增强模型的平移不变性。卷积运算用于提取特征,激活函数引入非线性,批量归一化用于稳定训练过程,但不具备降维作用。因此,正确答案为C。2.【参考答案】C【解析】类别不平衡时,准确率会因多数类主导而失真。F1-score综合考虑精确率和召回率,更适合评估模型在少数类上的表现。增加模型复杂度可能导致过拟合,减少数据量会加剧信息缺失。因此,选择F1-score等更合理的评估指标是关键,正确答案为C。3.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram结构学习词语的分布式表示,将词语转换为低维连续向量,使语义相近的词在向量空间中距离较近。它不直接用于分类、翻译或句法分析,而是为下游任务提供语义特征表示。因此,正确答案为C。4.【参考答案】D【解析】RMSProp通过计算梯度平方的移动平均来自适应调整每个参数的学习率,有效缓解AdaGrad学习率过早衰减的问题,适合非平稳目标函数。SGD和Momentum无自适应机制,AdaGrad虽自适应但易导致学习率过小。RMSProp结合了AdaGrad的优点并加以改进,更适用于深度网络训练,故正确答案为D。5.【参考答案】B【解析】K-means基于距离度量(如欧氏距离)将样本划分到最近的聚类中心,不同的距离方式会影响样本归属,从而改变聚类结果。该算法无需样本标签(无监督)、不涉及激活函数或学习率。初始中心选择和距离度量是核心因素之一,故正确答案为B。6.【参考答案】D【解析】批归一化通过标准化每一层输入的分布,缓解内部协变量偏移问题,从而加快训练收敛(A正确),并使模型对参数初始化不那么敏感(B正确)。它通过归一化操作实现C所述功能。但批归一化并未减少网络中的权重参数数量,反而引入了可学习的缩放和平移参数(γ和β),因此不会减少模型参数量(D错误),故选D。7.【参考答案】C【解析】Sigmoid函数输出范围在(0,1)之间,当输入值过大或过小时,其导数趋近于0,导致反向传播时梯度极小,引发梯度消失问题。ReLU及其变体(如LeakyReLU、ELU)在正区间的导数为1或接近1,有效缓解梯度消失。因此Sigmoid在深层网络中易导致训练困难,是梯度消失的典型诱因,故选C。8.【参考答案】A【解析】卷积输出尺寸计算公式为:(N−F+2P)/S+1,其中N为输入尺寸,F为卷积核大小,P为填充,S为步长。代入得:(32−5+0)/1+1=28。因此输出为28×28。无填充即P=0,计算正确,故选A。9.【参考答案】D【解析】交叉熵用于衡量两个概率分布之间的差异,广泛应用于分类问题(A正确),配合Softmax输出类别概率(C正确)。当预测概率接近真实标签时,损失趋近于0(B正确)。但回归任务通常使用均方误差(MSE)等损失函数,而非交叉熵,因其输出为连续值而非概率分布,故D错误,应选D。10.【参考答案】C【解析】K-means对初始中心敏感,易陷入局部最优。K-means++通过概率方式选择初始中心,提升稳定性(B正确);多次运行可筛选最优聚类(A正确);结合层次聚类可提供更合理初值(D正确)。但增加K值(C)仅改变聚类数量,并未改善初始化策略,反而可能加剧不稳定性,故不能缓解该问题,应选C。11.【参考答案】C【解析】池化操作(如最大池化或平均池化)通过滑动窗口对特征图进行下采样,有效减小数据量和计算复杂度,同时保留显著特征,防止过拟合。卷积操作用于提取特征,激活函数引入非线性,批归一化用于稳定训练过程,但不具备降维功能。因此,正确答案为C。12.【参考答案】C【解析】类别不平衡时,模型易偏向多数类。过采样(如SMOTE)通过生成少数类新样本平衡数据分布。准确率在不平衡数据中易误导,应采用F1-score、AUC等指标。增加层数可能加剧过拟合,减少数据会损失信息。因此,C为最优策略。13.【参考答案】C【解析】Word2Vec通过神经网络模型(如CBOW或Skip-gram)将词语映射为低维连续向量,捕捉语义和语法相似性。One-Hot编码维度高且无语义信息;TF-IDF反映词的重要性但非语义向量;PCA是降维方法,不直接生成词向量。故选C。14.【参考答案】C【解析】核函数通过隐式映射将原始特征空间中的非线性可分数据映射到高维空间,使其在高维空间中线性可分,从而提升分类性能。常用核函数包括RBF、多项式核等。该方法避免显式计算高维坐标,保留计算效率。因此选C。15.【参考答案】C【解析】学习率过大时,参数更新步长过长,可能导致损失函数在最优解附近震荡,甚至越过极小点导致发散,无法收敛。学习率过小才会导致收敛慢;陷入局部最优与优化算法和损失曲面有关,非学习率直接导致。故正确答案为C。16.【参考答案】C【解析】池化层通过下采样操作(如最大池化或平均池化)减小特征图的尺寸,从而降低模型计算量和参数数量,缓解过拟合。它不参与权重更新,也不直接提取特征,而是保留主要信息的同时压缩数据。因此C正确。A是激活函数的作用,B是卷积层的功能,D属于反向传播机制。17.【参考答案】C【解析】Dropout在训练过程中随机“关闭”一部分神经元,增强模型泛化能力,有效防止过拟合。而A、D会加剧过拟合,B会降低模型学习能力。因此C是正确选择。18.【参考答案】C【解析】K-means对初始中心敏感,不同初始化可能导致不同聚类结果,易陷入局部最优。虽然可通过K-means++优化初始化策略,但仍无法完全避免该问题。D由用户设定,A、B表述错误。19.【参考答案】C【解析】梯度消失指在深度网络反向传播过程中,链式法则导致梯度逐层缩小,浅层参数几乎不更新。常见于使用Sigmoid或Tanh激活函数的深层网络。增大学习率可能加剧不稳定,A、B、D均错误。20.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram模型将词语映射为低维稠密向量(词嵌入),使语义相近的词在向量空间中距离较近。A属于句法分析,B是n-gram语言模型输出,D是LDA等主题模型功能。21.【参考答案】C【解析】Sigmoid函数的输出范围为(0,1),在反向传播过程中,其导数最大值仅为0.25,且在输入绝对值较大时导数接近于0。多层连乘后梯度会指数级衰减,导致深层网络参数难以更新,从而引发梯度消失。而ReLU及其变体在正区间导数为1,有效缓解了该问题,因此Sigmoid在深层网络中易导致梯度消失。22.【参考答案】A【解析】模型方差高通常表现为过拟合,即对训练数据过于敏感。增加训练样本能提升数据多样性,使模型学习到更泛化的规律,从而降低方差。正则化和降低复杂度虽也有效,但主要通过约束模型实现;减少特征可能增加偏差。最直接有效降低方差的方法是增加数据量。23.【参考答案】A【解析】使用公式:输出尺寸=(输入尺寸-卷积核大小)/步幅+1。代入得:(32-5)/2+1=27/2+1=13.5→向下取整为14。因此输出为14×14。注意:实际计算中若不能整除,通常向下取整,符合大多数框架实现。24.【参考答案】B【解析】K-means的核心是将样本划分为K个簇,K值直接决定聚类数量和结构。K的选择影响最终聚类效果,通常通过肘部法则或轮廓系数确定。学习率和正则化不适用于K-means,迭代次数虽影响收敛,但非决定性因素。25.【参考答案】B【解析】Skip-gram模型通过给定一个中心词,预测其周围上下文词,从而学习词向量。与之相对,CBOW是根据上下文预测中心词。Skip-gram在处理罕见词时表现更好,适合小规模语料。TF-IDF和词袋属于传统表示方法,不涉及神经网络训练。26.【参考答案】C【解析】池化操作(如最大池化或平均池化)通过下采样降低特征图的空间尺寸,减少计算量和参数数量,同时保留主要特征信息,防止过拟合。卷积操作用于提取特征,激活函数引入非线性,批归一化用于稳定训练过程,但不具备降维功能。因此,正确答案为C。27.【参考答案】C【解析】类别不平衡时,模型易偏向多数类。过采样(如SMOTE)可增加少数类样本数量,提升其代表性。准确率在不平衡数据中具有误导性;增加层数或减少数据无法根本解决问题。因此,C是有效策略。28.【参考答案】C【解析】梯度消失常出现在深层前馈神经网络或RNN中,因反向传播时梯度连乘导致趋近于零,使浅层参数难以更新。CNN通过残差连接等结构缓解该问题,SVM和线性回归不依赖深度传播,不易发生。因此选C。29.【参考答案】B【解析】轮廓系数用于衡量聚类结果的紧密性和分离性,值越接近1聚类效果越好,常用于确定最优K值。交叉验证适用于监督学习,主成分分析用于降维,梯度下降是优化算法,均不直接用于K值选择。因此选B。30.【参考答案】B【解析】Dropout在训练时随机丢弃部分神经元,打破复杂共适应,提升泛化能力。增加宽度或提高学习率可能加剧过拟合,减少激活函数会削弱非线性表达。因此,B是有效正则化手段。31.【参考答案】A、C【解析】过拟合是指模型在训练集上表现很好,但在测试集上表现较差,说明模型过度学习了训练数据中的噪声或特例。训练数据不足(A正确)或模型过于复杂容易导致过拟合。正则化通过惩罚过大权重(C正确)来限制模型复杂度,有效缓解过拟合。相反,增加模型复杂度(B错误)会加剧过拟合。过拟合模型在训练集表现好、测试集差(D错误)。32.【参考答案】A、C【解析】卷积层使用权值共享机制,大幅减少参数量(A正确)。全连接层常接在卷积和池化之后,将特征映射到类别空间(C正确)。池化层主要用于降维和增强平移不变性,但不直接提升准确率,可能损失信息(B错误)。CNN也可用于文本(如句子分类)通过一维卷积(D错误)。33.【参考答案】A、B、D【解析】TF-IDF将词语转换为加权向量,反映词的重要性(A正确)。Word2Vec通过神经网络学习词的分布式表示(B正确)。BERT基于Transformer,生成上下文相关的词向量(D正确)。PCA是降维方法,并非向量化技术本身,不能直接将文本转为向量(C错误)。34.【参考答案】A、C、D【解析】监督学习依赖标注样本训练模型(A正确),典型任务包括分类和回归(D正确)。无监督学习如聚类、降维,用于探索数据分布和结构(C正确)。K-means是无监督聚类算法(B错误),无需标签。35.【参考答案】A、B、C【解析】良好的权重初始化(如Xavier、He)避免梯度消失/爆炸,加速收敛(A正确)。增大batchsize使梯度估计更稳定,加快训练(B正确)。学习率衰减可在后期精细调参,提升收敛效果(C正确)。梯度裁剪用于防止梯度爆炸,稳定训练但不直接加快收敛(D错误)。36.【参考答案】B、C、D【解析】过拟合是指模型在训练集上表现好但在测试集上表现差的现象。增加模型复杂度(A)会加剧过拟合。Dropout通过随机丢弃神经元提升泛化能力;数据增强通过扩充训练样本多样性减少对特定特征的依赖;L1/L2正则化通过限制权重大小防止模型过度拟合噪声。这三种方法均为经典正则化策略,广泛应用于图像、语音等任务中。37.【参考答案】A、B、D【解析】池化层用于下采样,减少特征图空间尺寸,从而降低计算负担并增强平移不变性。最大池化选取局部最大值,有利于保留关键特征;平均池化取均值,适用于平滑特征。两者均无学习参数,属于固定操作。因此C错误,其余选项均符合CNN设计原理,常见于图像处理模型如ResNet、VGG中。38.【参考答案】A、B、C【解析】SGD每次用单个样本计算梯度,更新频繁但波动大;Adam通过计算梯度的一阶和二阶矩估计实现自适应学习率,收敛稳定;学习率过大易跳过最优解导致震荡。而BGD使用全部样本,虽梯度准确但计算开销大、内存占用高、收敛慢,故D错误。这些是优化算法中的核心知识点,广泛应用于模型训练调参。39.【参考答案】A、B、C【解析】词嵌入如Word2Vec、GloVe将词语转化为低维连续向量,显著降低维度并缓解one-hot的稀疏性问题。其向量空间中语义相近词距离更近,支持类比推理。但单个词向量无法直接处理变长句子分类,需结合RNN、Transformer等结构。因此D错误。该技术是NLP模型的基础组件,广泛用于文本分类、机器翻译等任务。40.【参考答案】A、C、D【解析】监督学习依赖带标签数据训练模型,实现分类或回归预测;典型算法包括逻辑回归、SVM等。无监督学习处理无标签数据,用于聚类、降维等,如K-means、PCA,旨在挖掘数据分布或结构。K-means是典型的无监督方法,故B错误。理解两者区别是机器学习基础,对实际项目中数据策略制定至关重要。41.【参考答案】A、B、D、E【解析】过拟合是指模型在训练集上表现好但在验证集上表现差。增加数据(A)可提升泛化能力;Dropout(B)随机屏蔽神经元,防止依赖特定路径;L1/L2正则化(D)限制权重大小,抑制复杂模型;早停法(E)在验证误差不再下降时停止训练,防止过度学习。而提高模型复杂度(C)会加剧过拟合,故排除。42.【参考答案】A、C、E【解析】Word2Vec通过上下文预测生成词向量,能反映语义关系(A正确);One-hot是稀疏高维向量(B错误);GloVe利用全局共现统计信息训练(C正确);BERT生成的是上下文相关向量(D错误);词嵌入广泛用于文本分类、命名实体识别等任务(E正确)。43.【参考答案】A、B、D【解析】卷积层使用滤波器扫描输入,提取空间特征(A正确);池化层(如最大池化)降维并增强鲁棒性(B正确);全连接层通常位于末端用于分类(C错误);彩色图像有RGB三通道,需多通道卷积核处理(D正确);CNN虽可用于序列,但RNN更擅长时序建模(E错误)。44.【参考答案】A、B、C、E【解析】数据预处理是模型训练前的重要环节。缺失值填充(A)保证数据完整性;标准化(B)使特征处于同一量级,加速收敛;类别编码(C)将文本标签转为数值型;异常值处理(E)避免噪声干扰模型。超参数调优(D)属于模型训练阶段,非预处理内容。45.【参考答案】A、B、D【解析】监督学习依赖带标签数据训练模型(A正确);无监督学习常用于聚类(如K-means)和降维(B正确);SVM是分类算法,属监督学习(C错误);PCA通过线性变换降低维度,属无监督方法(D正确);无监督学习不直接用于预测标签,不具备预测功能(E错误)。46.【参考答案】A【解析】批量归一化通过对每层输入进行标准化处理,使输入分布保持稳定,缓解了内部协变量偏移问题,从而加快训练速度,提升模型稳定性,并允许使用更高的学习率。此外,它在一定程度上具有正则化效果,有助于防止过拟合,因此该说法正确。47.【参考答案】A【解析】高斯核(RBF核)能够将原始特征映射到高维空间,使原本线性不可分的数据变得线性可分。SVM通过核技巧避免显式计算高维映射,仅通过核函数计算内积,因此特别适合处理复杂的非线性分类任务,该说法正确。48.【参考答案】B【解析】当类别不平衡时,准确率会误导模型评估。例如,99%负样本的数据集中,模型全预测为负也能获得99%准确率,但无实际意义。此时应结合精确率、召回率、F1分数等指标综合判断,因此该说法错误。49.【参考答案】A【解析】池化层通过最大池化或平均池化对特征图进行下采样,减少计算量和过拟合风险,同时保留主要特征信息。它不涉及权重更新,无反向传播参数,且使模型对微小位置变化更鲁棒,因此该说法正确。50.【参考答案】B【解析】梯度消失主要出现在使用Sigmoid或Tanh等饱和激活函数的深层网络中,因其导数在深层传播时趋近于零。而ReLU在正区间导数恒为1,有效缓解梯度消失,是其广泛应用于深层网络的原因之一,因此该说法错误。51.【参考答案】A【解析】池化层通过下采样操作(如最大池化或平均池化)减小特征图的尺寸,减少参数数量和计算量,同时增强模型对微小位移的鲁棒性。它不进行权重学习,但能有效提取关键特征,防止过拟合,是CNN中不可或缺的组成部分。该机制在图像识别等任务中广泛应用。52.【参考答案】B【解析】过拟合恰恰相反:模型在训练集上表现极佳,但在测试集或新数据上性能显著下降。原因是模型过度学习了训练数据中的噪声和细节,未能泛化。解决方法包括增加数据量、使用正则化、早停或简化模型结构。53.【参考答案】B【解析】K均值聚类是无监督学习算法,用于将数据划分为K个簇,无需标签信息。算法通过迭代更新簇中心,使样本到所属簇中心的距离平方和最小。其核心是发现数据内在结构,适用于客户分群、图像压缩等场景。54.【参考答案】A【解析】在反向传播过程中,梯度通过链式法则逐层传递。当激活函数导数过小(如Sigmoid),深层网络的前层梯度会指数级衰减,导致权重几乎不更新。使用ReLU激活函数、残差连接或批量归一化可有效缓解该问题。55.【参考答案】A【解析】精确率计算公式为TP/(TP+FP),反映模型预测正例的准确性。高精确率意味着误报少。与召回率(Recall)不同,后者关注实际正例中被正确识别的比例。两者常通过F1-score进行权衡评估模型性能。
2025重庆广播电视集团所属企业招聘人工智能工程师解决工程师4人笔试历年典型考点题库附带答案详解(第2套)一、单项选择题下列各题只有一个正确答案,请选出最恰当的选项(共30题)1、在卷积神经网络(CNN)中,以下哪一项操作主要用于减少特征图的空间维度,同时保留重要信息?A.卷积操作B.池化操作C.激活函数D.批归一化2、在机器学习中,以下哪种方法最适用于处理类别不平衡问题?A.增加模型层数B.使用准确率作为评估指标C.对少数类进行过采样D.减少训练数据3、以下关于梯度下降法的描述,哪一项是正确的?A.学习率越大,模型一定收敛越快B.随机梯度下降每次使用全部样本更新参数C.批量梯度下降收敛稳定但计算开销大D.梯度下降无需损失函数可导4、在自然语言处理中,Word2Vec模型的主要目标是什么?A.实现机器翻译B.生成图像特征向量C.将词语映射为低维稠密向量D.进行情感分类5、以下哪种正则化方法通过在损失函数中添加权重的L2范数来防止过拟合?A.DropoutB.L1正则化C.L2正则化D.EarlyStopping6、在卷积神经网络(CNN)中,下列哪一项操作主要用于减少特征图的空间维度,从而降低计算量并防止过拟合?A.卷积操作B.激活函数C.池化操作D.批归一化7、在机器学习中,若训练误差和验证误差均较大,模型最可能面临的问题是?A.过拟合B.欠拟合C.泛化能力优秀D.数据过少8、在K-means聚类算法中,下列哪项是决定聚类结果的关键因素?A.学习率B.初始聚类中心的选择C.损失函数形式D.正则化系数9、在自然语言处理中,Word2Vec模型的主要目标是什么?A.实现机器翻译B.提取文本关键词C.将词语映射为低维稠密向量D.构建语法解析树10、下列哪种优化算法能够根据参数的历史梯度自动调整学习率?A.随机梯度下降(SGD)B.动量法(Momentum)C.AdamD.牛顿法11、在深度学习模型中,使用批量归一化(BatchNormalization)的主要目的是什么?A.增加模型的参数数量B.提高训练过程的稳定性与收敛速度C.减少训练数据的样本量D.避免使用激活函数12、在K均值聚类算法中,以下哪项是决定聚类效果的关键因素?A.初始聚类中心的选择B.数据集的标签数量C.激活函数的类型D.学习率的大小13、在自然语言处理中,词嵌入(WordEmbedding)技术的主要作用是什么?A.将文本转换为图像表示B.将词语映射为低维连续向量C.提高文本的存储容量D.删除文本中的停用词14、以下哪种优化算法结合了动量和自适应学习率的特性?A.SGDB.AdaGradC.AdamD.Newton法15、卷积神经网络中池化层(PoolingLayer)的主要功能是什么?A.增加图像的色彩深度B.提取更复杂的特征组合C.降低特征图的空间维度D.替代全连接层16、在深度学习中,以下哪种激活函数最常用于解决梯度消失问题?A.Sigmoid
B.Tanh
C.ReLU
D.Softmax17、在卷积神经网络中,若输入特征图尺寸为32×32,卷积核大小为5×5,步长为2,无填充,则输出特征图的尺寸是多少?A.14×14
B.15×15
C.16×16
D.17×1718、在机器学习中,L1正则化的主要作用是什么?A.降低模型计算复杂度
B.增加模型非线性能力
C.防止过拟合并实现特征选择
D.提高训练数据的维度19、以下关于K-means聚类算法的描述,哪一项是正确的?A.K-means能自动确定最优聚类数量K
B.K-means对初始质心的选择不敏感
C.K-means基于距离度量进行聚类
D.K-means适用于非凸形状的簇结构20、在自然语言处理中,Word2Vec模型的主要输出是什么?A.句子的语法结构
B.词语的上下文关系概率
C.词语的分布式向量表示
D.文档的主题分布21、在深度学习模型训练过程中,若发现训练集损失持续下降但验证集损失开始上升,最可能的原因是什么?A.模型欠拟合B.学习率设置过低C.模型过拟合D.批量大小过大22、在卷积神经网络中,若输入特征图尺寸为32×32,卷积核大小为5×5,步长为1,无填充,则输出特征图的尺寸是多少?A.28×28B.30×30C.27×27D.29×2923、下列哪种优化算法引入了动量(Momentum)机制以加速梯度下降并减少震荡?A.AdaGradB.RMSPropC.AdamD.SGDwithMomentum24、在自然语言处理中,BERT模型采用的主要预训练任务是什么?A.机器翻译与语言建模B.句子排序与文本分类C.掩码语言建模与下一句预测D.词向量训练与命名实体识别25、在K-means聚类算法中,以下关于初始聚类中心选择的说法哪项是正确的?A.随机选择任意样本点不会影响最终聚类结果B.初始中心选择对算法收敛速度和结果均有影响C.必须通过主成分分析确定初始中心D.所有聚类中心应初始化为零向量26、在卷积神经网络(CNN)中,下列哪一项是池化层(PoolingLayer)的主要作用?A.增加网络的非线性表达能力B.提取图像的边缘特征C.降低特征图的空间维度D.更新网络权重以优化损失27、在机器学习中,若训练误差和验证误差均较高,模型最可能处于以下哪种状态?A.过拟合B.欠拟合C.泛化能力强D.收敛速度过快28、下列哪种算法属于无监督学习方法?A.支持向量机(SVM)B.K均值聚类(K-means)C.逻辑回归D.决策树29、在自然语言处理中,Word2Vec模型的主要功能是什么?A.实现文本分类B.生成图像描述C.将词语映射为向量D.进行语法纠错30、以下关于梯度下降法的说法,哪一项是正确的?A.学习率越大,模型一定收敛越快B.随机梯度下降每次使用全部样本更新参数C.梯度指向损失函数下降最快的方向D.批量梯度下降每轮更新计算开销较大二、多项选择题下列各题有多个正确答案,请选出所有正确选项(共15题)31、在深度学习模型训练过程中,以下哪些方法可以有效缓解过拟合问题?A.增加模型的网络层数和神经元数量B.使用Dropout技术C.引入L1或L2正则化D.采用数据增强策略32、在自然语言处理任务中,以下关于词向量(WordEmbedding)的描述正确的是?A.One-hot编码能捕捉词语之间的语义相似性B.Word2Vec模型包含CBOW和Skip-gram两种结构C.GloVe通过全局词共现矩阵进行训练D.词向量的维度越高,模型性能一定越好33、以下关于卷积神经网络(CNN)的结构与特性描述正确的是?A.卷积层通过滑动窗口提取局部空间特征B.池化层可以反向传播梯度并更新参数C.全连接层通常位于网络末端进行分类D.多个卷积层堆叠可增强模型对复杂特征的表达能力34、在机器学习项目中,以下哪些操作属于数据预处理的关键步骤?A.特征归一化或标准化B.处理缺失值与异常值C.使用准确率评估模型性能D.类别型特征的独热编码(One-HotEncoding)35、关于监督学习与无监督学习的区别,以下说法正确的是?A.监督学习需要带有标签的训练数据B.无监督学习可用于聚类和降维任务C.支持向量机(SVM)是一种无监督学习算法D.K均值(K-Means)聚类属于无监督学习36、在卷积神经网络(CNN)中,以下哪些操作有助于提取图像的局部特征并实现参数共享?A.池化操作B.全连接层C.卷积核滑动计算D.使用相同的卷积核在整个输入上扫描37、在机器学习模型训练过程中,以下哪些方法可以有效缓解过拟合问题?A.增加训练数据量B.使用Dropout技术C.提高模型复杂度D.引入L1或L2正则化38、关于自然语言处理中的词向量表示,以下说法正确的有哪些?A.One-hot编码能反映词语之间的语义相似性B.Word2Vec可通过CBOW或Skip-gram模型训练C.词嵌入(Embedding)将词语映射为低维稠密向量D.GloVe模型基于全局词共现矩阵进行训练39、在支持向量机(SVM)中,以下哪些描述是正确的?A.SVM的目标是最大化分类间隔B.核函数可用于处理非线性可分问题C.支持向量是距离决策边界最远的样本点D.软间隔允许部分样本分类错误以提升泛化能力40、在深度学习模型优化中,以下关于梯度下降算法的描述正确的有哪些?A.随机梯度下降(SGD)每次使用一个样本更新参数B.Adam优化器结合了动量和自适应学习率C.学习率过大可能导致损失函数震荡甚至不收敛D.批量梯度下降(BGD)每次迭代计算效率最高41、在深度学习模型训练过程中,以下哪些方法可以有效缓解过拟合问题?A.增加模型的网络层数和神经元数量B.使用Dropout技术随机丢弃部分神经元C.采用L1或L2正则化约束权重D.使用数据增强扩充训练样本42、关于卷积神经网络(CNN)中的池化层,以下说法正确的是?A.最大池化能保留图像的显著特征B.平均池化常用于减少背景噪声干扰C.池化层会显著增加模型参数量D.池化操作具有空间不变性特点43、在机器学习中,以下哪些场景适合使用无监督学习?A.对用户行为数据进行聚类分析B.根据历史销量预测未来销售额C.对未标注图像进行特征学习D.垃圾邮件自动分类44、以下关于梯度下降算法的描述,正确的是?A.随机梯度下降(SGD)每次更新使用单个样本B.批量梯度下降(BGD)收敛过程平稳但计算开销大C.Adam优化器结合了动量和自适应学习率机制D.学习率越大,模型收敛速度一定越快45、在自然语言处理中,以下哪些是词嵌入(WordEmbedding)技术的优点?A.将词语表示为低维稠密向量B.能捕捉词语间的语义相似性C.解决传统one-hot编码的高维稀疏问题D.可直接用于文本分类而无需下游模型三、判断题判断下列说法是否正确(共10题)46、在深度学习中,批量归一化(BatchNormalization)的主要作用是加速模型训练并降低对初始化的敏感性。A.正确B.错误47、在支持向量机(SVM)中,使用高斯核函数可以处理非线性可分的数据分类问题。A.正确B.错误48、卷积神经网络(CNN)中的池化层通常会显著增加模型参数数量。A.正确B.错误49、在梯度下降算法中,学习率设置过大会导致模型无法收敛。A.正确B.错误50、准确率(Accuracy)是评价分类模型性能的唯一可靠指标。A.正确B.错误51、在监督学习中,模型训练过程中不需要使用标签数据。A.正确B.错误52、卷积神经网络(CNN)中的池化层主要用于减少特征图的空间维度,同时保留重要特征信息。A.正确B.错误53、在机器学习中,过拟合是指模型在训练集上表现差,在测试集上表现好。A.正确B.错误54、梯度下降法是通过不断调整模型参数以最小化损失函数的一种优化算法。A.正确B.错误55、K均值聚类算法属于监督学习方法。A.正确B.错误
参考答案及解析1.【参考答案】B【解析】池化操作(如最大池化或平均池化)通过下采样减小特征图的尺寸,降低计算量并增强模型对平移的不变性。卷积操作用于提取特征,激活函数引入非线性,批归一化用于稳定训练过程,但均不以降维为主要目的。因此,正确答案为B。2.【参考答案】C【解析】类别不平衡时,准确率易被多数类主导,应采用精确率、召回率或F1值评估。过采样(如SMOTE)可增加少数类样本,提升模型识别能力。增加层数可能加剧过拟合,减少数据则损失信息。因此,C是有效策略。3.【参考答案】C【解析】批量梯度下降(BGD)使用全部样本计算梯度,更新稳定但速度慢;随机梯度下降(SGD)每次用一个样本,速度快但波动大。学习率过大可能导致不收敛,且梯度下降要求损失函数可导。故C正确。4.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram结构学习词语的分布式表示,将词语转化为低维向量,使语义相近的词在向量空间中距离较近。它不直接用于翻译或分类,而是作为特征提取工具。因此C正确。5.【参考答案】C【解析】L2正则化在损失函数中加入权重的平方和,约束权重大小,使模型更平滑,降低过拟合风险。L1正则化使用绝对值,倾向于稀疏解;Dropout随机丢弃神经元;EarlyStopping通过监控验证误差提前终止训练。三者机制不同,C为正确答案。6.【参考答案】C【解析】池化操作(如最大池化或平均池化)通过下采样方式减小特征图的宽度和高度,保留主要特征信息的同时降低参数量和计算复杂度。它还能增强模型对输入微小位移的鲁棒性,有效缓解过拟合问题。卷积操作用于提取特征,激活函数引入非线性,批归一化用于加速训练和稳定网络,但不具备降维功能。因此正确答案为C。7.【参考答案】B【解析】训练误差和验证误差都较大,说明模型未能充分学习训练数据的规律,属于欠拟合。此时模型复杂度可能不足,或训练轮次不够。过拟合表现为训练误差小而验证误差大。数据过少可能导致过拟合,但不是误差大的直接判断依据。因此,正确答案为B。8.【参考答案】B【解析】K-means算法通过迭代更新聚类中心和样本归属来优化簇内距离。其结果高度依赖初始聚类中心的位置,不同初始化可能导致不同局部最优解。常用K-means++策略优化初始中心选择。学习率、正则化系数和特定损失函数形式常见于梯度下降类模型,不直接适用于K-means。因此正确答案为B。9.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram结构学习词语在上下文中的分布特征,输出固定维度的词向量,使语义相近的词在向量空间中距离较近。这种低维稠密表示广泛用于后续NLP任务。机器翻译和语法分析属于更高层次任务,关键词提取也不是其设计目标。因此正确答案为C。10.【参考答案】C【解析】Adam算法结合了动量和自适应学习率机制,通过计算梯度的一阶矩(均值)和二阶矩(未中心化方差)动态调整每个参数的学习率,适合处理稀疏梯度和非平稳目标。SGD和动量法使用固定或手动调整的学习率,牛顿法依赖二阶导数,计算复杂且不常用于深度学习。因此正确答案为C。11.【参考答案】B【解析】批量归一化通过对每一层的输入进行均值为0、方差为1的标准化处理,有效缓解内部协变量偏移问题,使训练过程更加稳定,从而加快模型收敛速度。它还能在一定程度上起到正则化作用,减少对Dropout的依赖。该技术广泛应用于卷积神经网络和全连接网络中,是深度学习训练中的关键优化手段之一。12.【参考答案】A【解析】K均值算法对初始聚类中心敏感,不同的初始点可能导致不同的聚类结果。常用改进方法如K-means++通过优化初始中心选择来提升聚类质量。算法迭代过程基于距离最小化原则,无法保证全局最优,因此初始值的选择直接影响最终聚类效果和收敛速度。13.【参考答案】B【解析】词嵌入通过将词语映射到低维实数向量空间,使语义相近的词在向量空间中距离更近。如Word2Vec、GloVe等模型能捕捉词语间的语义与语法关系,广泛应用于文本分类、机器翻译等任务,显著提升模型对语言的理解能力。14.【参考答案】C【解析】Adam优化器结合了动量法(Momentum)和RMSProp的优点,对梯度的一阶矩(均值)和二阶矩(未中心化方差)进行指数加权平均,实现自适应学习率调整。它在稀疏梯度和非平稳目标函数上表现优异,是深度学习中最常用的优化算法之一。15.【参考答案】C【解析】池化层通过下采样操作(如最大池化或平均池化)减少特征图的宽度和高度,降低模型计算量和参数数量,同时增强特征的平移不变性。它有助于防止过拟合并提升模型泛化能力,常用于卷积层之后。16.【参考答案】C【解析】ReLU(RectifiedLinearUnit)函数定义为f(x)=max(0,x),其在正区间的导数恒为1,有效缓解了梯度消失问题。相比之下,Sigmoid和Tanh在输入值较大或较小时导数接近0,导致反向传播时梯度不断缩小,影响深层网络训练。Softmax主要用于多分类输出层,不用于隐藏层激活。因此ReLU是深层神经网络中最常用的激活函数。17.【参考答案】A【解析】输出尺寸计算公式为:(输入尺寸-卷积核大小+2×填充)/步长+1。代入得:(32-5+0)/2+1=27/2+1=13.5,向下取整为14。因此输出为14×14。该计算是CNN结构设计中的基础知识点,掌握公式有助于网络层参数规划。18.【参考答案】C【解析】L1正则化通过在损失函数中加入权重绝对值之和,促使部分权重变为0,实现稀疏性,从而达到特征选择和防止过拟合的效果。相比L2正则化,L1更倾向于产生稀疏解,适用于高维数据中筛选重要特征,是特征工程中的常用手段。19.【参考答案】C【解析】K-means通过计算样本与质心的欧氏距离进行聚类,每次迭代更新质心直至收敛。其缺点包括需预先设定K值、对初始质心敏感、易陷入局部最优,且仅适用于球状或凸形分布的数据。对于非凸簇,DBSCAN等密度聚类更合适。20.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram模型将词语映射为低维连续向量(词嵌入),使语义相近的词在向量空间中距离更近。这种分布式表示能捕捉词语间的语义和语法相似性,广泛应用于文本分类、机器翻译等任务,是NLP中基础且关键的技术。21.【参考答案】C【解析】当训练损失持续下降而验证损失上升时,表明模型在训练数据上表现越来越好,但泛化能力下降,已开始记忆训练样本特征而非学习普遍规律,这是典型的过拟合现象。此时应考虑引入正则化、早停(earlystopping)、数据增强或Dropout等策略提升泛化能力。选项A欠拟合表现为训练和验证损失均高;B和D通常影响训练速度或稳定性,不直接导致该现象。22.【参考答案】A【解析】卷积输出尺寸计算公式为:(N−F+2P)/S+1,其中N为输入尺寸,F为卷积核大小,P为填充,S为步长。本题中N=32,F=5,P=0,S=1,代入得(32−5)/1+1=28。因此输出为28×28。选项A正确。该知识点是CNN基础计算,常用于网络结构设计。23.【参考答案】D【解析】SGDwithMomentum通过引入动量项累积历史梯度,使参数更新方向更稳定,能有效加速收敛并减少在鞍点或平坦区域的震荡。AdaGrad自适应学习率但易使学习率过早衰减;RMSProp改进AdaGrad的衰减问题;Adam结合动量与自适应学习率。但只有D明确引入动量机制,是经典动量法的代表。24.【参考答案】C【解析】BERT通过两个任务进行预训练:掩码语言建模(MaskedLanguageModel,MLM),即随机遮蔽部分输入词并预测原词;下一句预测(NextSentencePrediction,NSP),判断两句话是否连续。这两个任务使BERT能充分学习上下文语义信息,为下游任务微调打下基础。其他选项非BERT核心预训练任务。25.【参考答案】B【解析】K-means对初始聚类中心敏感,不同初始化可能导致陷入局部最优,影响最终聚类效果和收敛速度。虽常用随机初始化,但改进方法如K-means++通过概率方式选择相距较远的初始点,显著提升性能。选项A错误,结果受初始化影响;C、D无理论依据。因此B为正确描述。26.【参考答案】C【解析】池化层通过下采样操作(如最大池化或平均池化)减小特征图的尺寸,从而降低计算量和参数量,同时增强模型对微小平移的鲁棒性。它不参与权重更新,也不直接提取特征,特征提取主要由卷积层完成。非线性由激活函数实现,因此C正确。27.【参考答案】B【解析】训练误差和验证误差都高,说明模型未能充分学习数据的规律,属于欠拟合。过拟合表现为训练误差低而验证误差高。欠拟合通常由模型复杂度不足、特征表达不充分或训练不足导致。应增加模型复杂度或优化特征工程,故选B。28.【参考答案】B【解析】K均值聚类通过将数据划分为K个簇来发现数据内在结构,无需标签,属于典型的无监督学习。SVM、逻辑回归和决策树均需标签数据进行训练,属于监督学习。无监督学习常用于聚类、降维等任务,因此B正确。29.【参考答案】C【解析】Word2Vec通过CBOW或Skip-gram结构将词语转换为稠密向量,使语义相近的词在向量空间中距离更近。它不直接用于分类或生成任务,而是为下游NLP任务提供词嵌入表示。因此,其核心功能是词向量化,选C。30.【参考答案】D【解析】批量梯度下降使用全部训练样本计算梯度,因此每轮更新计算量大但方向稳定。学习率过大可能导致震荡不收敛。随机梯度下降每次仅用一个样本,更新快但波动大。梯度指向上升最快方向,负梯度才是下降方向,故D正确。31.【参考答案】B、C、D【解析】过拟合是指模型在训练集上表现好但在测试集上表现差的现象。增加模型复杂度(A)会加剧过拟合。Dropout通过随机屏蔽神经元,减少神经元间的依赖,提升泛化能力;L1/L2正则化通过惩罚大权重,限制模型复杂度;数据增强通过扩充训练样本多样性,提升模型鲁棒性。三者均为有效手段。32.【参考答案】B、C【解析】One-hot编码是稀疏表示,无法反映语义关系;Word2Vec中CBOW根据上下文预测中心词,Skip-gram反之;GloVe通过统计全局共现信息训练词向量,具有较强语义表达能力;词向量维度需适中,过高易导致过拟合或计算负担。故B、C正确。33.【参考答案】A、C、D【解析】卷积层利用局部感受野和权值共享提取图像特征;池化层无参数,但可传递梯度,不参与参数更新(B错误);全连接层整合高层特征实现分类;深层卷积结构可逐层抽象特征,提升表达能力。因此A、C、D正确。34.【参考答案】A、B、D【解析】数据预处理旨在提升数据质量与模型训练效率。归一化使特征处于相近量级;缺失值与异常值影响模型稳定性,需清洗或填补;类别特征需编码为数值型。准确率属于模型评估阶段指标,不属于预处理步骤。故A、B、D正确。35.【参考答案】A、B、D【解析】监督学习依赖标注数据(如分类、回归),典型算法包括SVM、决策树;无监督学习
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年情趣玩具市场调研报告
- 大象蛇过河测试题及答案
- 2025年暖通工程行业现状分析报告及未来五至十年发展趋势
- 2025年有限公司景洪市曼空帕克后山石灰岩矿矿山地质环境保护与土地复垦方案
- 2025年村委饮水安全工程方案
- 2025年心律失常早搏题库及答案
- 2025年林场个人述职报告样本(二)
- 美团拼多多笔试题及答案
- 2025星辰科技代理合作合同
- 2025年面试典型护理案例题目及答案
- 单片机原理接口技术课后习题答案李朝青
- GB/T 27689-2011无动力类游乐设施儿童滑梯
- GB/T 21010-2007土地利用现状分类
- GB/T 10125-2021人造气氛腐蚀试验盐雾试验
- 冬期混凝土施工测温记录表完整
- 泥浆护壁成孔灌注桩方案
- 中级无机化学答案版
- 道德与法治教研活动记录
- 完全平方公式(课件)
- 烟台中集来福士海洋工程有限公司授信方案(国内证、福费廷)
- 混凝土防渗墙施工作业指导书
评论
0/150
提交评论