版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
机器学习试题(含答案解析)一、单选题(共60题,每题1分,共60分)1.决策树学习的关键是A、初始结点选择B、剪枝C、选择最优划分属性D、分枝正确答案:C答案解析:决策树学习的关键在于选择最优划分属性。最优划分属性能够使样本集合根据该属性进行划分后,子样本集合的纯度得到最大程度的提高,从而更有效地对数据进行分类或回归等操作。初始结点选择只是决策树构建的起始点;剪枝是为了防止过拟合等情况,对已构建好的决策树进行优化;分枝是基于划分属性对样本进行拆分的操作,这些都依赖于选择最优划分属性这一关键步骤。2.下列不属于集成学习方法是A、baggingB、connectingC、boostingD、stacking正确答案:B答案解析:集成学习方法主要包括bagging、boosting、stacking等。bagging通过自助采样法从原始数据集有放回地采样构建多个基学习器,再将这些基学习器的预测结果进行结合;boosting是迭代地训练基学习器,每一轮根据上一轮基学习器的表现调整样本权重;stacking是先训练多个基学习器,然后将基学习器的输出作为新的特征,再训练一个元学习器来组合这些特征进行预测。而connecting不属于集成学习的典型方法。3.若某学习器预测的是离散值,则此类学习任务称为()A、回归B、分类C、强化学习D、聚类正确答案:B答案解析:分类任务是预测离散值,聚类是将数据分成不同的簇,回归是预测连续值,强化学习是智能体在环境中通过交互学习最优策略,这里预测离散值的学习任务是分类。4.以下关于Sigmoid的特点说法错误的是()。A、Sigmoid函数计算量小B、趋向无穷的地方,函数变化很小,容易出现梯度消失的现象C、可以将函数值的范围压缩到[0,1]D、函数处处连续正确答案:A答案解析:Sigmoid函数的计算量较大,它涉及到指数运算。B选项,在趋向无穷的地方,函数值趋近于0或1,变化很小,容易出现梯度消失现象。C选项,Sigmoid函数可以将任意实数映射到[0,1]区间。D选项,Sigmoid函数是处处连续可导的。所以A选项说法错误。5.以下哪个不是原型聚类算法()A、K均值算法B、学习向量量化LVQC、高斯混合聚类D、PCA算法正确答案:D答案解析:PCA算法是一种降维算法,不属于原型聚类算法。K均值算法、学习向量量化LVQ、高斯混合聚类都属于原型聚类算法。原型聚类算法是基于原型的聚类方法,通过定义原型来对数据进行聚类。K均值算法通过迭代寻找数据点的聚类中心作为原型;学习向量量化LVQ通过训练来确定原型向量;高斯混合聚类假设数据由多个高斯分布混合而成,以这些高斯分布的参数作为原型。而PCA算法主要用于数据降维,将高维数据映射到低维空间,不是用于聚类的。6.一般来说,下列哪种方法常用来预测连续独立变量?A、线性回归B、逻辑回顾C、线性回归和逻辑回归都行D、以上说法都不对正确答案:A答案解析:线性回归是用于预测连续因变量的常用方法。逻辑回归主要用于预测二分类的因变量,不适合预测连续独立变量。7.下列关于Boosting和Bagging的描述正确的是:A、Boosting主要关注降低方差B、Boosting的代表算法有随机森林C、Bagging基于自助采样法D、Bagging主要关注降低偏差正确答案:C答案解析:Bagging基于自助采样法,主要关注降低方差;Boosting主要关注降低偏差,其代表算法有Adaboost等,随机森林是Bagging的代表算法。所以A选项中说Boosting主要关注降低方差错误;B选项中说Boosting的代表算法有随机森林错误;D选项中说Bagging主要关注降低偏差错误。故正确答案是C。8.谷歌新闻每天收集非常多的新闻,并运用()方法再将这些新闻分组,组成若干类有关联的新闻。于是,搜索时同一组新闻事件往往隶属同一主题的,所以显示到一起。A、分类B、聚类C、关联规则D、回归正确答案:B答案解析:聚类是将物理或抽象对象的集合分组为由类似对象组成的多个类的分析过程。谷歌新闻运用聚类方法把收集到的大量新闻分组,组成若干类有关联的新闻,使得同一组新闻事件隶属同一主题显示到一起。关联规则主要是挖掘数据中项集之间的关联关系;回归是用于预测数值型数据;分类是将数据划分到不同类别。所以这里用的是聚类方法。9.将数据集D进行适当处理,产生出训练集S和测试集T,有哪些常见的做法:A、留出法B、交叉验证法C、自助法D、以上都是正确答案:D答案解析:留出法是直接将数据集划分为训练集和测试集;交叉验证法是将数据集进行多次划分和训练测试;自助法是通过有放回抽样来产生训练集等,这三种都是将数据集D进行适当处理产生训练集S和测试集T的常见做法。10.如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?A、增大惩罚参数C的值B、减小惩罚参数C的值C、减小核系数(gamma参数)D、都不正确正确答案:A答案解析:当SVM模型出现欠拟合时,增大惩罚参数C的值可以让模型对误分类的惩罚增加,从而使模型更加复杂,能够更好地拟合数据,解决欠拟合问题。减小惩罚参数C的值会使模型更加宽松,更容易欠拟合。减小核系数(gamma参数)会使模型的复杂度降低,也可能导致欠拟合情况加剧。所以能解决欠拟合问题的是增大惩罚参数C的值,答案选A。11.点击率的预测是一个数据比例不平衡问题(比如训练集中样本呈阴性的比例为99%,阳性的比例是1%),如果我们用这种数据建立模型并使得训练集的准确率高达99%。我们可以得出结论是:A、模型的准确率非常高,我们不需要进一步探索B、模型不好,我们应建一个更好的模型C、无法评价模型D、以上都不正确正确答案:B12.假设我们使用原始的非线性可分版本的Soft-SVM优化目标函数。我们需要做什么来保证得到的模型是线性可分离的?A、C=0B、C=1C、C正无穷大D、C负无穷大正确答案:C答案解析:在原始的非线性可分版本的Soft-SVM优化目标函数中,当C趋于正无穷大时,Soft-SVM就近似为硬间隔SVM,此时得到的模型是线性可分离的。C较小时,模型允许一些样本被错分,以换取更平滑的决策边界;而当C趋于正无穷大时,模型会尽量严格地将样本正确分类,从而保证模型是线性可分离的。13.下列中为判别模型的是()A、高斯混合模型B、隐含马尔科夫模型C、GAN模型D、逻辑回归模型正确答案:D答案解析:逻辑回归模型是判别模型,它直接对数据进行建模,学习输入到输出的映射关系,用于预测类别或回归数值。而高斯混合模型、隐含马尔科夫模型属于生成模型,GAN模型是生成对抗网络,主要用于生成数据。14.下列有关支持向量机说法不正确的是:A、得到的是局部最优解B、采用结构风险最小化原理C、具有很好的推广能力D、是凸二次优化问题正确答案:A答案解析:支持向量机采用结构风险最小化原理,是凸二次优化问题,能得到全局最优解,且具有很好的推广能力,并非得到局部最优解。15.混淆矩阵的真负率公式是为A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)正确答案:D答案解析:真负率(TrueNegativeRate,TNR)也被称为特异度(Specificity),其计算公式为TNR=TN/(TN+FP),表示实际为负例且被正确预测为负例的比例。所以选项D正确。16.下列激活函数中,能够实现将特征限制到区间[-1,1]的是哪一个A、TanhB、LogisticC、ReLUD、Sigmoid正确答案:A答案解析:Tanh函数的值域是[-1,1],能够将特征限制到这个区间。Logistic函数的值域是(0,1);ReLU函数的值域是[0,+∞);Sigmoid函数的值域也是(0,1)。17.四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用SVM分类的决策边界是A、y=xB、x=0C、y=-xD、y=0正确答案:B答案解析:对于给定的四个点(1,1),(1,0),(-1,-1),(-1,0),可以发现这些点关于y轴对称。支持向量机(SVM)寻找的决策边界是能够最大程度区分两类点的超平面。在这里,决策边界就是x=0这条直线,它将点分为左右两部分,左侧为(-1,-1),(-1,0),右侧为(1,1),(1,0)。18.以下哪个不是常见的决策树算法A、ID3B、C4.5C、CARTD、DBSCAN正确答案:D答案解析:DBSCAN是一种基于密度的空间聚类算法,不是决策树算法。而ID3、C4.5、CART都是常见的决策树算法。19.以下有关随机森林算法的说法错误的是:A、随机森林算法对异常值和缺失值不敏感B、随机森林算法不需要考虑过拟合问题C、决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型分类效果越好D、随机森林算法的分类精度不会随着决策树数量的增加而提高正确答案:B20.下列有关SVM和LR说法不正确的是()A、SVM是分类模型,LR是回归模型B、SVM和LR都是分类模型C、SVM是判别式模型D、LR判别式模型正确答案:A答案解析:SVM和LR都是分类模型,不是回归模型,所以A选项说法错误。SVM和LR都属于判别式模型,通过寻找一个判别函数来对样本进行分类,所以B、C、D选项说法正确。21.下列贝叶斯网结构中不属于三种典型的依赖关系A、V型结构B、同父结构C、顺序结构D、选择结构正确答案:D22.关于logistic回归和SVM不正确的是()A、Logistic回归目标函数是最小化后验概率B、Logistic回归可以用于预测事件发生概率的大小C、SVM目标是结构风险最小化D、SVM可以有效避免模型过拟合正确答案:A答案解析:Logistic回归目标函数是最大化对数似然函数,而不是最小化后验概率。B选项,Logistic回归确实可以用于预测事件发生概率的大小。C选项,SVM目标是结构风险最小化。D选项,SVM通过核函数等方式在一定程度上可以有效避免模型过拟合。23.决策树中不包含以下哪种结点A、叶节点B、内部结点C、外部结点D、根节点正确答案:C答案解析:决策树包含根节点、内部结点和叶节点,不包含外部结点。根节点是决策树的起始点,内部结点用于进行属性测试并根据测试结果划分数据,叶节点代表分类结果或最终决策。24.线性回归能完成的任务是A、预测连续值B、聚类C、分类D、预测离散值正确答案:A答案解析:线性回归的主要任务是对连续型变量进行预测,通过建立自变量和因变量之间的线性关系模型,来预测因变量的连续值。而预测离散值通常是分类算法的任务,分类是将数据划分到不同的类别中;聚类是将数据分成不同的簇,使同一簇内的数据具有较高的相似度,不同簇之间的数据具有较大的差异。所以线性回归能完成的任务是预测连续值。25.关于SVM泛化误差描述正确的是A、超平面与支持向量之间距离B、超平面与支持向量之间距离C、SVM的误差阈值正确答案:A26.“学习向量量化”与一般聚类算法不同的是()A、数据样本带有类别标记B、簇的种类不同C、结构不同D、向量程度不同正确答案:A27.假设现在只有两个类,这种情况下SVM需要训练几次?A、2B、1C、3D、4正确答案:B28.关于BP算法特点描述错误的是()A、输入信号顺着输入层、隐层、输出层依次传播B、计算之前不需要对训练数据进行归一化C、预测误差需逆向传播,顺序是输出层、隐层、输入层D、各个神经元根据预测误差对权值进行调整正确答案:B答案解析:BP算法在计算之前通常需要对训练数据进行归一化处理。归一化可以加快收敛速度,提高模型的稳定性和泛化能力。选项A描述的信号传播方向是正确的;选项C的误差逆向传播顺序也是正确的;选项D神经元根据预测误差调整权值也是BP算法的特点之一。29.下列关于过拟合的说法错误的是A、过拟合是指模型在训练集上表现很好,但是在交叉验证集和测试集上表现一般B、解决过拟合可以采用Dropout方法C、解决过拟合可以采用参数正则化方法D、数据集扩增不能用来解决过拟合问题正确答案:D答案解析:过拟合是指模型在训练集上表现很好,但在交叉验证集和测试集上表现较差。Dropout方法和参数正则化方法都可以有效缓解过拟合。数据集扩增通过增加数据的多样性,让模型学习到更丰富的特征,有助于减少过拟合,所以选项D中说数据集扩增不能用来解决过拟合问题是错误的。30.以下关于神经网络的说法中,正确的是()?A、增加网络层数,一定能减小训练集错误率B、减小网络层数,一定能减小测试集错误率C、增加网络层数,可能增加测试集错误率D、增加网络层数,一定增加测试集错误率正确答案:C答案解析:增加网络层数可能会导致过拟合等问题,从而使得测试集错误率增加,但不是一定增加。增加网络层数并不一定能减小训练集错误率,减小网络层数也不一定能减小测试集错误率,所以A、B、D选项错误。31.在SVM中,margin的含义是()A、差额B、损失误差C、幅度D、间隔正确答案:D答案解析:在SVM中,margin指的是间隔,它是分类超平面与离超平面最近的样本点之间的距离。较大的间隔意味着模型具有更好的泛化能力。32.下列两个变量之间的关系中,那一个是线性关系A、学生的性别与他(她)的数学成绩B、人的工作环境与他的身体健康状况C、儿子的身高与父亲的身高D、正方形的边长与周长正确答案:D答案解析:线性关系是指两个变量之间的关系可以用一条直线来近似表示。选项A中,学生的性别与数学成绩之间没有直接的线性关系;选项B中,人的工作环境与身体健康状况之间的关系较为复杂,不是简单的线性关系;选项C中,儿子的身高与父亲的身高之间存在一定的遗传关系,但不是严格的线性关系;选项D中,正方形的周长等于4倍边长,即周长与边长之间是线性关系,其表达式为周长=4×边长。33.关于BP算法反向传播的说法正确的是()。A、BP算法反向传播进行更新时一般用到微积分的链式传播法则B、BP算法更新量与步长关系不大C、BP算法反向传播的预测误差值一般由真实标签值和预测标签值的差计算得来D、BP算法反向传播的目的是只对权值进行更新正确答案:A34.关于BP算法信号前向传播的说法正确的是()。A、BP算法在计算正向传播输出值时需要考虑激活函数B、BP算法信号前向传播的计算量跟输入层神经元数目无关C、BP算法只有在隐层才有激活函数D、BP算法信号传播的顺序是输出层、隐层、输入层。正确答案:A答案解析:BP算法在计算正向传播输出值时需要考虑激活函数。对于每个神经元,其输入会通过激活函数得到输出,在整个前向传播过程中,无论是输入层到隐层,还是隐层到输出层,都需要经过激活函数处理,所以A正确。BP算法信号前向传播的计算量与输入层神经元数目有关,输入层神经元数目越多,计算量越大,B错误。BP算法在输入层、隐层、输出层都可能有激活函数,C错误。BP算法信号传播的顺序是输入层、隐层、输出层,D错误。35.()是并行式集成学习方法最著名的代表A、随机森林B、BoostingC、BaggingD、AdaBoost正确答案:C答案解析:并行式集成学习方法最著名的代表是Bagging,它通过有放回采样来构建多个基学习器,然后将这些基学习器的结果进行组合。随机森林是Bagging的一个典型应用;Boosting是串行式集成学习方法;AdaBoost是Boosting的一种具体实现。36.关于决策树,以下哪种说法是正确的A、可读性强B、只用于分类问题C、只用于回归问题D、是无监督学习正确答案:A答案解析:决策树具有可读性强的特点。决策树既可以用于分类问题,也可以用于回归问题,它是一种有监督学习算法,不是无监督学习。所以B、C、D选项错误,A选项正确。37.给定一定数量的红细胞、白细胞图像,但是并不知道图像与标签的对应关系,设计一个红白细胞分类器,这属于()问题A、半监督学习B、无监督学习C、监督学习D、以上都可以正确答案:B答案解析:这属于无监督学习问题。因为给定的红细胞、白细胞图像不知道图像与标签的对应关系,无法进行有监督学习中利用已知标签数据来训练模型的操作。而无监督学习是在没有标签的情况下,对数据进行聚类、降维等操作,这里可以尝试对红白细胞图像进行聚类等无监督学习方法来实现分类,所以属于无监督学习。38.关于EM算法正确的是A、EM算法包括两步:E算法和M算法B、EM算法一定能收敛到全局最大值点C、英文全称是Expectation-MinimizationD、以上都不正确正确答案:A答案解析:EM算法确实包括E步(期望步)和M步(极大化步),所以选项A正确;EM算法不一定能收敛到全局最大值点,有可能收敛到局部最大值点,B错误;EM算法英文全称是ExpectationMaximization,C选项表述不准确;所以以上选项中只有A正确,答案选A。39.对主成分分析PCA方法描述正确的是:A、投影矩阵是正交矩阵B、进行非正交投影C、PCA不需要进行样本去均值D、投影到特征值最小的方向正确答案:A答案解析:主成分分析(PCA)中投影矩阵是正交矩阵,它通过正交变换将高维数据投影到低维空间,使得投影后的数据方差最大化,是进行正交投影,B错误;PCA需要进行样本去均值处理,C错误;是投影到特征值最大的方向,D错误。PCA的核心思想是通过线性变换将原始数据转换为一组新的变量,即主成分,这些主成分是原始变量的线性组合,且彼此之间互不相关。在这个过程中,通过构建正交矩阵来实现数据的投影,以达到降维且保留数据主要特征的目的。40.朴素贝叶斯分类器的特征不包括A、数据的缺失值影响不大B、孤立的噪声对该分类器的影响不大C、要求数据的属性是相互独立的D、条件独立的假设可能不成立正确答案:C41.极大似然估计中参数是()A、未知的随机变量B、已知的随机变量C、确定且已知的量D、确定且未知的量正确答案:D答案解析:极大似然估计是利用已知的样本结果,反推最有可能(最大概率)导致这些样本结果出现的模型参数值。所以参数是确定但未知的量,需要通过样本数据来进行估计。42.哪些机器学习模型经过训练,能够根据其行为获得的奖励和反馈做出一系列决策?A、无监督学习B、监督学习C、强化学习D、以上全部正确答案:C答案解析:强化学习是一类通过与环境进行交互并根据环境反馈的奖励信号来学习最优行为策略的机器学习方法。在强化学习中,智能体(agent)在环境中执行一系列动作,并根据这些动作获得的奖励和反馈来调整自己的行为策略,以最大化长期累积奖励。无监督学习主要用于发现数据中的模式和结构,不依赖于明确的奖励反馈;监督学习是基于标注数据进行学习以预测输出,也不是根据奖励和反馈来做决策。所以答案是强化学习,选C。43.下列方法中,属于无监督学习的为()A、线性回归B、K均值C、神经网络D、决策树正确答案:B答案解析:无监督学习是指在没有标签的数据上进行学习,旨在发现数据中的模式和结构。K均值算法是一种典型的无监督学习算法,它将数据点划分为不同的簇。线性回归、神经网络、决策树都属于有监督学习算法,它们需要有标签的数据来进行模型训练。44.一个包含n类的多分类问题,若采用一对剩余的方法,需要拆分成多少次?A、n+1B、1C、nD、n-1正确答案:D45.以下关于降维说法不正确的是?A、降维是将训练样本从高维空间转换到低维空间B、降维有助于数据可视化C、通过降维可以更有效地发掘有意义的数据结构D、降维不会对数据产生损伤正确答案:D答案解析:降维过程中可能会损失一些信息,对数据产生一定损伤。选项A,降维的目的就是将高维空间的训练样本转换到低维空间;选项B,降维后数据维度降低,更利于进行数据可视化;选项C,降维能去除一些噪声和冗余信息,从而更有效地发掘有意义的数据结构。46.当数据分布不平衡时,我们可采取的措施不包括()。A、对数据分布较多的类别赋予更大的权重B、对数据分布较多的类别欠采样C、对数据分布较少的类别过采样D、对数据分布较少的类别赋予更大的权重正确答案:A答案解析:当数据分布不平衡时,通常对数据分布较多的类别进行欠采样,对数据分布较少的类别进行过采样或赋予更大的权重,而不是对数据分布较多的类别赋予更大的权重,所以答案是A。47.关于BP算法优缺点的说法错误的是()。A、BP算法不能用于处理非线性分类问题B、BP算法容易陷入局部最小值C、BP算法训练时间较长D、BP算法训练时候可能由于权值调整过大使得激活函数达到饱和正确答案:A答案解析:BP算法是一种强大的神经网络训练算法,它能够有效处理非线性分类问题,具有很强的非线性映射能力。而选项A中说BP算法不能用于处理非线性分类问题是错误的。BP算法容易陷入局部最小值,训练时间较长,训练时可能由于权值调整过大使得激活函数达到饱和,这些都是BP算法常见的缺点,所以选项B、C、D说法正确。48.EM算法是()学习算法A、有监督B、无监督C、半监督D、都不是正确答案:B答案解析:EM算法是一种无监督学习算法,用于含有隐变量的概率模型参数的极大似然估计或极大后验概率估计。它通过迭代的方式,不断地更新模型参数,使得观测数据的似然函数或后验概率函数最大化。在无监督学习中,数据没有预先定义的标签,算法的目标是发现数据中的潜在模式和结构。EM算法在许多领域都有广泛的应用,如聚类分析、混合模型估计、隐马尔可夫模型等。49.假设你有以下数据:(0,2)(2,2)(3,1)输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-OneOut)交叉验证得到的均方误差是多少?A、49/27B、10/32C、39/27D、55/27正确答案:A50.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是A、七分之四B、三分之二C、二分之一D、四分之一正确答案:C51.若svm出现欠拟合,以下合适的做法是A、做数据增强B、使用更powful的kernelC、使用L2正规化D、增加训练样本正确答案:B52.对决策树进行剪枝处理的主要目的是什么A、避免过拟合,降低泛化能力B、避免过拟合,提升泛化能力C、提高对训练集的学习能力D、避免欠拟合正确答案:B答案解析:决策树剪枝的主要目的是避免过拟合,提升泛化能力。过拟合是指模型在训练集上表现很好,但在测试集或新数据上表现很差的现象。剪枝通过减少决策树的复杂度,去除一些不必要的分支,从而降低模型对训练数据的依赖,提高模型对未知数据的预测能力,即提升泛化能力。避免欠拟合不是剪枝的主要目的,剪枝也不是为了提高对训练集的学习能力,同时是避免过拟合并提升泛化能力,而不是降低泛化能力。53.以下哪项不是降维的优点A、节省空间B、丢失部分信息C、加速后续的训练算法D、将数据可视化,从中获得洞察,了解最重要的特征正确答案:B答案解析:降维的优点包括加速后续训练算法、便于数据可视化以获得洞察、节省空间等。而丢失部分信息是降维带来的一个特点,但并不是优点。54.StandardScaler预处理方法可以表示为?=(?-?)/?,其中?表示特征所在列的A、最大值B、分解阈值C、均值D、方差正确答案:D55.神经网络算法有时会出现过拟合的情况,那么采取以下哪些方法解决过拟合更为可行()。A、为参数选取多组初始值,分别训练,再选取一组作为最优值B、增大学习的步长C、减少训练数据集中数据的数量D、设置一个正则项减小模型的复杂度正确答案:D答案解析:过拟合是指模型在训练数据上表现良好,但在测试数据上表现较差的现象。设置正则项可以在损失函数中加入一个惩罚项,使模型的参数不能过大,从而减小模型的复杂度,避免过拟合。选项A选取多组初始值训练再选最优值,主要是为了找到更好的初始点以优化模型收敛,对过拟合解决作用不大;选项B增大学习步长可能导致模型不收敛或难以达到最优解,不能解决过拟合;选项C减少训练数据数量会使模型训练不充分,更容易过拟合而不是解决过拟合。56.不属于KNN算法要素的是:A、k值的选择B、距离度量C、分类决策的规则D、训练样本的个数正确答案:D答案解析:KNN算法的要素包括k值的选择、距离度量、分类决策的规则等。训练样本的个数并不是KNN算法特有的要素,它在很多算法中都存在,不属于KNN算法区别于其他算法的关键要素。57.KNN算法是基于()A、概率空间B、颜色空间C、距离空间D、线性空间正确答案:C答案解析:KNN算法是基于距离空间的。它通过计算不同样本之间的距离,来衡量样本之间的相似性,进而进行分类或回归等任务。在KNN中,主要依据的就是样本点之间的距离关系来确定最近的K个邻居,所以是基于距离空间。58.朴素贝叶斯分类器的三种实现不包括A、基于伯努利模型实现B、属性条件独立性假设实现C、基于高斯模型实现D、基于多项式模型实现正确答案:B答案解析:朴素贝叶斯分类器的三种常见实现包括基于伯努利模型实现、基于多项式模型实现和基于高斯模型实现。属性条件独立性假设是朴素贝叶斯分类器的一个基本假设,并不是一种实现方式。59.AGNES是一种()聚合策略的层次聚类算法A、A自顶向下B、自底向上C、由最近样本决定D、D最远样本决定正确答案:B答案解析:层次聚类算法分为凝聚式(自底向上)和分裂式(自顶向下)两种。AGNES是一种凝聚式层次聚类算法,即自底向上的聚合策略,它从每个样本作为一个单独的类开始,不断合并最近的类,直到所有样本都在一个类中。60.下列有关核函数不正确的是:A、可以采用cross-va1idalion方法选择最佳核函数B、满足Mercer条件的函数不一定能作为支持向量机的核函数C、极大地提高了学习机器的非线性处理能力D、函数与非线性映射并不是一一对应的关系正确答案:B答案解析:满足Mercer条件的函数一定可以作为支持向量机的核函数,这是核函数的基本性质之一,所以选项B说法不正确。选项A,采用cross-validation方法选择最佳核函数是常见的做法;选项C,核函数确实能极大提高学习机器的非线性处理能力;选项D,不同的函数可能对应相同的非线性映射,函数与非线性映射不是一一对应关系,A、C、D选项说法均正确。二、判断题(共30题,每题1分,共30分)1.过拟合比
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年中国卫星互联网产业发展展望及投资策略报告
- 果树栽培工岗前创新意识考核试卷含答案
- 2025年大学四年级古文字学专业《古文字释读》期末考试测验卷及答案
- 呼叫中心服务员标准化考核试卷含答案
- 《GBT 30440.5-2016 游戏游艺机产品规范 第 5 部分:家庭游戏机》专题研究报告
- 《GBT 2550-2016 气体焊接设备 焊接、切割和类似作业用橡胶软管》专题研究报告
- 炉外精炼工岗位职业健康技术规程
- 野生植物培植工职业健康、安全、环保技术规程
- 供热管网系统运行工岗位安全技术规程
- 《GBT 17623-2017 绝缘油中溶解气体组分含量的气相色谱测定法》专题研究报告
- 合同薪资变更协议书
- 2026水利部黄河水利委员会事业单位高校毕业生招聘265人备考题库带答案解析
- 哈尔滨工业大学概况
- 警用九二式手枪课件
- 2025年医学营养学题库及答案
- 国开2025年秋《心理学》形成性考核练习1-6答案
- (2025)社区网格员笔试考试题库及答案
- 《思想道德与法治》(23版):第三章 继承优良传统 弘扬中国精神
- 职业本科《大学英语》课程标准
- 烹饪工艺课程标准
- 博世中国14Q价值流的14条质量原则
评论
0/150
提交评论