《机器学习》期末考试复习题库(附答案)_第1页
《机器学习》期末考试复习题库(附答案)_第2页
《机器学习》期末考试复习题库(附答案)_第3页
《机器学习》期末考试复习题库(附答案)_第4页
《机器学习》期末考试复习题库(附答案)_第5页
已阅读5页,还剩61页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《机器学习》期末考试复习题库(附答案)单选题1.做一个二分类预测问题,先设定阈值为0.5,概率大于等于0.5的样本归入正例类(即1),小于0.5的样本归入反例类(即0)。然后,用阈值n(n>0.5)重新划分样本到正例类和反例类,下面哪一种说法正确是()1.增加阈值不会提高召回率2.增加阈值会提高召回率3.增加阈值不会降低查准率4.增加阈值会降低查准率A、1B、2C、1、3D、2、4参考答案:C2.在一个线性回归问题中,我们使用R平方(R-Squared)来判断拟合度。此时,如果增加一个特征,模型不变,则下面说法正确的是?A、如果R-Squared增加,则这个特征有意义B、如果R-Squared减小,则这个特征没有意义C、仅看R-Squared单一变量,无法确定这个特征是否有意义。D、以上说法都不对参考答案:C3.在机器学习中,学得的模型适用于新样本的能力称为()A、分析能力B、泛化能力C、训练能力D、验证能力参考答案:B4.在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(over-fitting)中影响最大?A、多项式阶数B、更新权重w时,使用的是矩阵求逆还是梯度下降C、使用常数项参考答案:A5.在构造决策树时,以下哪种不是选择属性的度量的方法A、信息值B、信息增益C、信息增益率D、基尼指数参考答案:A6.在大数据集上训练决策树,为了使用较少时间,我们可以()A、增加树的深度B、增加学习率C、减少树的深度D、减少树的数量参考答案:C7.在变量选择过程中,下列哪些方法可用于检查模型的性能?a.多重变量用于同一个模型b.模型的可解释性c.特征的信息d.交叉验证A、dB、abcC、acdD、全部参考答案:C8.在SVM中,margin的含义是()A、差额B、损失误差C、幅度D、间隔参考答案:D9.以下有关随机森林算法的说法错误的是:A、随机森林算法的分类精度不会随着决策树数量的增加而提高B、随机森林算法对异常值和缺失值不敏感C、随机森林算法不需要考虑过拟合问题D、决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型分类效果越好参考答案:C10.以下哪些是无序属性()A、{1,2,3}B、{飞机,火车、轮船}C、闵可夫斯基距离D、{小,中,大}参考答案:B11.以下哪项是非线性降维方法A、PCA(主成分分析)B、LDA(线性判别)C、ICA(独立成分分析)D、KPCA(核化线性降维)参考答案:D12.以下哪个是PCA算法的主要应用?A、聚类B、分类C、距离度量D、数据压缩参考答案:D13.以下哪个不是原型聚类算法()A、K均值算法B、学习向量量化LVQC、高斯混合聚类D、PCA算法参考答案:D14.以下哪个不是常见的决策树算法A、ID3B、C4.5C、ARTD、BSCAN参考答案:D15.以下关于训练集、验证集和测试集说法不正确的是()。A、验证集用于调整模型参数B、测试集是纯粹是用于测试模型泛化能力C、以上说法都不对D、训练集是用来训练以及评估模型性能参考答案:D16.以下关于学习率说法错误的是()。A、学习率太大会导致无法收敛B、学习率必须是固定不变的C、学习率的选择不能太大也不能太小D、学习率太小会使得算法陷入局部极小点参考答案:B17.以下关于神经网络的说法中,正确的是()?A、增加网络层数,一定能减小训练集错误率B、减小网络层数,一定能减小测试集错误率C、增加网络层数,可能增加测试集错误率D、增加网络层数,一定增加测试集错误率参考答案:C18.以下关于降维说法不正确的是?A、降维是将训练样本从高维空间转换到低维空间B、降维有助于数据可视化C、通过降维可以更有效地发掘有意义的数据结构D、降维不会对数据产生损伤参考答案:D19.以下关于机器学习描述错误的是?A、是一门涉及统计学、系统辨识、逼近理论、神经网络、优化理论、计算机科学、脑科学等诸多领域的交叉学科B、研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能C、器学习强调三个关键词:算法、模型、训练D、基于数据的机器学习是现代智能技术中的重要方法之一参考答案:C20.以下关于感知器说法错误的是:()A、感知器中的偏置只改变决策边界的位置B、可为感知器的输出值设置阈值使其用于处理分类问题C、单层感知器可以用于处理非线性学习问题D、感知器是最简单的前馈式人工神经网络参考答案:C21.以下关于Sigmoid的特点说法错误的是()。A、Sigmoid函数计算量小B、趋向无穷的地方,函数变化很小,容易出现梯度消失的现象C、可以将函数值的范围压缩到[0,1]D、函数处处连续参考答案:A22.一个包含n类的多分类问题,若采用一对剩余的方法,需要拆分成多少次?A、nB、1C、n-1D、n+1参考答案:C23.一对一法分类器,k个类别需要多少个SVM:A、k(k-1)/2B、k(k-1)C、kD、k!参考答案:A24.一般来说,下列哪种方法常用来预测连续独立变量?A、线性回归B、逻辑回顾C、线性回归和逻辑回归都行D、以上说法都不对参考答案:A25.线性回归能完成的任务是A、预测离散值B、预测连续值C、分类D、聚类参考答案:B26.下面关于贝叶斯分类器描述错误的是A、以贝叶斯定理为基础B、是基于后验概率C、可以解决有监督学习的问题D、可以用极大似然估计法解贝叶斯分类器参考答案:B27.下面关于SVM算法叙述不正确的是()A、SVM在解决小样本、非线性及高维模式识别问题中具有优势B、SVM是一种基于经验风险最小化准则的算法C、SVM求得的解为全局唯一最优解D、SVM最终分类结果只与少数支持向量有关参考答案:B28.下面符合特征选择标准的是()A、越少越好B、越多越好C、选择能够反映不同事物差异的特征D、以上均不对参考答案:C29.下面不属于过拟合原因的是A、特征维度过多B、模型假设过于复杂C、训练数据过多D、噪声过多参考答案:C30.下列中为判别模型的是()A、高斯混合模型B、隐含马尔科夫模型C、GAN模型D、逻辑回归模型参考答案:D31.下列有关支持向量机说法不正确的是:A、得到的是局部最优解B、具有很好的推广能力C、采用结构风险最小化原理D、是凸二次优化问题参考答案:A32.下列有关核函数不正确的是:A、可以采用cross-va1idalion方法选择最佳核函数B、满足Mercer条件的函数不一定能作为支持向量机的核函数C、极大地提高了学习机器的非线性处理能力D、函数与非线性映射并不是一一对应的关系参考答案:B33.下列有关SVM和LR说法不正确的是()A、SVM是分类模型,LR是回归模型B、SVM和LR都是分类模型C、SVM是判别式模型D、LR判别式模型参考答案:A34.下列误差和错误中,哪一项是由于训练样本的错误而导致?A、泛化误差B、偏差C、方差D、噪声参考答案:D35.下列是机器学习中降维任务的准确描述的为A、依据某个准则对项目进行排序B、将其映射到低维空间来简化输入C、预测每个项目的实际值D、对数据对象进行分组参考答案:B36.下列哪种归纳学习采用符号表示方式?A、经验归纳学习B、遗传算法C、联接学习D、强化学习参考答案:A37.下列哪种方法可以用来缓解过拟合的产生:()。A、正则化B、增加更多的特征C、以上都是D、增加模型的复杂度参考答案:A38.下列哪一种偏移,是我们在最小二乘直线拟合的情况下使用的?图中横坐标是输入X,纵坐标是输出Y。A、垂直偏移B、垂向偏移C、两种偏移都可以D、以上说法都不对参考答案:A39.下列两个变量之间的关系中,那一个是线性关系A、学生的性别与他(她)的数学成绩B、人的工作环境与他的身体健康状况C、儿子的身高与父亲的身高D、正方形的边长与周长参考答案:D40.下列激活函数中,能够实现将特征限制到区间[-1,1]的是哪一个A、TanhB、LogisticC、ReLUD、Sigmoid参考答案:A41.下列关于主成分分析的表述错误的是A、主成分分析方法一种数据降维的方法B、通过主成分分析,可以将多个变量缩减为少数几个新的变量,而信息并没有损失,或者说信息损失很少C、通过主成分分析,可以用较少的新的指标来代替原来较多的指标反映的信息,并且新的指标之间是相互独立的D、主成分分析是数据增维的方法参考答案:D42.下列关于线性回归分析中的残差(Residuals)说法正确的是?A、残差均值总是为零B、残差均值总是小于零C、残差均值总是大于零D、以上说法都不对参考答案:A43.下列关于过拟合的说法错误的是A、过拟合是指模型在训练集上表现很好,但是在交叉验证集和测试集上表现一般B、解决过拟合可以采用Dropout方法C、解决过拟合可以采用参数正则化方法D、数据集扩增不能用来解决过拟合问题参考答案:D44.下列关于Boosting和Bagging的描述正确的是:A、Boosting主要关注降低方差B、oosting的代表算法有随机森林C、Bagging基于自助采样法D、Bagging主要关注降低偏差参考答案:C45.下列方法中,属于无监督学习的为()A、线性回归B、K均值C、神经网络D、决策树参考答案:B46.下列不属于集成学习方法是A、baggingB、connectingC、boostingD、stacking参考答案:B47.下列不是SVM核函数的是:A、多项式核函数B、logistic核函数C、径向基核函数D、Sigmoid核函数参考答案:B48.下列表述中,在k-fold交叉验证中关于选择K说法正确的是A、较大的K并不总是好的,选择较大的K可能需要较长的时间来评估你的结果B、相对于期望误差来说,选择较大的K会导致低偏差(因为训练folds会变得与整个数据集相似)C、在交叉验证中通过最小化方差法来选择K值D、以上都正确参考答案:D49.下列贝叶斯网结构中不属于三种典型的依赖关系A、同父结构B、选择结构C、顺序结构D、V型结构参考答案:B50.同质集成中的个体学习器亦称()A、基学习器B、同质学习器C、组件学习器D、异质学习器参考答案:A51.四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用SVM分类的决策边界是A、y=xB、x=0C、y=-xD、y=0参考答案:B52.神经网络算法有时会出现过拟合的情况,那么采取以下哪些方法解决过拟合更为可行()。A、为参数选取多组初始值,分别训练,再选取一组作为最优值B、增大学习的步长C、减少训练数据集中数据的数量D、设置一个正则项减小模型的复杂度参考答案:D53.若某学习器预测的是离散值,则此类学习任务称为()A、分类B、聚类C、回归D、强化学习参考答案:A54.若svm出现欠拟合,以下合适的做法是A、使用更powful的kernelB、增加训练样本C、使用L2正规化D、做数据增强参考答案:A55.如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?A、增大惩罚参数C的值B、减小惩罚参数C的值C、减小核系数(gamma参数)D、都不正确参考答案:A56.如果我们说“线性回归”模型完美地拟合了训练样本(训练样本误差为零),则下面哪个说法是正确的?A、测试样本误差始终为零B、测试样本误差不可能为零C、以上答案都不对参考答案:C57.朴素贝叶斯是一种典型的基于概率的机器学习方法,它利用了A、先验概率B、后验概率C、以上都是D、以上都不是参考答案:C58.朴素贝叶斯分类器的特征不包括A、孤立的噪声对该分类器的影响不大B、数据的缺失值影响不大C、要求数据的属性是相互独立的D、条件独立的假设可能不成立参考答案:C59.朴素贝叶斯分类器的三种实现不包括A、基于伯努利模型实现B、基于多项式模型实现C、属性条件独立性假设实现D、基于高斯模型实现参考答案:C60.哪一个是机器学习的合理定义?A、机器学习是计算机编程的科学B、机器学习从标记的数据中学习C、机器学习是允许机器人智能行动的领域D、机器学习能使计算机能够在没有明确编程的情况下学习参考答案:D61.哪些机器学习模型经过训练,能够根据其行为获得的奖励和反馈做出一系列决策?A、无监督学习B、监督学习C、强化学习D、以上全部参考答案:C62.模型评估的常用方法有哪些A、留出法B、交叉验证法C、自助法D、以上都是参考答案:D63.决策树中不包含以下哪种结点A、根节点B、内部结点C、叶节点D、外部结点参考答案:D64.决策树学习的关键是A、初始结点选择B、剪枝C、选择最优划分属性D、分枝参考答案:C65.决策树模型中应如何妥善处理连续型属性A、直接忽略B、利用固定阈值进行离散化C、根据信息增益选择阈值进行离散化D、随机选择数据标签发生变化的位置进行离散化参考答案:C66.将数据集D进行适当处理,产生出训练集S和测试集T,有哪些常见的做法:A、留出法B、交叉验证法C、自助法D、以上都是参考答案:D67.假设现在只有两个类,这种情况下SVM需要训练几次?A、1B、2C、3D、4参考答案:A68.假设我们使用原始的非线性可分版本的Soft-SVM优化目标函数。我们需要做什么来保证得到的模型是线性可分离的?A、C=0B、C=1C、正无穷大D、C负无穷大参考答案:C69.假设你有以下数据:(0,2)(2,2)(3,1)输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-OneOut)交叉验证得到的均方误差是多少?A、10/32B、39/27C、49/27D、55/27参考答案:C70.假如我们使用Lasso回归来拟合数据集,该数据集输入特征有100个(X1,X2,…,X100)。现在,我们把其中一个特征值扩大10倍(例如是特征X1),然后用相同的正则化参数对Lasso回归进行修正。那么,下列说法正确的是?A、特征X1很可能被排除在模型之外B、特征X1很可能还包含在模型之中C、无法确定特征X1是否被舍弃D、以上说法都不对参考答案:B71.极大似然估计中参数是()A、确定且已知的量B、确定且未知的量C、已知的随机变量D、未知的随机变量参考答案:B72.极大似然估计是()A、与总体分布无关的统计量B、通过总体分布才能求出来的统计量C、似然方程的解D、对数似然方程的解参考答案:B73.基于层次的聚类算法包括()。A、合并的层次聚类B、基于密度的聚类算法C、基于划分的算法D、基于网络的聚类算法参考答案:A74.机器学习这个术语是由()定义的?A、rthurSamuelB、GuidovanRossumC、JamesGoslingD、以上都不是参考答案:A75.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是A、四分之一B、二分之一C、七分之四D、三分之二参考答案:B76.混淆矩阵的真负率公式是为A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)参考答案:D77.关于维数灾难说法错误的是?A、高维度数据可使得算法泛华能力变得越来越弱B、降低高维度数据会对数据有所损伤C、高维度数据增加了运算难度D、高维度数据难以可视化参考答案:A78.关于随机森林,说法错误的是:A、相对于Boosting系列的Adaboost和GBDT,RF实现比较简单。B、在训练后,可以给出各个特征对于输出的重要性C、训练高度串行化D、随机采样,训练出的模型的方差小,泛化能力强参考答案:C79.关于数据规范化,下列说法中错误的是()。A、标准化实际上是将数据在样本的标准差上做了等比例的缩放操作B、归一化利用了样本中的最大值和最小值C、包含标准化和归一化D、标准化在任何场景下受异常值的影响都很小参考答案:D80.关于决策树结点划分指标描述正确的是A、类别非纯度越大越好B、信息增益越大越好C、信息增益率越小越好D、基尼指数越大越好参考答案:B81.关于决策树,以下哪种说法是正确的A、可读性强B、只用于分类问题C、只用于回归问题D、是无监督学习参考答案:A82.关于SVM泛化误差描述正确的是A、超平面与支持向量之间距离B、超平面与支持向量之间距离C、SVM的误差阈值参考答案:B83.关于logistic回归和SVM不正确的是()A、Logistic回归目标函数是最小化后验概率B、Logistic回归可以用于预测事件发生概率的大小C、SVM目标是结构风险最小化D、SVM可以有效避免模型过拟合参考答案:A84.关于K-均值算法,以下说法不正确的是A、K-均值算法是一种划分方法。B、K-均值算法能发现任意形状的簇。C、K-均值算法不一定收敛于全局最优解。D、比起DBSCAN算法来,K更好参考答案:B85.关于EM算法正确的是A、EM算法包括两步:E算法和M算法B、EM算法一定能收敛到全局最大值点C、英文全称是Expectation-MinimizationD、以上都不正确参考答案:A86.关于BP算法优缺点的说法错误的是()。A、BP算法不能用于处理非线性分类问题B、P算法容易陷入局部最小值C、BP算法训练时间较长D、BP算法训练时候可能由于权值调整过大使得激活函数达到饱和参考答案:A87.关于BP算法信号前向传播的说法正确的是()。A、BP算法在计算正向传播输出值时需要考虑激活函数B、P算法信号前向传播的计算量跟输入层神经元数目无关C、BP算法只有在隐层才有激活函数D、BP算法信号传播的顺序是输出层、隐层、输入层。参考答案:A88.关于BP算法特点描述错误的是()A、输入信号顺着输入层、隐层、输出层依次传播B、计算之前不需要对训练数据进行归一化C、预测误差需逆向传播,顺序是输出层、隐层、输入层D、各个神经元根据预测误差对权值进行调整参考答案:B89.关于BP算法反向传播的说法正确的是()。A、BP算法反向传播进行更新时一般用到微积分的链式传播法则B、P算法更新量与步长关系不大C、BP算法反向传播的预测误差值一般由真实标签值和预测标签值的差计算得来D、BP算法反向传播的目的是只对权值进行更新参考答案:A90.谷歌新闻每天收集非常多的新闻,并运用()方法再将这些新闻分组,组成若干类有关联的新闻。于是,搜索时同一组新闻事件往往隶属同一主题的,所以显示到一起。A、关联规则B、聚类C、回归D、分类参考答案:B91.构建一个最简单的线性回归模型需要几个系数(只有一个特征)?A、1个B、2个C、3个D、4个参考答案:B92.对主成分分析PCA方法描述正确的是:A、投影矩阵是正交矩阵B、进行非正交投影C、PCA不需要进行样本去均值D、投影到特征值最小的方向参考答案:A93.对于在原空间中线性不可分问题,支持向量机()。A、无法处理B、将数据映射到核空间中C、在原空间中寻找非线性函数的划分数据D、在原空间中寻找线性函数划分数据参考答案:B94.对于非概率模型而言,可按照判别函数线性与否分成线性模型与非线性模型。下面哪个模型不属于线性模型?A、感知机B、AdaBoostC、K-meansD、k近邻参考答案:B95.对决策树进行剪枝处理的主要目的是什么A、避免欠拟合B、提高对训练集的学习能力C、避免过拟合,降低泛化能力D、避免过拟合,提升泛化能力参考答案:D96.对函数dist(.,.)若它是一个距离度量则需要满足的基本特性中以下哪个不是正确答案A、非负性B、同一性C、递增性D、对称性参考答案:C97.对Boosting模型的描述错误的是A、采用串行训练模式B、增加被错误分类样本的权值C、通过改变训练集进行有针对性的学习D、基础分类器采用少数服从多数原则进行集成参考答案:D98.点击率的预测是一个数据比例不平衡问题(比如训练集中样本呈阴性的比例为99%,阳性的比例是1%),如果我们用这种数据建立模型并使得训练集的准确率高达99%。我们可以得出结论是:A、模型的准确率非常高,我们不需要进一步探索B、模型不好,我们应建一个更好的模型C、无法评价模型D、以上都不正确参考答案:B99.当训练集很多时,一种更为强大的结合策略是使用(),即通过另一个学习器来进行结合。A、学习法B、平均法C、投票法D、加权投票法参考答案:A100.当数据分布不平衡时,我们可采取的措施不包括()。A、对数据分布较多的类别赋予更大的权重B、对数据分布较多的类别欠采样C、对数据分布较少的类别过采样D、对数据分布较少的类别赋予更大的权重参考答案:A101.不属于KNN算法要素的是:A、k值的选择B、距离度量C、分类决策的规则D、训练样本的个数参考答案:D102.按照求解方法进行分类算法的划分,下列中为生成模型的是()A、决策树B、K近邻C、贝叶斯分类器D、支持向量机SVM参考答案:C103.SVM算法的性能取决于:A、以上所有B、软间隔参数C、核函数的参数D、核函数的选择参考答案:A104.StandardScaler预处理方法可以表示为?=(?-?)/,其中?表示特征所在列的A、最大值B、分解阈值C、均值D、方差参考答案:D105.K均值算法的K指的是什么?A、K是均值的数值B、K是均值的最大限值C、K是分类的数量D、K是分类的迭代次数参考答案:B106.KNN算法属于一种典型的()算法A、监督学习B、无监督学习C、半监督学习D、弱监督学习参考答案:A107.KNN算法是基于()A、概率空间B、颜色空间C、距离空间D、线性空间参考答案:C108.ID3决策树算法以()为准则来选择划分属性A、信息增益B、信息熵C、基尼系数D、信息增益率参考答案:A109.EM算法是()学习算法A、有监督B、无监督C、半监督D、都不是参考答案:B110.EM算法的停止条件()A、已达到最大迭代轮数B、数据样本异常C、训练器异常D、似然函数减小参考答案:A111.BP算法总结错误的是()。A、当前层的连接权值梯度,取决于当前层神经元阈值梯度和上一层神经元输出B、算法只要知道上一层神经元的阈值梯度,就能计算当前层神经元的阈值梯度和连接权值梯度C、隐层的阈值梯度只跟本层的神经元输出值有关D、隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐层与输出层的连接权值参考答案:C112.AGNES是一种()聚合策略的层次聚类算法A、自顶向下B、自底向上C、由最近样本决定D、最远样本决定参考答案:B113.下列关于线性回归说法错误的是()A、在现有模型上,加入新的变量,所得到的R^2的值总会增加B、线性回归的前提假设之一是残差必须服从独立正态分布C、残差的方差无偏估计是SSE/(n-p)D、自变量和残差不一定保持相互独立参考答案:D114.“学习向量量化”与一般聚类算法不同的是()A、数据样本带有类别标记B、结构不同C、向量程度不同D、簇的种类不同参考答案:A115.“没有免费的午餐定理”告诉我们A、我们不能对问题有先验假设B、没有可以适应一切问题的算法C、设计好的算法是徒劳的D、对于一个特定的问题,任何算法都是一样好的参考答案:B116.()是并行式集成学习方法最著名的代表A、随机森林B、oostingC、BaggingD、AdaBoost参考答案:C判断题1.最近邻分离器的泛化错误率不会超过贝叶斯最优分类器错误率的两倍A、正确B、错误参考答案:A2.支持向量是最靠近决策表面的数据点A、正确B、错误参考答案:A3.在基于SGD随机梯度下降算法的神经网络中,每次打乱数据是非常重要和必不可少A、正确B、错误参考答案:A4.在初始数据量足够时,自助法比交叉验证法更为常用。A、正确B、错误参考答案:B5.预剪枝决策树通常比后剪枝决策树保留了更多的分支。A、正确B、错误参考答案:B6.预剪枝决策树的训练时间开销比后剪枝决策树要大得多。A、正确B、错误参考答案:B7.由于贝努力贝叶斯比适合于贝努力(二项分布)分布,因此,贝努力贝叶斯只能用于二分类任务A、正确B、错误参考答案:B8.硬投票计算出每个类别的平均估算概率,然后选出概率最高的类别。A、正确B、错误参考答案:B9.一个贝叶斯网由结构和参数两个部分构成A、正确B、错误参考答案:A10.一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。A、正确B、错误参考答案:A11.一般来说,查准率高时,查全率也高。A、正确B、错误参考答案:B12.训练算法的目的就是要让模型拟合训练数据A、正确B、错误参考答案:B13.线性回归模型只能处理具有线性关系的数据。A、正确B、错误参考答案:B14.无监督学习任务中研究最多、应用最广的是聚类A、正确B、错误参考答案:A15.通常,我们认为对于一个系统来说,误差越小越好,因此无论是泛化误差还是经验误差,都是越小越好。A、正确B、错误参考答案:B16.梯度下降法中梯度方向是函数值下降最快方向。A、正确B、错误参考答案:B17.特征空间越大,过拟合的可能性越大。A、正确B、错误参考答案:A18.随机森林的训练效率通常低于BaggingA、正确B、错误参考答案:B19.随机森林的两个随机指的是随机选取样本和随机选取属性A、正确B、错误参考答案:A20.数据有噪声,有重复值,不会导致SVM算法性能下降A、正确B、错误参考答案:B21.输出变量为连续变量的预测问题是分类问题A、正确B、错误参考答案:B22.神经网络算法不能用于数据降维A、正确B、错误参考答案:B23.若参数C(costparameter)被设为无穷,只要最佳分类超平面存在,它就能将所有数据全部正确分类A、正确B、错误参考答案:A24.如果数据量较少,容易发生过拟合。A、正确B、错误参考答案:A25.任何一个有效的机器学习算法必须有其归纳偏好A、正确B、错误参考答案:A26.模型泛化能力与训练样本数量无关A、正确B、错误参考答案:B27.密度直达和密度可达满足对称性A、正确B、错误参考答案:B28.逻辑回归是一个回归模型A、正确B、错误参考答案:B29.逻辑回归和朴素贝叶斯都有对属性特征独立的要求A、正确B、错误参考答案:B30.逻辑回归分类的精度不够高,因此在业界很少用到这个算法A、正确B、错误参考答案:B31.流形学习是一种非线性的维数约简方法A、正确B、错误参考答案:A32.决策树是基于树结构来进行决策的,决策树学习的目的是为了产生一棵泛化能力强的决策树。A、正确B、错误参考答案:A33.决策树的适用面较广,对于分类应用和回归应用,决策树都可以被用来构建模型。A、正确B、错误参考答案:A34.决策树的生成是一个递归过程在决策树基本算法中,有三种情形会导致递归返回。A、正确B、错误参考答案:A35.剪枝是决策树学习算法对付“过拟合”的主要手段,决策树剪枝的基本策略有“预剪枝”和“后剪枝”。A、正确B、错误参考答案:A36.集成学习可得到比单一学习器更好的泛化性能,尤其是弱学习器,泛化性能略大于50%A、正确B、错误参考答案:A37.集成学习方法只能用于分类任务A、正确B、错误参考答案:B38.机器学习方法传统上可以分为2类?A、正确B、错误参考答案:B39.回归问题和分类问题都有可能发生过拟合A、正确B、错误参考答案:A40.过拟合是有监督学习的挑战,而不是无监督学习A、正确B、错误参考答案:B41.过拟合是有监督学习的挑战,而不是无监督学习A、正确B、错误参考答案:A42.过拟合比欠拟合更容易克服。A、正确B、错误参考答案:B43.关于特征选择的说法,选择的特征越多越好?A、正确B、错误参考答案:B44.给定n个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着n的增加而减小A、正确B、错误参考答案:A45.概率模型的训练过程就是参数估计的过程A、正确B、错误参考答案:A46.分类预测型任务从已分类的数据中学习模型,并对新的未知分类的数据使用该模型进行解释,得到这些数据的分类。根据标签的不同,分别称为分类任务和预测任务。如果类标签是连续的类别,称为预测任务。A、正确B、错误参考答案:A47.分类是预测数据对象的离散类别,预测是用于数据对象的连续取值A、正确B、错误参考答案:A48.反应事件或对象在某方面的表现或性质的事项称为属性A、正确B、错误参考答案:A49.簇内相似度高且簇间相似度低的聚类结果比较好A、正确B、错误参考答案:A50.贝叶斯网不是因果关系网络图A、正确B、错误参考答案:B51.贝叶斯分类器中只有一个判别函数A、正确B、错误参考答案:B52.SVM中的泛化误差代表SVM对新数据的预测准确度A、正确B、错误参考答案:A53.PCA是有监督学习,是有参数限制的A、正确B、错误参考答案:B54.PCA是一种有效的降维去噪方法A、正确B、错误参考答案:A55.L2正则化往往用于防止过拟合,而L1正则化往往用于特征选择。A、正确B、错误参考答案:A56.K均值算法的E值越小则簇内样本相似度越低A、正确B、错误参考答案:B57.KNN算法的基本思路是近朱者赤,近墨者黑A、正确B、错误参考答案:A58.KNN没有显示的训练过程,它在训练阶段只是把数据保存下来,训练时间开销为0,等收到测试样本后进行处理。A、正确B、错误参考答案:A59.BP算法陷入局部极小值的问题可通过更换激活函数解决。A、正确B、错误参考答案:B60.BP算法的正向传播是为获取训练误差。A、正确B、错误参考答案:A61.BP算法的反向传播是为了对权值进行调整。A、正确B、错误参考答案:A62.BP算法“喜新厌旧”,在学习新样本后,会把旧样本逐渐遗忘。A、正确B、错误参考答案:A63.Boosting的训练过程是有序的。A、正确B、错误参考答案:A64.Bagging只适用于二分类任务A、正确B、错误参考答案:B65.Bagging是基于自助采样法的A、正确B、错误参考答案:A66.Bagging是并行式集成学习方法最著名的代表A、正确B、错误参考答案:A67.Bagging被誉为“代表集成学习技术水平的方法”A、正确B、错误参考答案:B68.AGNES算法分为单链接、全链接、均链接算法A、正确B、错误参考答案:A69.“硬间隔”是指SVM允许分类时出现一定范围的误差A、正确B、错误参考答案:B70.“独依赖估计”是半朴素贝叶斯分类器最常用的一种策略A、正确B、错误参考答案:A填空题1.主成分分析方法(PCA)的主要应用是对数据进行。答:数据压缩2.支持向量机的形式是要求所有样本均满足约束,这称为“”答:硬间隔3.支持向量机的复杂程度主要与有关答:支持向量的数目4.在最小化错误率方面()的性能是最优的答:贝叶斯分类器5.在研究对比不同算法的泛化性能时,我们用()上的判别效果来估计模型在实际使用时的泛化能力,而把训练数据另外划分为训练集和验证集,基于验证集上的性能来进行模型选择和调参。答:测试集6.在学习任务中,“分类”预测的是,“回归”预测的是。答:离散值|连续值7.在学习任务的真实边界比较复杂时,用决策树解决会相当复杂,此时采用(),可以实现斜划分甚至更复杂的划分形式。答:多变量决策树8.在现实生活中朴素贝叶斯分类器有多种使用方式,若任务数据更替频繁,则可以采用()方式,先不进行任何训练,待收到预测请求后再根据当前数据进行概率估值答:懒惰学习9.在机器学习中,对高维数据进行降维的主要目的是希望找到一个合适的(),在此空间中进行学习能比原始空间性能更好。答:低维空间10.在“单位阶跃函数”(unit-stepfunction)的作用下,若输入实值z<0,则应将其判定为()(正/反)例。答:反11.再缩放(rescaling)策略的出现,主要是为了解决()问题。答:类别不平衡12.一组数据类别数为N,则若该数据使用LDA算法降维,降维之后的维数最多为()维。答:N-113.一般的多层感知器包含哪三种类型层次的神经元(按顺序填写)。答:输入层|隐含层|输出层14.一般的,一棵决策树包含一个(),若干个内部结点和若干个()。答:根结点|叶结点15.要获得好的集成,个体学习器要有一定的()性和()性答:准确性|多样性16.样本的特征数也称为(),当维数非常大时,也就是通常所说的()答:维数|维数灾难17.训练误差较大,测试误差较大,是指模型出现了()的情况答:欠拟合18.训练集的误差称为,测试集误差称为,是除训练集以外所有样本误差。答:训练/经验误差|测试误差|泛化误差19.训练SVM的最小时间复杂度为O(n2),那么()数据集不适合用SVM答:大20.学得模型适用于新样本的能力称为能力。答:泛化21.信息增益以为基础。答:信息熵22.写出一个你知道的线性降维方法:()答:PCA主成分分析|LDA判别分析|MDS多尺度分析23.线性模型(linearmodel)试图学得一个通过属性的()_组合来进行预测的函数。答:线性24.填空:线性降维方法假设从高维空间到低维空间的函数映射是()的答:线性25.填空:马氏距离表示数据的()距离答:协方差26.梯度下降法,在使用的时候无非是考虑到两个方面:一是(),二是()。答:方向|步长27.随机梯度下降是每次迭代使用()样本来对参数进行更新。答:一个28.随机森林通过()提高性能答:降低方差29.随机森林的基本思想包括()()答:bagging集成学习理论|boosting集成学习理论30.数据降维方法一般分为哪些种类答:线性方法|非线性方法31.是说,若有多个假设与观察一致,则选择最简单的那个答:奥卡姆剃刀32.神经网络中最基本的成分是()模型答:神经元33.神经网络模型按照学习方式可分为有导师型和()答:无导师型34.神经网络模型按照网络的结构可分为前馈型和()。答:反馈型35.三种常用的替代损失函数包括hinge损失,损失,损失答:指数|对率36.任何一个核函数都隐式地定义了一个称为“”的特征空间答:再生核希尔伯特空间37.人工神经网络按性能可分为离散型和()答:连续型38.批量梯度下降法是指在每一次迭代时使用()样本来进行梯度的更新。答:所有39.目前的集成学习大致分为两类:个体学习器间存在强依赖关系,必须串行生成的是(),个体学习器间不存在强依赖关系,可同时生成的是()。答:序列化方法|并行化方法40.逻辑回归是()学习答:有监督41.两个异类支持向量到超平面的距离之和被称为“”答:间隔42.连续属性在定义域上有()可能的取值,离散属性在定义域上有()取值。答:无穷多个|有限个43.可以防止出现过拟合对策:、。答:数据扩增|正则化|采用验证集44.可看作学习算法在给定数据和参数空间上的实例化答:学习器45.决策树学习的关键是如何选择最优划分属性。一般而言,随着划分过程不断进行,我们希望决策树的分支结点的()越来越高答:纯度46.决策树ID3算法中每次分支都按照信息增益最大进行的,分支后相比分之前,数据集的信息熵变化情况是()_答:变小47.聚类性能度量分为()和()两类。答:外部指标|内部指标48.聚类将数据集中的样本划分为()的子集。答:若干个不相交49.纠错输出码(ErrorCorrectingOutputCodes,简称ECOC)工作过程中主要分为两步,一步(),一步解码。答:编码50.将原始空间中的向量作为输入向量,并返回特征空间(转换后的数据空间,可能是高维)中向量的点积的函数称为答:核函数51.剪枝处理分为()和(),前者使得决策树的很多分支都没有展开,降低过拟合的风险,但也容易带来欠拟合的风险,后者使得决策树完全展开,泛化性能往往优于前者,但训练和测试时间长。答:预剪枝|后剪枝52.假设现在只有两个类,这种情况下SVM需要训练几次?答:153.集成学习中常用的结合策略有(),(),()答:平均法|投票法|学习法54.机器学习的方式可分为、和。答:监督学习|半监督学习|无监督学习55.回归任务最常用的性能度量是()答:均方误差56.给定一定数量的红细胞、白细胞图像以及它们对应的标签,设计出一个红、白细胞分类器,这属于学习。答:监督57.个体决策树的构建过程中Bagging使用的是()型决策树,而随森林使用的是()型决策树答:确定|随机58.高斯混合聚类采用()来表达聚类原型。答:概率模型59.多数投票法分为()和()答:绝对多数投票法|相对多数投票法60.多分类任务进行拆分的最经典的差分策略有:"一对一","一对其余"和"()"。答:多对多61.对数几率回归(logisticregression)虽名为“回归”,实际上是一种()_学习方法。答:分类62.对函数dist(.,.),若它是一个距离度量则需要满足非负性,同一性,对称性和()四个性质。答:直递性63.当学习器把训练样本学得太好了的时候,很可能已经把训练样本自身的一些特点当作了所有潜在样本都会具有的一般性质,这样就会导致泛化能力下降。这种现象在机器学习中称为()。与之相对的(),这是指对训练样本的一般性质尚未学好。答:过拟合|欠拟合64.从偏差-方差的角度看,Bagging主要关注降低(),Boosting主要关注降低()答:方差|偏差65.常用核函数有线性核,多项式核,拉普拉斯核,Sigmoid核,核等。答:高斯66.常见的两种梯度下降算法()答:批量梯度下降法|随机梯度下降法67.层次聚类试图在()对数据集进行划分,从而形成()的聚类结构。答:不同层次|树形68.标准梯度下降法若误差曲面存在多个局部最小值,那么标准梯度模型可能找不到()。答:全局最小值69.贝叶斯网亦称“信念网”,它借助()来刻画属性之间的依赖关系答:有向无环图70.贝叶斯分类器的训练,就是从样本集数据中估计出()()答:先验概率|类条件概率71.P-R曲线的横坐标代表(),纵坐标代表()答:查全率|查准率72.PCA是一种()监督的降维方法答:无73.PCA方法满足的两个重要性质是:答:最近重构性|最大可分性74.OvR每次将一个类的样例作为正例,()_的样例作为反例。答:其他类75.LDA算法设法将样例投影到一条直线上,使得()(同类/异类)样例的投影点尽可能近。答:同类76.k均值算法和LVQ采用()来刻画聚类结构。答:原型向量77.ID3算法,在决策树生成过程中,以()为特征选择的准则。答:信息增益78.DBSCAN是一种著名的()算法,基于一组()参数来刻画样本分布的紧密程度。答:密度聚类|邻域79.CART算法,在决策树生成过程中,以()为特征选择的准则。答:基尼指数80.C4.5算法,在决策树生成过程中,以()为特征选择的准则。答:信息增益率81.C4.5决策树算法中采用()对连续属性进行处理。答:二分法82.Bagging基于自助采样法,采样出T个含m个训练样本的采样集,基于每个采样集训练出一个基学习器,再将这些基学习器进行简单结合.在对预测输出进行结合时,常对分类任务使用(),对回归任务使用().答:投票法|平均法83.AGNES采用了()的聚合策略来产生层次聚类结构,DIANA则采用()的分拆策略。答:自底向上|自顶向下84.“最小二乘法”(leastsquaremethod)是基于()最小化来进行模型求解。答:均方误差85.()是决策树学习算法对付“过拟合”的主要手段。答:剪枝86.()通过构建并结合多个学习器来完成学习任务,有时也被称为多分类器系统、基于委员会的学习等答:集成学习87.()算法是常用的估计参数隐变量的利器答:EM88.()是指正确分类的正样本个数占真正的正样本数的比例答:召回率89.()是指正确分类的正样本个数占分类器判定为正样本的样本个数的比例答:精确率90.()是精确率和召回率的调和值答:F191.()是缓解维数灾难的一个重要途径,即通过某种数学变换将原始高维属性空间转变为一个低维“子空间”,在这个子空间中样本密度大幅提高,距离计算也变得更为容易。答:降维92.()可通过对ROC曲线下各部分的面积求和而得到答:AUC简答题1.主成分分析进行降维的原则是什么?答:主成分分析法的实现就是对样本集的协方差矩阵进行特征值分解,取较大特征值对应的特征向量。而它遵循的原则就是:最近重构性和最大可分性。2.在决策树基本算法中,有哪三种情况会导致递归返回?答:1.当前结点包含的样本全属于同一类别,无需划分2.当前属性集为空,或者是所有样本在所有属性上取值相同,无法划分3.当前结点包含的样本集合为空,不能划分3.硬投票分类器和软投票分类器有什么区别?答:硬投票分类器只是统计每个分类器的投票,然后挑选出得票最多的类别。软投票分类器计算出每个类别的平均估算概率,然后选出概率最高的类别。它比硬投票法的表现更优,因为它给予那些高度自信的投票更高的权重,但是它要求每个分类器都能够估算出类别概率才可以正常工作。4.为什么要使用交叉验证,并简述K-折交叉验证法。答:交叉验证用于评估模型的预测性能,可以在一定程度上减少过拟合;K折交叉验证:数据集划分为K个大小相似的互斥子集,每次用K-1个子集的并集作为训练集,剩下的为测试集,进行K次训练、测试,返回这K次的结果均值。5.同质集成与异质集成的区别?答:同质集成中的个体学习器类型相同,而异质集成中的个体学习器类型不一样6.随机森林的训练效率常优于Bagging吗?为什么?答:随机森林的训练效率常优于Bagging,因为在个体决策树的构建过程中,Bagging使用的是“确定型”决策树,在选择划分属性时要对结点的所有属性进行考察,而随机森林使用的“随机型”决策树则只需考察一个属性子集。7.试述机器学习能在互联网搜索的哪些环节起作用。答:(1)在向搜索引擎提交信息的阶段,能够从提交文本中进行信息提取,进行语义分析;(2)在搜索引擎进行信息匹配的阶段,能够提高问题与各个信息的匹配程度;(3)在向用户展示搜索结果的阶段,能够根据用户对结果感兴趣的程度进行排序。8.试分析使用最小训练误差作为决策树划分选择准则的缺陷答:若以最小训练误差作为决策树划分的依据,由于训练集和真是情况总是会存在一定偏差,这使得这样得到的决策树会存在过拟合的情况,对于未知的数据的泛化能力较差。因此最小训练误差不适合用来作为决策树划分的依据。9.什么是最小二乘法答:基于均方误差最小化来进行的模型求解的方法叫做“最小二乘法”。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小10.什么是神经网络的梯度消失问题,为什么会有梯度消失问题?有什么办法能缓解梯度消失问题?答:在反向传播算法计算每一层的误差项的时候,需要乘以本层激活函数的导数值,如果导数值接近于0,则多次乘积之后误差项会趋向于0,而参数的梯度值通过误差项计算,这会导致参数的梯度值接近于0,无法用梯度下降法来有效的更新参数的值。改进激活函数,选用更不容易饱和的函数,如ReLU函数。11.什么是类别不平衡答:指分类任务中不同类别的训练样例数目差别很大的情况12.什么是机器学习?答:1、机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。2、机器学习是对能通过经验自动改进的计算机算法的研究。3、机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。13.请你简要描述一下什么是支持向量机答:支持向量机就是尝试找到一个最能够区分数据集的超平面对数据进行分类。14.请描述K-means算法的过程。答:首先设置簇的个数K,初始化各簇的质心,计算每个样本到各簇的距离,将每个样本分配到离它最近的簇,更新各簇的质心,不断迭代,直到达到最大迭代次数。15.请简述没有免费午餐定理(NFL)答:所有问题出现的机会相同(或所有问题同等重要),则对全体问题平均而

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论