《机器学习》期末考试复习题库(附答案)_第1页
《机器学习》期末考试复习题库(附答案)_第2页
《机器学习》期末考试复习题库(附答案)_第3页
《机器学习》期末考试复习题库(附答案)_第4页
《机器学习》期末考试复习题库(附答案)_第5页
已阅读5页,还剩60页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《机器学习》期末考试复习题库(附答案)

单选题

1.做一个二分类预测问题,先设定阈值为0.5,概率大于等于0.5

的样本归入正例类(即1),小于0.5的样本归入反例类(即0)。

然后,用阈值n(n>0.5)重新划分样本到正例类和反例类,v面

哪一种说法正确是()1.增加阈值不会提高召回率2.增加阈值会

提高召回率3.增加阈值不会降低查准率4.增加阈值会降低查准率

A、1

B、2

C、1、3

D、2、4

参考答案:C

2.在一个线性回归问题中,我们使用R平方(R-Squared)来判断

拟合度。此时,如果增加一个特征,模型不变,则下面说法正确

的是?

A、如果R-Squared增加,则这个特征有意义

B、如果R-Squared减小,则这个特征没有意义

C^仅看R-Squarcd单一变量,无法确定这个特征是否有意义。

D、以上说法都不对

参考答案:C

1st

3.在机器学习中,学得的模型适用于新样本的能力称为()

A、分析能力

B、泛化能力

C、训练能力

D、验证能力

参考答案:B

4.在回归模型中,下列哪一^页在权衡欠拟合(under-fitting)和过

拟合(over-fitting)中影响最大?

A、多项式阶数

B、更新权重w时,使用的是矩阵求逆还是梯度下降

C、使用常数项

参考答案:A

5.在构造决策树时,以下哪种不是选择属性的度量的方法

A、信息值

B、信息增益

C、信息增益率

D、基尼指数

参考答案:A

6.在大数据集上训练决策树,为了使用较少时间,我们可以()

A、增加树的深度

B、增加学习率

C、减少树的深度

2nd

D、减少树的数量

参考答案:C

7.在变量选择过程中,下列哪些方法可用于检查模型的性能?a.

多重变量用于同一个模型b.模型的可解释性c.特征的信息d.交叉

验证

A、d

B、abc

C、acd

D、全部

参考答案:C

8.在SVM中,margin的含义是()

A、差额

B、损失误差

C、幅度

D、间隔

参考答案:D

9.以下有关随机森林算法的说法错误的是:

A、随机森林算法的分类精度不会随着决策树数量的增加而提高

B、随机森林算法对异常值和缺失值不敏感

C、随机森林算法不需要考虑过拟合问题

D、决策树之间相关系数越低、每棵决策树分类精度越高的随机

森林模型分类效果越好

3rd

参考答案:C

io.以下哪些是无序属性()

A、{1,2,3}

B、{飞机,火车、轮船)

C、闵可夫斯基距离

D、{小,中,大}

参考答案:B

11.以下哪项是非线性降维方法

A、PCA(主成分分析)

B、LDA(线性判别)

C、ICA(独立成分分析)

D、KPCA(核化线性降维)

参考答案:D

12.以下哪个是PCA算法的主要应用?

A、聚类

B、分类

C、距离度量

D、数据压缩

参考答案:D

13.以下哪个不是原型聚类算法。

A、K均值算法

B、学习向量量化LVQ

4th

C、高斯混合聚类

D、PCA算法

参考答案:D

14.以下哪个不是常见的决策树算法

A、ID3

B、C4.5

C、ART

D、BSCAN

参考答案:D

15.以下关于训练集、验证集和测试集说法不正确的是()。

A、验证集用于调整模型参数

B、测试集是纯粹是用于测试模型泛化能力

C、以上说法都不对

D、训练集是用来训练以及评估模型性能

参考答案:D

16.以下关于学习率说法错误的是()。

A、学习率太大会导致无法收敛

B、学习率必须是固定不变的

C、学习率的选择不能太大也不能太小

D、学习率太小会使得算法陷入局部极小点

参考答案:B

17.以下关于神经网络的说法中,正确的是()?

5th

A、增加网络层数,一定能减小训练集错误率

B、减小网络层数,一定能减小测试集错误率

C、增加网络层数,可能增加测试集错误率

D、增加网络层数,一定增加测试集错误率

参考答案:C

18.以下关于降维说法不正确的是?

A、降维是将训练样本从高维空间转换到低维空间

B、降维有助于数据可视化

C、通过降维可以更有效地发掘有意义的数据结构

D、降维不会对数据产生损伤

参考答案:D

19.以下关于机器学习描述错误的是?

A、是一门涉及统计学、系统辨识、逼近理论、神经网络、优化

理论、计算机科学、脑科学等诸多领域的交叉学科

B、研究计算机怎样模拟或实现人类的学习行为,以获取新的知

识或技能

C、器学习强调三个关键词:算法、模型、训练

D、基于数据的机器学习是现代智能技术中的重要方法之一

参考答案:C

20.以下关于感知器说法错误的是:()

A、感知器中的偏置只改变决策边界的位置

B、可为感知器的输出值设置阈值使其用于处理分类问题

6th

C、单层感知器可以用于处理非线性学习问题

D、感知器是最简单的前馈式人工神经网络

参考答案:C

21.以下关于Sigmoid的特点说法错误的是()o

A、Sigmoid函数计算量小

B、趋向无穷的地方,函数变化很小,容易出现梯度消失的现象

C、可以将函数值的范围压缩到

D、函数处处连续

参考答案:A

22.一个包含n类的多分类问题,若采用一对剩余的方法,需要拆

分成多少次?

A、n

B、1

C、n-1

D、n+1

参考答案:C

23.一对一法分类器,k个类别需要多少个SVM:

A、k(k-1)/2

B、k(k-1)

C、k

D、k!

参考答案:A

7th

24.一般来说,下列哪种方法常用来预测连续独立变量?

A、线性回归

B、逻辑回顾

C、线性回归和逻辑回归都行

D、以上说法都不对

参考答案:A

25.线性回归能完成的任务是

A、预测离散值

B、预测连续值

C、分类

D、聚类

参考答案:B

26.下面关于贝叶斯分类器描述错误的是

A、以贝叶斯定理为基础

B、是基于后验概率

C、可以解决有监督学习的问题

D、可以用极大似然估计法解贝叶斯分类器

参考答案:B

27.下面关于SVM算法叙述不正确的是()

A、SVM在解决小样本、非线性及高维模式识别问题中具有优势

B、SVM是一种基于经验风险最小化准则的算法

C、SVM求得的解为全局唯一最优解

8th

D、SVM最终分类结果只与少数支持向量有关

参考答案:B

28.下面符合特征选择标准的是()

A、越少越好

B、越多越好

C、选择能够反映不同事物差异的特征

D、以上均不对

参考答案:C

29.下面不属于过拟合原因的是

A、特征维度过多

B、模型假设过于复杂

C、训练数据过多

D、噪声过多

参考答案:C

30.下列中为判别模型的是()

A、高斯混合模型

B、隐含马尔科夫模型

C、GAN模型

D、逻辑回归模型

参考答案:D

31.下列有关支持向量机说法不正确的是:

A、得到的是局部最优解

9th

B、具有很好的推广能力

C、采用结构风险最小化原理

D、是凸二次优化问题

参考答案:A

32.下列有关核函数不正确的是:

A、可以采用cross-validalion方法选择最佳核函数

B、满足Mercer条件的函数不一定能作为支持向量机的核函数

C、极大地提高了学习机器的非线性处理能力

D、函数与非线性映射并不是一一对应的关系

参考答案:B

33.下列有关SVM和LR说法不正确的是()

A、SVM是分类模型,LR是回归模型

B、SVM和LR都是分类模型

C、SVM是判别式模型

D、LR判别式模型

参考答案:A

34.下列误差和错误中,哪一项是由于训练样本的错误而导致?

A、泛化误差

B、偏差

C、方差

D、噪声

参考答案:D

10th

35.下列是机器学习中降维任务的准确描述的为

A、依据某个准则对项目进行排序

B、将其映射到低维空间来简化输入

C、预测每个项目的实际值

D、对数据对象进行分组

参考答案:B

36.下列哪种归纳学习采用符号表示方式?

A、经验归纳学习

B、遗传算法

C、联接学习

D、强化学习

参考答案:A

37.下列哪种方法可以用来缓解过拟合的产生:()。

A、正则化

B、增加更多的特征

C、以上都是

D、增加模型的复杂度

参考答案:A

38.下列哪一种偏移,是我们在最小二家直线拟合的情况下使用

的?图中横坐标是输入X,纵坐标是输出Y。

A、垂直偏移

B、垂向偏移

11th

C、两种偏移都可以

D、以上说法都不对

参考答案:A

39.下列两个变量之间的关系中,那一个是线性关系

A、学生的性别与他(她)的数学成绩

B、人的工作环境与他的身体健康状况

C、儿子的身高与父亲的身高

D、正方形的边长与周长

参考答案:D

40.下列激活函数中,能够实现将特征限制到区间[-1,1]的是哪一个

A、Tanh

BALogistic

C、RcLU

D、Sigmoid

参考答案:A

41.下列关于主成分分析的表述错误的是

A、主成分分析方法一种数据降维的方法

B、通过主成分分析,可以将多个变量缩减为少数几个新的变量,

而信息并没有损失,或者说信息损失很少

C、通过主成分分析,可以用较少的新的指标来代替原来较多的

指标反映的信息,并且新的指标之间是相互独立的

D、主成分分析是数据增维的方法

12th

参考答案:D

42.下列关于线性回归分析中的残差(Residuals)说法正确的是?

A、残差均值总是为零

B、残差均值总是小于零

C、残差均值总是大于零

D、以上说法都不对

参考答案:A

43.下列关于过拟合的说法错误的是

A、过拟合是指模型在训练集上表现很好,但是在交叉验证集和

测试集上表现一般

B、解决过拟合可以采用Dropout方法

C、解决过拟合可以采用参数正则化方法

D、数据集扩增不能用来解决过拟合问题

参考答案:D

44.下列关于Boosting和Bagging的描述正确的是:

A、Boosting主要关注降低方差

B、costing的代表算法有随机森林

C、Bagging基于自助采样法

D、Bagging主要关注降低偏差

参考答案:C

45.下列方法中,属于无监督学习的为()

A、线性回归

13th

B、K均值

C、神经网络

D、决策树

参考答案:B

46.下列不属于集成学习方法是

A、bagging

B、connecting

C、boosting

D、stacking

参考答案:B

47.下列不是SVM核函数的是:

A、多项式核函数

logistic核函数

C、径向基核函数

D、Sigmoid核函数

参考答案:B

48.下列表述中,在k-fold交叉验证中关于选择K说法正确的是

A、较大的K并不总是好的,选择较大的1<可能需要较长的时间

来评估你的结果

B、相对于期望误差来说,选择较大的K会导致低偏差(因为训

练folds会变得与整个数据集相似)

C、在交叉验证中通过最小化方差法来选择K值

14th

D、以上都正确

参考答案:D

49.下列贝叶斯网结构中不属于三种典型的依赖关系

A、同父结构

B、选择结构

C、顺序结构

D、V型结构

参考答案:B

5().同质集成中的个体学习器亦称()

A、基学习器

B、同质学习器

C、组件学习器

D、异质学习器

参考答案:A

51.四个点坐标为(1,1),(1,0),(-1,-1),(-1,0),用SVM分类的

决策边界是

A^尸x

B、x=O

C、y--x

DvJ=0

参考答案:B

52.神经网络算法有时会出现过拟合的情况,那么采取以下哪些方

15th

法解决过拟合更为可行()。

A、为参数选取多组初始值,分别训练,再选取一组作为最优值

B、增大学习的步长

C、减少训练数据集中数据的数量

D、设置一个正则项减小模型的复杂度

参考答案:D

53.若某学习器预测的是离散值,则此类学习任务称为()

A、分类

B、聚类

C、回归

D、强化学习

参考答案:A

54.若svm出现欠拟合,以下合适的做法是

A、使用更powful的kernel

B、增加训练样本

C、使用L2正规化

D、做数据增强

参考答案:A

55.如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这

一问题?

A、增大惩罚参数C的值

B、减小惩罚参数C的值

16th

C、减小核系数(gamma参数)

D、都不正确

参考答案:A

56.如果我们说“线性回归”模型完美地拟合了训练样本(训练样

本误差为零),则下面哪个说法是正确的?

A、测试样本误差始终为零

B、测试样本误差不可能为零

C、以上答案都不对

参考答案:C

57.朴素贝叶斯是一种典型的基于概率的机器学习方法,它利月了

A、先验概率

B、后验概率

C、以上都是

D、以上都不是

参考答案:C

58.朴素贝叶斯分类器的特征不包括

A、孤立的噪声对该分类器的影响不大

B、数据的缺失值影响不大

C、要求数据的属性是相互独立的

D、条件独立的假设可能不成立

参考答案:C

59.朴素贝叶斯分类器的三种实现不包括

17th

A、基于伯努利模型实现

B、基于多项式模型实现

C、属性条件独立性假设实现

D、基于高斯模型实现

参考答案:C

60.哪一个是机器学习的合理定义?

A、机器学习是计算机编程的科学

B、机器学习从标记的数据中学习

C、机器学习是允许机器人智能行动的领域

D、机器学习能使计算机能够在没有明确编程的情况下学习

参考答案:D

61.哪些机器学习模型经过训练,能够根据其行为获得的奖励和反

馈做出一系列决策?

A、无监督学习

B、监督学习

C、强化学习

D、以上全部

参考答案:C

62.模型评估的常用方法有哪些

A、留出法

B、交叉验证法

C、自助法

18th

D、以上都是

参考答案:D

63.决策树中不包含以下哪种结点

A、根节点

B、内部结点

C、叶节点

D、外部结点

参考答案:D

64.决策树学习的关键是

A、初始结点选择

B、剪枝

C、选择最优划分属性

D、分枝

参考答案:C

65.决策树模型中应如何妥善处理连续型属性

A、直接忽略

B、利用固定阈值进行离散化

C、根据信息增益选择阈值进行离散化

D、随机选择数据标签发生变化的位置进行离散化

参考答案:C

66.将数据集D进行适当处理,产生出训练集S和测试集T,有

哪些常见的做法:

19th

A、留出法

B、交叉验证法

C、自助法

D、以上都是

参考答案:D

67.假设现在只有两个类,这种情况下SVM需要训练几次?

A、1

B、2

C、3

D、4

参考答案:A

68.假设我们使用原始的非线性可分版本的Soft-SVM优化目标函

数。我们需要做什么来保证得到的模型是线性可分离的?

A、C=0

B、C=1

C、正无穷大

D、C负无穷大

参考答案:C

69.假设你有以下数据:(0,2)(2,2)(3,1)输入和输出都只有一个

变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留

一法(Lcavc-OncOut)交叉验证得到的均方误差是多少?

A、10/32

20th

B、39/27

C、49/27

D、55/27

参考答案:C

704艮如我们使用Lasso回归来拟合数据集,该数据集输入特征有

100个(XI,X2,…,X100)o现在,我们把其中一个特征值扩

大10倍(例如是特征XI),然后用相同的正则化参数对Lasso

回归进行修正。那么,下列说法正确的是?

A、特征XI很可能被排除在模型之外

B、特征XI很可能还包含在模型之中

C、无法确定特征XI是否被舍弃

D、以上说法都不对

参考答案:B

71.极大似然估计中参数是()

A、确定且已知的量

B、确定且未知的量

C、已知的随机变量

D、未知的随机变量

参考答案:B

72.极大似然估计是()

A、与总体分布无关的统计量

B、通过总体分布才能求出来的统计量

21st

C、似然方程的解

D、对数似然方程的解

参考答案:B

73.基于层次的聚类算法包括()。

A、合并的层次聚类

B、基于密度的聚类算法

C、基于划分的算法

D、基于网络的聚类算法

参考答案:A

74.机器学习这个术语是由()定义的?

A、rthurSamuel

B、GuidovanRossum

C、JamesGosling

D、以上都不是

参考答案:A

75.混淆矩阵中的TP=16,FP=12,FN=8,TN=4,准确率是

A、四分之一

B、二分之一

C、七分之四

D、三分之二

参考答案:B

76.混淆矩阵的真负率公式是为

22nd

A、TP/(TP+FN)

B、FP/(FP+TN)

C、FN/(TP+FN)

D、TN/(TN+FP)

参考答案:D

77.关于维数灾难说法错误的是?

A、高维度数据可使得算法泛华能力变得越来越弱

B、降低高维度数据会对数据有所损伤

C、高维度数据增加了运算难度

D、高维度数据难以可视化

参考答案:A

78.关于随机森林,说法错误的是:

A、相对于Boosting系列的Adaboost和GBDT,RF实现比较简

单。

B、在训练后,可以给出各个特征对于输出的重要性

C、训练高度串行化

D、随机采样,训练出的模型的方差小,泛化能力强

参考答案:C

79.关于数据规范化,下列说法中错误的是()。

A、标准化实际上是将数据在样本的标准差上做了等比例的缩放

操作

B、归一化利用了样本中的最大值和最小值

23rd

C、包含标准化和归一/匕

D、标准化在任何场景下受异常值的影响都很小

参考答案:D

80.关于决策树结点划分指标描述正确的是

A、类别非纯度越大越好

B、信息增益越大越好

C、信息增益率越小越好

D、基尼指数越大越好

参考答案:B

81.关于决策树,以下哪种说法是正确的

A、可读性强

B、只用于分类问题

C、只用于回归问题

D、是无监督学习

参考答案:A

82.关于SVM泛化误差描述正确的是

A、超平面与支持向量之间距离

B、超平面与支持向量之间距离

C、SVM的误差阈值

参考答案:B

83.关于logistic回归和SVM不正确的是()

A、Logistic回归目标函数是最小化后验概率

24th

B、Logistic回归可以用于预测事件发生概率的大小

C、SVM目标是结构风险最小化

D、SVM可以有效避免模型过拟合

参考答案:A

84.关于K.均值算法,以下说法不正确的是

A、K-均值算法是一种划分方法。

B、K-均值算法能发现任意形状的簇。

C、K-均值算法不一定收敛于全局最优解。

D、比起DBSCAN算法来,K更好

参考答案:B

85.关于EM算法正确的是

A、EM算法包括两步:E算法和M算法

B、EM算法一定能收敛到全局最大值点

C^英文全称是Expectation-Minimization

D、以上都不正确

参考答案:A

86.关于BP算法优缺点的说法错误的是()o

A、BP算法不能用于处理非线性分类问题

B、P算法容易陷入局部敢小值

C、BP算法训练时间较长

D、BP算法训练时候可能由于权值调整过大使得激活函数达到

饱和

25th

参考答案:A

87.关于BP算法信号前向传播的说法正确的是()。

A、BP算法在计算正向传播输出值时需要考虑激活函数

B、P算法信号前向传播的计算量跟输入层神经元数目无关

C、BP算法只有在隐层才有激活函数

D、BP算法信号传播的顺序是输出层、隐层、输入层。

参考答案:A

88.关于BP算法特点描述错误的是()

A、输入信号顺着输入层、隐层、输出层依次传播

B、计算之前不需要对训练数据进行归一化

C、预测误差需逆向传播,顺序是输出层、隐层、输入层

D、各个神经元根据预测误差对权值进行调整

参考答案:B

89.关于算法反向传播的说法正确的是()。

A.BP算法反向传播进行更新时一般用到微积分的链式传播法则

B、P算法更新量与步长关系不大

C、BP算法反向传播的预测误差值一般由真实标签值和预测标签

值的差计算得来

D、BP算法反向传播的目的是只对权值进行更新

参考答案:A

90.谷歌新闻每天收集非常多的新闻,并运用。方法再将这些新

闻分组,组成若干类有关联的新闻。于是,搜索时同一组新闻事

26th

件往往隶属同一主题的,所以显示到一起。

A、关联规则

B、聚类

C、回归

D、分类

参考答案:B

91.构建一个最简单的线性回归模型需要几个系数(只有一个特

征)?

A、1个

B、2个

C、3个

D、4个

参考答案:B

92.对主成分分析PCA方法描述正确的是:

A、投影矩阵是正交矩阵

B、进行非正交投影

C、PCA不需要进行样本去均值

D、投影到特征值最小的方向

参考答案:A

93.对于在原空间中线性不可分问题,支持向量机()。

A、无法处理

B、将数据映射到核空间中

27th

C、在原空间中寻找非线性函数的划分数据

D、在原空间中寻找线性函数划分数据

参考答案:B

94.对于非概率模型而言,可按照判别函数线性与否分成线性模型

与非线性模型。下面哪个模型不属于线性模型?

A、感知机

B、AdaBoost

C、K-means

D、k近邻

参考答案:B

95.对决策树进行剪枝处理的主要目的是什么

A、避免欠拟合

B、提高对训练集的学习能力

C、避免过拟合,降低泛化能力

D、避免过拟合,提升泛化能力

参考答案:D

96.对函数dist(.,.)若它是一个距离度量则需要满足的基本特

性中以下哪个不是正确答案

A、非负性

B、同一性

C、递增性

D、对称性

28th

参考答案:C

97.对Boosting模型的描述错误的是

A、采用串行训练模式

B、增加被错误分类样本的权值

C、通过改变训练集进行有针对性的学习

D、基础分类器采用少数服从多数原则进行集成

参考答案:D

98.点击率的预测是一个数据比例不平衡问题(比如训练集中样本

呈阴性的比例为99%,阳性的比例是1%),如果我们用这种数据

建立模型并使得训练集的准确率高达99%o我们可以得出结论

是:

A、模型的准确率非常高,我们不需要进一步探索

B、模型不好,我们应建一个更好的模型

C、无法评价模型

D、以上都不正确

参考答案:B

99.当训练集很多时,一种更为强大的结合策略是使用(),即通

过另一个学习器来进行结合。

A、学习法

B、平均法

C、投票法

D、加权投票法

29th

参考答案:A

100.当数据分布不平衡时,我们可采取的措施不包括()。

A、对数据分布较多的类别赋予更大的权重

B、对数据分布较多的类别欠采样

C、对数据分布较少的类别过采样

D、对数据分布较少的类别赋予更大的权重

参考答案:A

101.不属于KNN算法要素的是:

A、k值的选择

B、距离度量

C、分类决策的规则

D、训练样本的个数

参考答案:D

102.按照求解方法进行分类算法的划分,下列中为生成模型的是

()

A、决策树

B、K近邻

C、贝叶斯分类器

D、支持向量机SVM

参考答案:C

103.SVM算法的性能取决于:

A、以上所有

30th

B、软间隔参数

C、核函数的参数

D、核函数的选择

参考答案:A

104.StandardScaler预处理方法可以表示为?=(?-?)/,其中?表

示特征所在列的

A、最大值

B、分解阈值

C、均值

D、方差

参考答案:D

105.K均值算法的K指的是什么?

A、K是均值的数值

B、K是均值的最大限值

C、K是分类的数量

D、K是分类的迭代次数

参考答案:B

106.KNN算法属于一种典型的。算法

A、监督学习

B、无监督学习

C、半监督学习

D、弱监督学习

31st

参考答案:A

107.KNN算法是基于()

A、概率空间

B、颜色空间

C、距离空间

D、线性空间

参考答案:C

108.ID3决策树算法以()为准则来选择划分属性

A、信息增益

B、信息嫡

C、基尼系数

D、信息增益率

参考答案:A

109.EM算法是()学习算法

A、有监督

B、无监督

C、半监督

D、都不是

参考答案:B

HO.EM算法的停止条件()

A、已达到最大迭代轮数

B、数据样本异常

32nd

C、训练器异常

D、似然函数减小

参考答案:A

111.BP算法总结错误的是()。

A、当前层的连接权值梯度,取决于当前层神经元阈值梯度和上

一层神经元输出

B、算法只要知道上一层神经元的阈值梯度,就能计算当前层神

经元的阈值梯度和连接权值梯度

C、隐层的阈值梯度只跟本层的神经元输出值有关

D、隐层阈值梯度取决于隐层神经元输出、输出层阈值梯度和隐

层与输出层的连接权值

参考答案:C

112.AGNES是一种()聚合策略的层次聚类算法

A、自顶向下

B、自底向上

C、由最近样本决定

D、最远样本决定

参考答案:B

113.下列关于线性回归说法错误的是()

A、在现有模型上,加入新的变量,所得到的R人2的值总会增加

B、线性回归的前提假设之一是残差必须服从独立正态分布

C、残差的方差无偏估计是SSE/(n-p)

33rd

D、自变量和残差不一定保持相互独立

参考答案:D

114.“学习向量量化”与一般聚类算法不同的是()

A、数据样本带有类别标记

B、结构不同

C、向量程度不同

D、簇的种类不同

参考答案:A

115.“没有免费的午餐定理”告诉我们

A、我们不能对问题有先验假设

B、没有可以适应一切问题的算法

C、设计好的算法是徒劳的

D、对于一个特定的问题,任何算法都是一样好的

参考答案:B

116.()是并行式集成学习方法最著名的代表

A、随机森林

B、oosting

C、Bagging

DNAdaBoost

参考答案:C

判断题

34th

1.最近邻分离器的泛化错误率不会超过贝叶斯最优分类器错误

率的两倍

A、正确

B、错误

参考答案:A

2.支持向量是最靠近决策表面的数据点

A、正确

B、错误

参考答案:A

3.在基于SGD随机梯度下降算法的神经网络中,每次打乱数据

是非常重要和必不可少

A、正确

B、错误

参考答案:A

4.在初始数据量足够时,自助法比交叉险证法更为常用。

A、正确

B、错误

参考答案:B

5.预剪枝决策树通常比后剪枝决策树保留了更多的分支。

A、正确

B、错误

参考答案:B

35th

6.预剪枝决策树的训练时间开销比后剪枝决策树要大得多。

A、正确

B、错误

参考答案:B

7.由于贝努力贝叶斯比适合于贝努力(二项分布)分布,因此,

贝努力贝叶斯只能用于二分类任务

A、正确

B、错误

参考答案:B

8.硬投票计算出每个类别的平均估算概率,然后选出概率最高的

类别。

A、正确

B、错误

参考答案:B

9.一个贝叶斯网由结构和参数两个部分构成

A、正确

B、错误

参考答案:A

10.一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往

优于预剪枝决策树。

A、正确

B、错误

36th

参考答案:A

11.一般来说,查准率高时,查全率也高。

A、正确

B、错误

参考答案:B

12.训练算法的目的就是要让模型拟合训练数据

A、正确

B、错误

参考答案:B

13.线性回归模型只能处理具有线性关系的数据。

A、正确

B、错误

参考答案:B

14.无监督学习任务中研究最多、应用最广的是聚类

A、正确

B、错误

参考答案:A

15.通常,我们认为对于一个系统来说,误差越小越好,因此无论

是泛化误差还是经验误差,都是越小越好。

A、正确

B、错误

参考答案:B

37th

16.梯度下降法中梯度方向是函数值下降最快方向。

A、正确

B、错误

参考答案:B

17.特征空间越大,过拟合的可能性越大。

A、正确

B、错误

参考答案:A

18.随机森林的训练效率通常低于Bagging

A、正确

B、错误

参考答案:B

19.随机森林的两个随机指的是随机选取样本和随机选取属性

A、正确

B、错误

参考答案:A

20.数据有噪声,有重复值,不会导致SVM算法性能下降

A、正确

B、错误

参考答案:B

21.输出变量为连续变量的预测问题是分类问题

A、正确

38th

B、错误

参考答案:B

22.神经网络算法不能用于数据降维

A、正确

B、错误

参考答案:B

23.若参数C(costparameter)被设为无穷,只要最佳分类超五面

存在,它就能将所有数据全部正确分类

A、正确

B、错误

参考答案:A

24.如果数据量较少,容易发生过拟合。

A、正确

B、错误

参考答案:A

25.任何一个有效的机器学习算法必须有其归纳偏好

A、正确

B、错误

参考答案:A

26.模型泛化能力与训练样本数量无关

A、正确

B、错误

39th

参考答案:B

27.密度直达和密度可达满足对称性

A、正确

B、错误

参考答案:B

28.逻辑回归是一个回归模型

A、正确

B、错误

参考答案:B

29.逻辑回归和朴素贝叶斯都有对属性特征独立的要求

A、正确

B、错误

参考答案:B

30.逻辑回归分类的精度不够高,因此在业界很少用到这个算法

A、正确

B、错误

参考答案:B

31.流形学习是一种非线性的维数约简方法

A、正确

B、错误

参考答案:A

32.决策树是基于树结构来进行决策的,决策树学习的目的是为了

40th

产生一棵泛化能力强的决策树。

A、正确

B、错误

参考答案:A

33.决策树的适用面较广,对于分类应用和回归应用,决策树都可

以被用来构建模型。

A、正确

B、错误

参考答案:A

34.决策树的生成是一个递归过程在决策树基本算法中,有三种情

形会导致递归返回。

A、正确

B、错误

参考答案:A

35.剪枝是决策树学习算法对付“过拟合”的主要手段,决策树剪

枝的基本策略有“预剪枝”和“后剪枝”。

A、正确

B、错误

参考答案:A

36.集成学习可得到比单一学习器更好的泛化性能,尤其是弱学习

器,泛化性能略大于50%

A、正确

41st

B、错误

参考答案:A

37.集成学习方法只能用于分类任务

A、正确

B、错误

参考答案:B

38.机器学习方法传统上可以分为2类?

A、正确

B、错误

参考答案:B

39.回归问题和分类问题都有可能发生过拟合

A、正确

B、错误

参考答案:A

40.过拟合是有监督学习的挑战,而不是无监督学习

A、正确

B、错误

参考答案:B

41.过拟合是有监督学习的挑战,而不是无监督学习

A、正确

B、错误

参考答案:A

42nd

42.过拟合比欠拟合更容易克服。

A、正确

B、错误

参考答案:B

43.关于特征选择的说法,选择的特征越多越好?

A、正确

B、错误

参考答案:B

44.给定n个数据点,如果其中一半用于训练,另一半用于测试,

则训练误差和测试误差之间的差别会随着n的增加而减小

A、正确

B、错误

参考答案:A

45.概率模型的训练过程就是参数估计的过程

A、正确

B、错误

参考答案:A

46.分类预测型任务从已分类的数据中学习模型,并对新的未知分

类的数据使用该模型进行解释,得到这些数据的分类。根据标签

的不同,分别称为分类任务和预测任务,如果类标签是连续的类

别,称为预测任务。

A、正确

43rd

B、错误

参考答案:A

47.分类是预测数据对象的离散类别,预测是用于数据对象的连续

取值

A、正确

B、错误

参考答案:A

48.反应事件或对象在某方面的表现或性质的事项称为属性

A、正确

B、错误

参考答案:A

49.簇内相似度高且簇间相似度低的聚类结果比较好

A、正确

B、错误

参考答案:A

50.贝叶斯网不是因果关系网络图

A、正确

B、错误

参考答案:B

51.贝叶斯分类器中只有一个判别函数

A、正确

B、错误

44th

参考答案:B

52.SVM中的泛化误差代表SVM对新数据的预测准确度

A、正确

B、错误

参考答案:A

53.PCA是有监督学习,是有参数限制的

A、正确

B、错误

参考答案:B

54.PCA是一种有效的降维去噪方法

A、正确

B、错误

参考答案:A

55.L2正则化往往用于防止过拟合,而L1正则化往往用于特征选

择。

A、正确

B、错误

参考答案:A

56.K均值算法的E值越小则簇内样本相似度越低

A、正确

B、错误

参考答案:B

45th

57.KNN算法的基本思路是近朱者赤,近墨者黑

A、正确

B、错误

参考答案:A

58.ICNN没有显示的训练过程,它在训练阶段只是把数据保存下

来,训练时间开销为0,等收到测试样本后进行处理。

A、正确

B、错误

参考答案:A

59.BP算法陷入局部极小值的问题可通过更换激活函数解决。

A、正确

B、错误

参考答案:B

60.BP算法的正向传播是为获取训练误差。

A、正确

B、错误

参考答案:A

61.BP算法的反向传播是为了对权值进行调整。

A、正确

B、错误

参考答案:A

62.BP算法“喜新厌旧”,在学习新样本后,会把旧样本逐渐遗忘。

46th

A、正确

B、错误

参考答案:A

63.Boosting的训练过程是有序的。

A、正确

B、错误

参考答案:A

64.Bagging只适用于二分类任务

A、正确

B、错误

参考答案:B

65.Bagging是基于自助采样法的

A、正确

B、错误

参考答案:A

66.Bagging是并行式集成学习方法最著名的代表

A、正确

B、错误

参考答案:A

67.Bagging被誉为“代表集成学习技术水平的方法”

A、正确

B、错误

47th

参考答案:B

68.AGNES算法分为单链接、全链接、均链接算法

A、正确

B、错误

参考答案:A

69.“硬间隔”是指SVM允许分类时出现一定范围的误差

A、正确

B、错误

参考答案:B

70.“独依赖估计”是半朴素贝叶斯分类器最常用的一种策略

A、正确

B、错误

参考答案:A

填空题

1.主成分分析方法(PCA)的主要应用是对数据进行。

答:数据压缩

2.支持向量机的形式是要求所有样本均满足约束,这称为

答:硬间隔

3,支持向量机的复杂程度主要与有关

答:支持向量的数目

4.在最小化错误率方面()的性能是最优的

48th

答:贝叶斯分类器

5.在研究对比不同算法的泛化性能时,我们用()上的判别效果

来估计模型在实际使用时的泛化能力,而把训练数据另外划分为

训练集和验证集,基于验证集上的性能来进行模型选择和调参。

答:测试集

6.在学习任务中,“分类”预测的是,“回归”预测的是。

答:离散值|连续值

7.在学习任务的真实边界比较复杂时,用决策树解决会相当复

杂,此时采用():可以实现斜划分甚至更复杂的划分形式。

答:多变量决策树

8.在现实生活中朴素贝叶斯分类器有多种使用方式,若任务数据

更替频繁,则可以采用()方式,先不进行任何训练,待收到预

测请求后再根据当前数据进行概率估值

答:懒惰学习

9.在机器学习中,对高维数据进行降维的主要目的是希望找到一

个合适的(),在此空间中进行学习能比原始空间性能更好。

答:低维空间

10.在“单位阶跃函数”(unit-stepfunction)的作用下,若输入实

值ZV0,则应将其判定为()(正/反)例。

答:反

H.再缩放(rescaling)策略的出现,主要是为了解决()问题。

答:类别不平衡

49th

12.一组数据类别数为N,则若该数据使用LDA算法降维,降维

之后的维数最多为0维。

答:N-1

13.一般的多层感知器包含哪三种类型层次的神经元(按顺序填

写)。

答:输入层|隐含层|输出层

14.一般的,一棵决策树包含一个(),若干个内部结点和若干个

()o

答:根结点I叶结点

15.要获得好的集成,个体学习器要有一定的()性和()性

答:准确性|多样性

16.样本的特征数也称为(),当维数非常大时,也就是通常所说

的()

答:维数|维数灾难

17.训练误差较大,测试误差较大,是指模型出现了()的情况

答:欠拟合

18.训练集的误差称为,测试集误差称为,是除训练集以外所有样

木误差。

答:训练/经验误差|测试误差|泛化误差

19.训练SVM的最小时间复杂度为O(n2),那么()数据集不适

合用SVM

答:大

50th

2().学得模型适用于新样本的能力称为能力。

答:泛化

21.信息增益以为基础。

答:信息嫡

22.写出一个你知道的线性降维方法:()

答:PCA主成分分析|LDA判别分析|MDS多尺度分析

23.线性模型(linearmodcl)试图学得一个通过属性的()_组合

来进行预测的函数。

答:线性

24.填空:线性降维方法假设从高维空间到低维空间的函数映射是

0的

答:线性

25.填空:马氏距离表示数据的()距离

答:协方差

26.梯度下降法,在使用的时候无非是考虑到两个方面:一是(),

二是。。

答:方向|步长

27.随机梯度下降是每次迭代使用()样本来对参数进行更新。

答:一个

28.随机森林通过()提高性能

答:降低方差

29.随机森林的基本思想包括()()

51st

答:bagging集成学习理论|boosting集成学习理论

30.数据降维方法一般分为哪些种类

答:线性方法|非线性方法

31.是说,若有多个假设与观察一致,则选择最简单的那个

答:奥卡姆剃刀

32.神经网络中最基本的成分是。模型

答:神经元

33.神经网络模型按照学习方式可分为有导师型和()

答:无导师型

34.神经网络模型按照网络的结构可分为前馈型和()。

答:反馈型

35.三种常用的替代损失函数包括hinge损失,损失,损失

答:指数|对率

36.任何一个核函数都隐式地定义了一个称为的特征空间

答:再生核希尔伯特空间

37.人工神经网络按性能可分为离散型和()

答:连续型

38.批量梯度下降法是指在每一次迭代时使用()样木来进行梯度

的更新。

答:所有

39.目前的集成学习大致分为两类:个体学习器间存在强依赖关系,

必须串行生成的是(),个体学习器间不存在强依赖关系,可同时

52nd

生成的是()。

答:序列化方法I并行化方法

40.逻辑回归是()学习

答:有监督

41.两个异类支持向量到超平面的距离之和被称为

答:间隔

42.连续属性在定义域上有()可能的取值,离散属性在定义域上

有0取值。

答:无穷多个|有浪个

43.可以防止出现过拟合对策:、。

答:数据扩增|正则化|采用验证集

44.可看作学习算法在给定数据和参数空间上的实例化

答:学习器

45.决策树学习的关键是如何选择最优划分属性。一般而言,随着

划分过程不断进行,我们希望决策树的分支结点的()越来越高

答:纯度

46.决策树ID3算法中每次分支都按照信息增益最大进行的,分

支后相比分之前,数据集的信息嫡变化情况是()_

答:变小

47.聚类性能度量分为()和()两类。

答:外部指标|内部指标

48.聚类将数据集中的样本划分为()的子集。

53rd

答:若干个不相交

49.纠错输出码(ErrcrCorrectingOutputCodes,简称ECOC)工作过

程中主要分为两步,一步(),一步解码。

答:编码

50.将原始空间中的向量作为输入向量,弁返回特征空间(转换后

的数据空间,可能是高维)中向量的点积的函数称为

答:核函数

51.剪枝处理分为()和(),前者使得决策树的很多分支都没有

展开,降低过拟合的风险,但也容易带来欠拟合的风险,后者使

得决策树完全展开,泛化性能往往优于前者,但训练和测试时间

长。

答:预剪枝|后剪枝

52.假设现在只有两个类,这种情况下SVM需要训练几次?

答:1

53.集成学习中常用的结合策略有(),(),()

答:平均法|投票法|学习法

54.机器学习的方式可分为、和。

答:监督学习|半监督学习|无监督学习

55.回归任务最常用的性能度量是()

答:均方误差

56.给定一定数量的红细胞、白细胞图像以及它们对应的标签,设

计出一个红、白细胞分类器,这属于学习。

54th

答:监督

57.个体决策树的构建过程中Bagging使用的是()型决策树,而

随森林使用的是0型决策树

答:确定|随机

58.高斯混合聚类采用()来表达聚类原型。

答:概率模型

59.多数投票法分为()和()

答:绝对多数投票法|相对多数投票法

6().多分类任务进行拆分的最经典的差

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论