人工智能算法知识考试题库500题_第1页
人工智能算法知识考试题库500题_第2页
人工智能算法知识考试题库500题_第3页
人工智能算法知识考试题库500题_第4页
人工智能算法知识考试题库500题_第5页
已阅读5页,还剩148页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能算法知识考试题库500题(供参考)

一、单选题

1.循环神经网络中,假设输入是一个32*32*3的图像,3表示RGB三通道,卷积

核的结构是5*5*3,共6个不同的卷积核,一个卷积核产生一个featuremap,则

输出的featuremap矩阵的结构是()。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

答案:D

解析:循环神经网络中,假设输入是一个32*32*3的图像,3表示RGB三通道,

卷积核的结构是5*5*3,共6个不同的卷积核,一个卷积核产生一个featurema

P,则输出的featuremap矩阵的结构是28*28*6。

2.fromskIearnimportIinear_modeIreg=Iinear_modeI.Lasso,其中Lasso是用

来拟合什么样的线性模型的?

A、稀疏数据

B、稀疏系数

C'稀疏标签

答案:B

3.如果问题存在最优解,则下面几种搜索算法中,哪一个必然可以得到该最优解

A、广度优先搜索

B、深度优先搜索

C、有界深度优先搜索

D、启发式搜索

答案:A

解析:广度优先搜索搜索的范围最广

4.在强化学习过程中,()表示随机地采取某个动作,以便于尝试各种结果;()表示

采取当前认为最优的动作,以便于进一步优化评估当前认为最优的动作的值。

A、探索

B、开发

C、开发

D、探索

E、探索

答案:A

5.对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,而是都设成

0,下面哪个叙述是正确的?

A、其他选项都不对

B、没啥问题,神经网络会正常开始训练

C、神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西

D、神经网络不会开始训练,因为没有梯度改变

答案:C

6.下列哪些不是“子集搜索”中的搜索方式(_)

A、单向搜索

B、双向搜索

C、前向搜索

D、后向搜索

答案:A

解析:见算法解析

7.LARS属于哪种特征选择方法(一)

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:C

解析:见算法解析

8.生成式方法是直接基于(_)的方法?

A、生成式学习

B、生成式场景

C、生成式数据

D、生成式模型

答案:D

解析:见算法解析

9,下面哪个叙述是对的?Dropout对一个神经元随机屏蔽输入权重Dropconnect

对一个神经元随机屏蔽输入和输出权重

A、1是对的,2是错的

B、都是对的

C、1是错的,2是对的

D、都是错的

答案:D

10.机器学习中做特征选择时,下面方法或信息不一定有用的是

A、卡方检验

B、信息增益

C、数据采样

D、期望交叉熠

答案:C

11,下列关于特征选择的说法错误的是(_)

A、可以提高特征关联性

B、可以减轻维数灾难问题

C、可以降低学习任务的难度

D、特征选择和降维具有相似的动机

答案:A

解析:见算法解析

12.全局梯度下降算法、随机梯度下降算法和批量梯度下降算法均属于梯度下降

算法,以下关于其有优缺点说法错误的是:

A、全局梯度算法可以找到损失函数的最小值

B、批量梯度算法可以解决局部最小值问题

C、随机梯度算法可以找到损失函数的最小值

D、全局梯度算法收敛过程比较耗时

答案:C

13.下面的问题,属于分类问题的是;

A、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测

员工在接下来一段时间内的工资涨幅

B、根据员工的薪水、工作压力,成长环境、工作年限、绩效考核等数据,预测

员工下一季度的绩效考核分数

C、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测

员工是否可能会在接下来的一段时间内离职

D、根据员工的薪水、工作压力,成长环境、工作年限、绩效考核等数据,预测

员工下一季度的销售额

答案:C

14.关于精度与错误率的说法中错误的是()。

A、精度与错误率的和为1

B、精度与错误率都可以反映模型的好坏

C、精度与错误率都可以用概率密度函数表示

D、精度是评价模型的唯一标准

答案:D

解析:精度是不是评价模型的唯一标准

15.如果问题存在最优解,则下面几种搜索算法中,广度优先搜索必然可以得到

该最优解,()可以认为是“智能程度相对比较高”的算法。

A、无界深度优先搜索

B、深度优先搜索

C、有界深度优先搜索

D、启发式搜索

答案:D

16.下列哪个函数不可以做非线性激活函数?()

A、y=tanh(x)

B\y=sin(x)

Gy=max(x,0)

D\y=2x

答案:D

17.Softmax算法中温度趋近于0时Softmax将趋于(_)

A、仅探索

B、仅利用

C、全探索

D、全利用

答案:B

解析:见算法解析

18.闵可夫斯基距离表示为曼哈顿距离时,p为()。

A、1

B、2

C、3

D、4

答案:A

解析:闵可夫斯基距离定义为:该距离最常用的P是2和1,前者是欧几里得距

离),后者是曼哈顿距离。

19.下面的问题,哪一个属于分类问题的是()

A、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测

员工下一季度的销售额

B、根据员工的薪水、工作压力,成长环境、工作年限、绩效考核等数据,预测

员工下一季度的绩效考核分数

C、根据员工的薪水、工作压力、成长环境、工作年限、绩效考核等数据,预测

员工在接下来一段时间内的工资涨幅

D、根据员工的薪水、工作压力,成长环境、工作年限、绩效考核等数据,预测

员工是否可能会在接下来的一段时间内离职

答案:D

20.Relief属于哪种特征选择方法(一)

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:D

解析:见算法解析

21.哪种聚类方法采用概率模型来表达聚类()

A、K-means

B、LVQ

GDBSCAN

D、高斯混合聚类

答案:D

22.faster-rcnn回归分支采用()Ioss

A、L1

B、L2

C、SmoothLI

D\nan

答案:C

解析:见算法解析

23.在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果

知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的

权重和偏移呢?

A、搜索每个可能的权重和偏差组合,直到得到最佳值

B、赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重

C、随机赋值,听天由命

D、以上都不正确的

答案:B

24.卷积神经网络中的局部连接是指:在进行图像识别的时候,不需要对整个图

像进行处理,只需要关注图像中某些()的区域。

A\一般

B、特殊

C、连续

D\重点

答案:B

解析:见算法解析

25.下列人工神经网络属于反馈网络的是()

A、HopfieId网

B、BP网络

C、多层感知器

D、LVQ网络

答案:A

解析:$BP网络'多层感知器、LVQ网络属于前馈网络

26.下列关于K-Means聚类说法错误的是()

A、聚类的簇个数会由模型自动给出

B、可以使用多组随机的初始中心点进行计算

C、聚类前应当进行维度分析

D、聚类前应当进行数据标准化

答案:A

解析:聚类的簇个数由人为确定。

27.LSTM是一种什么网络?

A、卷积神经网

B、前馈神经网

C\循环神经网

D\挛生网络

答案:C

解析:LSTM是一种循环神经网络

28.在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层后面的?

A、卷积层

B、池化层

C、全连接层

D、以上都可以

答案:C

29.回归分析中定义的()

A、解释变量和被解释变量都是随机变量

B、解释变量为非随机变量,被解释变量为随机变量

C、解释变量和被解释变量都为非随机变量

D、解释变量为随机变量,被解释变量为非随机变量

答案:B

30.如果强行限制输出层的分布是标准化的,可能会导致某些特征模式的丢失,

所以在标准化之后,BatchNorm会紧接着对数据做缩放和()

A\平移

B、删除

C、移动

D、收敛

答案:A

解析:如果强行限制输出层的分布是标准化的,可能会导致某些特征模式的丢失,

所以在标准化之后,BatchNorm会紧接着对数据做缩放和平移

31.关于MNIST,下列说法错误的是0。

A、是著名的手写体数字识别数据集

B、有训练集和测试集两部分

C、训练集类似人学习中使用的各种考试试卷

D、测试集大约包含10000个样本和标签

答案:C

32.Reiu在零点不可导,那么在反向传播中怎么处理()

A、设为0

B、设为无穷大

C、不定义

D、设为任意值

答案:A

解析:Relu在零点不可导,那么在反向传播中设为0

33.神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入

进行处理后给出一个输出。请问下列关于神经元的描述中,哪一项是正确的?

A、每个神经元可以有一个输入和一个输出

B、每个神经元可以有多个输入和一个输出

C、每个神经元可以有多个输入和多个输出

D、上述都正确

答案:D

解析:每个神经元可以有一个或多个输入,和一个或多个输出。如图所示的神经

网络结构中,隐藏层的每一个神经元都是多输入多输出。若将输出层改为一个神

经元,则隐藏层每个神经元都是一个输出;若将输入层改为一个神经元,则隐藏

层每个神经元都是一个输入。

34.神经网络中Dropout的作用()

A、防止过拟合

B、减小误差

C、增加网络复杂度

答案:A

解析:dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一

定的概率将其暂时从网络中丢弃。

35.人工神经网络与生物神经网络的关系:

A、完全拷贝

B、一点点关系都没有

C、人工神经网络受生物神经网络启发

D、同一事物的两个名称

答案:C

解析:人工神经网络受生物神经网络启发

36.模型有效的基本条件是能够()已知的样本

A、结合

B、拟合

C、联合

D、聚集

答案:B

解析:模型有效的基本条件是能够拟合已知的样本

37.如果我们希望预测n个类(p1,p2...pk)的概率使得所有n的p的和等于1,

那么下列哪个函数可以用作输出层中的激活函数?

A、Softmax

B、ReLu

C、Sigmoid

D、Tanh

答案:A

38.在人脸检测算法中,不属于该算法难点的是()

A、出现人脸遮挡

B、人脸角度变化大

C、需要检测分辨率很小的人脸

D、需要检测不同性别的人脸

答案:D

解析:在人脸检测算法中,不属于该算法难点的是需要检测不同性别的人脸

39.机器执行学习的框架体现了其学习的本质是()

A、参数预估

B、机器翻译

C、图像识别

D、参数估计

答案:D

解析:机器执行学习的框架体现了其学习的本质是参数估计

40.假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logis

tics回归需要很长时间才能训练。如何提高训练速度?()

A、降低学习率,减少迭代次数

B、降低学习率,增加迭代次数

C、提高学习率,增加迭代次数

D、增加学习率,减少迭代次数

答案:D

41.0是使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出

A、卷积

B、约化

C、池化

D、批归一化

答案:C

解析:池化是使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输

42.图计算中图数据往往是()和不规则的,在利用分布式框架进行图计算时,

首先需要对图进行划分,将负载分配到各个节点上

A、结构化

B、非结构化

C\对称化

D、规则化

答案:B

解析:图计算中图数据往往是非结构化和不规则的,在利用分布式框架进行图计

算时,首先需要对图进行划分,将负载分配到各个节点上

43.在CNN中,梯度下降法的作用是()。

A、线性变换

B、非线性变换

C、求函数最小值

D、加速训练

答案:C

解析:在CNN中,梯度下降法的作用是求函数最小值。

44.Y0L0v3网格数为输出特征图[N,C,H,W]的0

A、C

B、C*H

C、H*W

D、nan

答案:c

解析:见算法解析

45.目标检测常用性能指标的是()

A、信噪比

B、平方误差

C、mAP

D、分辨率

答案:C

解析:mAP表示算法处理每张照片时间。

46.在选择神经网络的深度时,下面哪些参数需要考虑?1神经网络的类型(如M

LP,CNN)2输入数据3计算能力(硬件和软件能力决定)4学习速率5映射的输出函

A、1,2,4,5

B、2,3,4,5

C、都需要考虑

Dx1,3,4,5

答案:C

47.以下关于降维,表述错误的是:()

A、降维过程中可以保留原始数据的所有信息。

B、多维缩放的目标是要保证降维后样本之间的距离不变。

C、线性降维方法目标是要保证降维到的超平面能更好的表示原始数据。

D、核线性降维方法目标是通过核函数和核方法来避免采样空间投影到高维空间

再降维之后的低维结构丢失。

答案:A

48.NaveBayes(朴素贝叶斯)是一种特殊的Bayes分类器,特征变量是X,类别

标签是C,它的一个假定是()

A、各类别的先验概率P(C)是相等的

B、以0为均值,sqr(2)/2为标准差的正态分布

C、特征变量X的各个维度是类别条件独立随机变量

D、P(X|C)是高斯分布

答案:C

49.独热编码的缺点是:①.过于稀疏②.词与词的相关性比较小③.易于编码④.

容易存储

A、③④

B、①②

C、①③

D、②④

答案:B

解析:独热编码的缺点是:①.过于稀疏②.词与词的相关性比较小

50.从一个初始策略出发,不断迭代进行策略评估和改进,直到策略收敛、不再

改变为止,这样的作法称为(_)

A、策略迭代

B、值迭代

C、策略改进

D、最优值函数

答案:A

解析:见算法解析

51.以下属于回归算法的评价指标是?

A、召回率

B、混淆矩阵

C、均方误差

D、准确率

答案:C

52.在下列人工神经学习算法中,哪种是能够根据期望的和实际的网络输出之间

的差来调整神经元之间连接的强度或权。()

A、有师学习

B、无师学习

C、强化学习

D、都不是

答案:A

53.关于循环神经网络以下说法错误的是?

A、循环神经网络可以根据时间轴展开

B、LSTM无法解决梯度消失的问题

C、LSTM也是一种循环神经网络

D、循环神经网络可以简写为RNN

答案:B

54.()常做为CNN网络的最后一层。

A、卷积层

B、池化层

C、全连接层

D、归一化层

答案:c

解析:全连接层常做为CNN网络的最后一层。

55.为了对某图像中的目标进行分析和识别,一般需要对图像进行()处理。

A、图像加噪

B、图像采集

C、图像压缩

D、图像分割

答案:D

解析:为了对某图像中的目标进行分析和识别,一般需要对图像进行图像分割处

理。

56.以下关于算法的说法中,不正确的是

A、机器学习算法分为有监督'半监督和无监督三种

B、卷积神经网络是重要的迁移学习算法

C、决策树算法属于监督学习类别

D、“Means是属于无监督学习算法

答案:B

57.VGG-19中卷积核的大小为

A、3x3

B、5x5

C、3x3,5x5

D、不确定

答案:A

解析:VGG-19中卷积核的大小为3x3

58.在卷积操作过程中计算featuremap的尺寸:设图像大小为300*300,卷积核

大小为3*3,卷积窗口移动的步长为1,则featuremaps的大小是()个元素?

A、78400

B、88804

G91204

D、99856

答案:B

解析:见算法解析

59.Inception模块采用()的设计形式,每个支路使用。大小的卷积核。

A、多通路,不同

B、单通路,不同

C、多通路,相同

D、单通路,相同

答案:A

解析:Inception模块采用多通路,不同的设计形式,每个支路使用多通路,不

同大小的卷积核。

60.xgboost在代价函数里加入了(),用于控制模型的复杂度

A、正则项

B、非线性

C、激活函数

D、特征变换

答案:A

解析:xgboost在代价函数里加入了正则项,用于控制模型的复杂度

61.CRF(条件随机场)和HMM(隐马尔可夫模型)之间的主要区别是什么?

A、CRF是生成式的,而HMM是判别式模型

B、CRF是判别式模型,HMM是生成式模型。

C、CRF和HMM都是生成式模型

D、CRF和HMM都是判别式模型。

答案:B

62.在K-摇臂赌博机中,若尝试次数非常大,在一段时间后,摇臂的奖赏能很好

的近似出来,不再需要探索,则可让E随着尝试次数增加而(—)

A、增大

B、置为无穷

C、置为0

D、减少

答案:D

解析:见算法解析

63.关于聚类说法错误的是()

A、在无监督学习任务中,研究最多、应用最广的是聚类

B、聚类可作为一个单独过程,用于找寻数据内在的分布结构,但不能作为其他

学习任务的前驱过程

C、聚类分析的目标是组内的对象之间是相似的,不同组中的对象是不同的

D、组内的相似性越大,组间差别越大,聚类就越好

答案:B

解析:聚类可作为一个单独过程,用于找寻数据内在的分布结构,可以作为其他

学习任务的前驱过程

64.学习器的实际预测输出与样本的真实输出之间的差异称为(_)。

A、错误率

B、精度

C、误差

D、查准率

答案:C

解析:见算法解析

65.下列可以用于聚类问题的机器学习算法有()

A、决策树

B、k-means

C、随机森林

D、逻辑回归

答案:B

66.使用交叉验证最简单的方法是在估计器和数据集上调用什么辅助函数?

A、cross_val_score

B、cross_vaI%

C、val_score

D、cross_score

答案:A

67.以下关于随机森林算法的描述中错误的是

A、可以处理高维度的属性,并且不用做特征选择

B、随机森林的预测能力不受多重共线性影响

C、也擅长处理小数据集和低维数据集的分类问题

D、能应对正负样本不平衡问题

答案:C

68.根据边的性质不同,概率图模型可大致分为两类:第一类是使用有向无环图

表示变量间的依赖关系,称为(—);第二类是使用无向图表示变量间的相关关

系,称为无向图模型或马尔可夫网(Markovnetwork)。

A、贝叶斯网

B、拉普拉斯网

C、帕斯卡网

D、塞缪尔网

答案:A

解析:见算法解析

69.对不具备泛化能力的规则转变为更一般的规则的最基础的技术为(一)

A、最大一般泛化

B、最小一般泛化

C、最大一般特化

D、最小一般特化

答案:B

解析:见算法解析

70.长短期记忆LSTM的核心贡献是引入了()的巧妙构思,该构思中的权重视上下

文而定,而不是固定的。

A、自增加

B、自循环

C、自递归

D、自减少

答案:B

解析:长短期记忆LSTM的核心贡献是引入了自循环的巧妙构思,该构思中的权重

视上下文而定,而不是固定的。

71.半监督支持向量机中最著名的是TSVM(TransductiveSupportVectorMachin

e)o与标准SVM一样,TSVM也是针对(一)问题的学习方法?

A、分类

B、回归

C、聚类

D、二分类

答案:D

解析:见算法解析

72.协同训练(co-training)是针对(__)数据设计?

A、多角度

B、多视图

C、多环境

D、多版本

答案:B

解析:见算法解析

73.哪个不是常用的聚类算法()。

A、K-Means

B、DBSCAN

GGMMs

DvSoftmax

答案:D

解析:Softmax不是常用的聚类算法。

74.高层的特征是低层特征的组合,从低层到高层的特征表达越来越(),也即

越来越能表现语义或者意图。

A、具体和形象化

B、抽象和概念化

C、具体和概念化

D、抽象和具体化

答案:B

解析:高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概

念化,也即越来越能表现语义或者意图。

75.以才哪种组合在CNN不常见

Avconv+reIu

B、conv+reIu+pooI

C、conv+reIu+pooI+fc

D、conv+k-means

答案:D

解析:conv+k-means组合在CNN不常见

76.我们可以将深度学习看成一种端到端的学习方法,这里的端到端指的是

A、输入端-输出端

B、输入端-中间端

C、输出端-中间端

D、中间端-中间端

答案:A

77.标准循环神经网络隐含层的输入对于网络输出的影响随时间

A、不断递归而衰退

B、不断递归而增强

C、先增强后减弱

D、先减弱后增强

答案:A

78.GBDT算法相比于随机森林算法,以下哪种表述是错误的?

A、GBDT算法比随机森林容易欠拟合

B、随机森林是并行计算的,而GBDT不能

C、GBDT算法比随机森林容易过拟合

DxGBDT与随机森林都是建立在CART树的基础之上的

答案:C

79.LVW属于哪种特征选择方法(一)

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:A

解析:见算法解析

80.LSTM单元中引入了哪些门来更新当前时刻的单元状态向量?

A、输入门、遗忘门

B、任意门、输入门

C、输出门、任意门

D、遗忘门、任意门

答案:A

解析:LSTM单元中引入了哪些门来更新当前时刻的单元状态向量?

81.下列神经网络特点描述错误的是(_)

A、适应性

B、由简单单元组成

C、广泛并行互连的网络

D、线性特性

答案:D

解析:见算法解析

82.代码arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype

=np.int64);print((arr1*arr2)[1][2])的输出结果是()?注:(已导入

numpy库)importnumpyasnp

A、6

B、8

C、10

D、12

答案:D

解析:见算法解析

83.下列选项中,哪个不是关键词提取常用的算法()

A、TF-IDF

B、TextRank

C、SSA

D、LDA

答案:C

解析:SSA(SaIpSwarmAIgorithm)是一种元启发式算法

84.如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下

列哪种做法是正确的?

A、增加树的深度

B、增加学习率

C、减小树的深度

D、减少树的数量

答案:c

85.支持向量机(SVM)中的代价参数C表示什么?()

A、交叉验证的次数

B、用到的核函数

C、在分类准确性和模型复杂度之间的权衡

D、以上都不对

答案:C

86.在深度学习网络中,反向传播算法用于寻求最优参数,在反向传播算法中使

用的什么法则进行逐层求导的?

A、链式法则

B、累加法则

C、对等法则

D、归一法则

答案:A

87.以下说法正确的是()。

A、聚类是非监督学习

B、分类是非监督学习

C、聚类是监督学习

D、以上都不对

答案:A

88.以下算法中可以用于图像平滑的是0。

A、均值滤波;

B、对比度增强

C、二值化

D、动态范围压缩

答案:A

解析:以下算法中可以用于图像平滑的是均值滤波;。

89.在20K文档的输入数据上为机器学习模型创建了文档-词矩阵(document-te

rmmatrix)o以下哪项可用于减少数据维度?(1)关键词归一化(KeywordNor

maIization)(2)潜在语义索引(LatentSemanticIndexing)(3)隐狄利克雷

分布(LatentDirichletAIlocation)

A、只有(1)

B、⑵、(3)

C、⑴、(3)

D、⑴、⑵、(3)

答案:D

90.下列哪项不属于集成学习

A、随机森林

B\Adaboost

C、kNN

D、XGBoost

答案:C

解析:集成方法分类为:Bagging(并行训练):随机森林,Boosting(串行训练):

Adaboost,GBDT:XgBoost,Stacking,BIending

91.随着句子的长度越来越多,神经翻译机器将句意表征为固定维度向量的过程

将愈加困难,为了解决这类问题,下面哪项是我们可以采用的?

A、使用递归单元代替循环单元

B、使用注意力机制(attentionmechanism)

C\使用字符级别翻译(characterIeveItransIation)

D、所有选项均不对

答案:B

92.符号集a、b、c、d,它们相互独立,相应概率为1/2、1/4、1/8、1/16,其

中包含信息量最小的符号是()

A、a

B、b

C、c

D、d

答案:A

93.数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称

为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。则

下列说法正确的是?()

A、基本模型之间相关性高。

B、基本模型之间相关性低。

C、集成方法均使用加权平均代替投票方法。

D、基本模型都来自于同一算法。

答案:B

94.DBSCAN在最坏情况下的时间复杂度是()。

A、0(m)

B、0(m2)

G0(Iogm)

D、0(m*logm)

答案:B

95.在数据挖掘中,比较成熟的预测算法包括Logistic回归模型、()、决策树'

神经网络等

A、线性回归

B、时间序列

C、灰色模型

D、贝叶斯网络

答案:D

96.在下列哪些应用中,我们可以使用深度学习来解决问题?

A、蛋白质结构预测

B、化学反应的预测

C、外来粒子的检测

D、所有这些

答案:D

97.梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变

为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?

A、用改良的网络结构比如LSTM和GRUs

B、梯度裁剪

C、Dropout

D、所有方法都不行

答案:B

98.EM算法是()

A、有监督

B、无监督

C、半监督

D、都不是

答案:B

99.启发式搜索是寻求问题()解的一种方法

A、最优

B、一般

C、满意

D、最坏

答案:C

100.马尔可夫预测模型是将时间序列看作一个过程,通过对事物不同状态的()

与状态之间转移概率的研究,确定状态变化趋势,预测事物的未来。

A、初始概率

B、结果概率

C、形成概率

答案:A

101.常见的图像预处理方法不包括(一)。

A、图像降噪

B、图像增强

C、图像尺寸归一化

D、图像标注

答案:D

解析:常见的图像预处理方法不包括图像标注。

102.在处理序列数据时,较容易出现梯度消失现象的深度学习模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuraINetwork)是一类用于处理序列数据的神经网络。RN

N存在一些问题梯度较容易出现衰减或爆炸(BPTT)-梯度爆炸

103.前馈神经网络通过误差后向传播(BP算法)进行参数学习,这是一种()

机器学习手段

A、监督学习

B、无监督学习

C、半监督学习

D、无监督学习和监督学习的结合

答案:A

104.在强化学习的过程中,学习率a越大,表示采用新的尝试得到的结果比例越

(),保持旧的结果的比例越0。

A、大

B、小

C、大

D、大

E、小

答案:A

105.L1和L2正则化是传统机器学习常用来减少泛化误差的方法,以下关于两者

的说法正确的是:

A、L1正则化可以做特征选择

B、L1和L2正则化均可做特征选择

C、L2正则化可以做特征选择

D、L1和L2正则化均不可做特征选择

答案:A

106.规则生成本质上是一个贪心搜索的过程,须有一定的机制来缓解过拟合的风

险,最常见的做法是(_)

A、序列化

B、剪枝

C、去重

D、重组

答案:B

解析:见算法解析

107.机器学习算法中,以下不属于集成学习策略的是?

A、Boosting

B、Stacking

C、Bagging

D、Marking

答案:D

108.使用决策树分类时,如果输入的某个特征的值是连续的,通常使用二分法对

连续属性离散化,即根据是否大于/小于某个阈值进行划分。如果采用多路划分,

每个出现的值都划分为一个分支,这种方式的最大问题是

A、计算量太大

B、验证集和测试集表现很差

C、验证集表现良好,测试集表现很差

D、验证集表现很差,测试集表现很好

答案:C

109.给定一个长度为n的不完整单词序列,我们希望预测下一个字母是什么。比

如输入是“predicts”(9个字母组成),希望预测第十个字母是什么。下面哪

种神经网络结构适用于解决这个工作?

A、循环神经网络

B、全连接神经网络

C、受限波尔兹曼机

D、卷积神经网络

答案:A

110.关于梯度下降算法描述正确的是:

A、梯度下降算法就是不断的更新w和b的值

B、梯度下降算法就是不断的更新w和b的导数值

C、梯度下降算法就是不断寻找损失函数的最大值

D、梯度下降算法就是不断更新学习率

答案:A

解析:梯度下降算法就是不断的更新w和b的值

111.MatplotIib是一个主要用于绘制()维图形的Python库,用途:绘图、可

视化。

A、—

B、二

C、三

D、四

答案:B

解析:见算法解析

112.GooLeNet中使用较多小tricks,其中全局平局池化GAP就是一个,使用GA

P的优点是()

A、提供更好的分类

B、减少参数量,实现任意大小的输入

C、加速模型收敛

D、增加网络深度

答案:B

解析:GooLeNet中使用较多小tricks,其中全局平局池化GAP就是一^使用

GAP的优点是减少参数量,实现任意大小的输入

113.不属于深度学习模型的选项是?

A、朴素贝叶斯

B、深度残差网络

C、卷积神经网络CNN

D、循环神经网络RNN

答案:A

解析:朴素贝叶斯算法是基于贝叶斯定理与特征条件独立假设的分类算法不属于

深度学习模型。

114.对于神经网络的说法,下面正确的是()

A、增加神经网络层数,可能会增加测试数据集的分类错误率

B、减少神经网络层数,总是能减小测试数据集的分类错误率

C、增加神经网络层数,总是能减小训练数据集的分类错误率

D、1、2都对

答案:A

115.CascadeRCNN中使用了()个BBOXHead完成目标检测

A、1

B、2

C、3

D、4

答案:c

解析:见算法解析

116.下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是。。

A、LSTM是简化版的RNN

B、LSTM是双向的RNN

GLSTM是多层的RNN

DvLSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

答案:D

解析:LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

117.逻辑回归的损失函数是下列哪一种?()

A、平方损失函数

B、对数损失函数

GHingeLossOT损失函数

D、绝对值损失函数

答案:B

118.当采用K-距离的方法选择DBSCAN的Eps和MinPts参数时,如果设置的K

的值太大,则小簇(尺寸小于K的簇)可能会被标记为

A、噪声

B、核心簇

C、边界簇

D、以上都不对

答案:A

119.卷积神经网络的英文缩写是:

A、DNN

B、CNN

C、RNN

D\Tanh

答案:B

解析:卷积神经网络的英文缩写是CNN

120.深度学习中的不同最优化方式,如SGD,ADAM下列说法中正确的是

A、在实际场景下,应尽量使用ADAM,避免使用SGD

B、同样的初始学习率情况下,ADAM的收敛速度总是快于SGD方法

C、相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节通

常会取得更好效果

D、同样的初始学习率情况下,ADAM比SGD容易过拟合

答案:C

解析:相同超参数数量情况下,比起自适应的学习率调整方式,SGD加手动调节

通常会取得更好效果

121.下列属于特征降维的方法有

A、主成分分析PCA

B、数据采样

G正则化

D、最小二乘法

答案:A

122.下列选项中,不属于深度学习模型的是?

A、线性回归

B、深度残差网络

C、卷积神经网络CNN

D、循环神经网络RNN

答案:A

解析:线性回归是传统统计学系呢绒

123.关于GoogLeNet描述正确的有:

A、GoogLeNet仅仅是在宽度上进行了探索,所以它是一个很浅的网络

B、GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路

C\GoogLeNet使用了Inception结构,Inception结构只有V1这一^"b版本

DxGoogLeNet结合多种网络设计结构所以是到目前为止分类效果最好的网络结

答案:B

解析:GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路

124.下列哪一项在神经网络中引入了非线性?

A、随机梯度下降

B、修正线性单元(ReLU)

C、卷积函数

D、以上都不正确

答案:B

解析:修正线性单元是非线性的激活函数

125.强化学习的基础模型是()模型

A、马可夫决策

B、贝叶斯

C、HMM

D、最大后验概率

答案:A

解析:见算法解析

126.在£-greedy策略当中,E的值越大,表示采用随机的一个动作的概率越(),

采用当前Q函数值最大的动作的概率越()。

A、大

B、小

C、大

D、大

E、小

答案:A

127.()反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳

定性。反应预测的波动情况。

A、标准差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的

稳定性。反应预测的波动情况。

128.K-Means算法无法聚以下哪种形状的样本

A、圆形分布

B、螺旋分布

C、带状分布

D、凸多边形分布

答案:B

129.()是一种基于树结构进行决策的算法。

A、轨迹跟踪

B、决策树

C、数据挖掘

D、K近邻算法

答案:B

解析:轨迹跟踪又称为前轮反馈控制法(FrontwheeIfeedback),核心在于基于

前轮中心的路径跟踪偏差量对方向盘转向控制量进行计算。决策树算法是一种逼

近离散函数值的方法,它是一种典型的分类方法,首先对数据进行处理,利用归

纳算法生成可读的规则和决策树,然后使用决策对新数据进行分析。数据挖掘是

指从大量的数据中通过算法搜索隐藏于其中信息的过程。K近邻算法,即是给定

一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K

个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。符合

题意的为B项决策树。答案选B

130.关于bagging下列说法错误的是:()

A、各基分类器之间有较强依赖,不可以进行并行训练。

B、最著名的算法之一是基于决策树基分类器的随机森林。

C、当训练样本数量较少时,子集之间可能有重叠。

D、为了让基分类器之间互相独立,需要将训练集分为若干子集。

答案:A

131.数据在完成特征工程的操作后,在构建模型的过程中,以下哪个选项不属于

决策树构建过程当中的步骤?

A、剪枝

B、特征选取

C、数据清理

D、决策树生成

答案:C

132.通过以下哪些指标我们可以在层次聚类中寻找两个集群之间的差异?()

A、单链接

B、全链接

C、均链接

D、以上都行

答案:D

133.下述()不是人工智能中常用的知识格式化表示方法。

A、框架表示法

B、产生式表示法

C\语乂网络表K法

D、形象描写表示法

答案:D

134.比较成熟的分类预测模型算法包括Logistic回归模型、广义线性模型、。、

神经网络

A、决策树

B、arima模型

C、holt-winter模型

D、k-means模型

答案:A

135.在pytorch中,设模型变量名为modeI,则对modeI.evaI()的描述正确的是

A、modeI.eval()可以在模型训练阶段使用

B、modeI.eval0只能在模型测试阶段使用

C、model,eval()在模型验证,模型测试阶段都可以使用

D、model,eval()在模型训练'模型验证、模型测试阶段都可以使用

答案:C

解析:在pytorch中,model.eval在模型验证、模型测试阶段都可以使用

136.()控制着整个LSTM单元的状态或者记忆,它会根据每个时刻的输入进行

更新。

A、隐状态向量

B、状态向量

C、显状态向量

D、以上都不对

答案:B

解析:状态向量控制着整个LSTM单元的状态或者记忆,它会根据每个时刻的输

入进行更新。

137.早期图像识别技术中存在的主要问题是()。

A、全局特征丢掉了图像细节

B、提取不到主要特征

C、存储效率低下

D、太多的错误匹配

答案:A

解析:早期图像识别技术中存在的主要问题是全局特征丢掉了图像细节。

138.FPN中根据ROI的()来分配所属层级?

A、分类分数

B、最大边长度

C、面积

D、nan

答案:C

解析:见算法解析

139.随机森林是一种集成学习算法,是()算法的具体实现。

AvBoosting

B、Bagging

C、Stacking

DvDropping

答案:B

解析:随机森林是一种集成学习算法,是Bagging算法的具体实现。

140.深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵

相乘,现在需要计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别

为m*n,n*p,p*q,且m〈n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

141.对完成特定任务的卷积神经网络训练采用的是监督学习方法。在这个过程中,

通过误差后向传播来优化调整网络参数,请问下面哪个参数不是通过误差后向传

播来优化的

A、卷积滤波矩阵中的参数

B、全连接层的链接权重

C、激活函数中的参数

D、模型的隐藏层数目

答案:D

142.下列不属于树模型的是

A、GBDT梯度提升树

B、XGBoost

C、RF随机森林

D、LR线性回归

答案:D

143.fasterRCNN用于生成候选框proposaI的模块名称()

A、RPN

B、CNN

C\ResNet

D、RoIpooIing

答案:A

解析:fasterRCNN用于生成候选框proposal的模块是RPN

144.LSTM用于文本分类的任务中,不会出现的网络层是()

A、全连接

B、词嵌入层

C\卷积层

D、以上选项均不正确

答案:C

解析:LSTM中没有卷积层

145.如果我们希望预测n个类(p1,p2...pk)的概率使得所有n的p的和等于

1,那么下列哪个函数可以用作输出层中的激活函数?

A、ReLu

B\Softmax

C、Sigmoid

D、Tanh

答案:B

146.假设你需要调整超参数来最小化代价函数(costfunction),会使用下列哪

项技术?

A、穷举搜索

B、随机搜索

C、Bayesian优化

D、都可以

答案:D

147.ROIPooling在那个模型中被第一次提出()

A、fast-rcnn

B、faster-rcnn

C、mask-rcnn

D、rcnn

答案:A

解析:见算法解析

148.以下关于特征工程的说法不正确的是

A、特征工程指的是把原始数据转变为模型的训练数据的过程

B、它的目的就是获取更好的训练数据特征,使得机器学习模型逼近这个上限

C、特征工程在机器学习中占有非常重要的作用,一般认为括特征构建、特征提

取'特征选择三个部分。

D、特征提取是从特征集合中挑选一组具有明显物理或统计意义的特征子集。

答案:D

149.关于递归函数基例的说明,以下选项中错误的是

A、递归函数必须有基例

B、递归函数的基例不再进行递归

C、每个递归函数都只能有一个基例

D、递归函数的基例决定递归的深度

答案:C

150.线性回归方法是假定条件属性和决策属性之间存在线性关系,然后通过训练

数据拟合出一个()方程,并使用该方程去预测未知的新实例。

A、一元一次

B、线性

C、二元一次

D、多元

答案:B

151.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是

你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个

预先训练好的网络?

A、把除了最后一层外所有的层都冻结,重新训练最后一层

B、对新数据重新训练整个模型

C、只对最后几层进行调参(finetune)

D、对每一层模型进行评估,选择其中的少数来用

答案:C

152.下列关于XGboost算法描述中错误的是

A、由于其特殊原因,无法分布式化

B、xgboost在代价函数里加入了正则项,用于控制模型的复杂度

C、可以处理带有缺失值的样本

D、允许使用列抽样来减少过拟合

答案:A

153.神经网络训练过程中,一般会遇到停滞期,即神经网络在进入全局最小值之

前陷入局部最小值。以下哪个策略可以避免上述情况?

A、增加参数数量

B、减少参数数量

C、在开始时将学习率降低10倍

D、改变几个时期的学习率

答案:D

154.在CNN构建中,指定每次训练或验证数据集图片多少的变量为()。

A、reIu

B、batch

C、step

D、padding

答案:B

解析:在CNN构建中,指定每次训练或验证数据集图片多少的变量为batch。

155.代码array=np.arange(10,31,5)中的5代表()?

A、元素的个数

B、步长

C、第一个元素

D、最后一个元素

答案:B

解析:见算法解析

156.()采用多种乐器的音频数据,可融合多种国家、乐曲风格和乐器音色的特

征,创作音乐作品。

A、XLNet

B、GoogIeNet

C、MuseNet

D、AlexNet

答案:c

解析:MuseNet采用多种乐器的音频数据,可融合多种国家、乐曲风格和乐器音

色的特征,创作音乐作品。

157.DSSM经典模型的缺点:1.Wordhashing可能造成词语冲突;2.采用词袋模型,

损失了上下文语序信息;3.搜索引擎的排序由多种因素决定,用户点击时doc

排名越靠前越容易被点击,仅用点击来判断正负样本,产生的噪声较大,模型难

以收敛;4.效果不可控。

A、1.2.3

B、1.3.4

C、2.3.4

D、1.2.3.4

答案:D

解析:DSSM经典模型的缺点:1.Wordhashing可能造成词语冲突;2.采用词袋模

型,损失了上下文语序信息;3.搜索引擎的排序由多种因素决定,用户点击时d

℃排名越靠前越容易被点击,仅用点击来判断正负样本,产生的噪声较大,模

型难以收敛;4.效果不可控。

158.多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。下列

哪一种方法可能是解决此问题的最好选择?

A、随机森林分类器

B、卷积神经网络

C、梯度爆炸

D、上述所有方法

答案:B

159.下列哪个不是激活函数()。

A、sigmod

B、reIu

C、tanh

D、hidden

答案:D

解析:hidden不是激活函数。

160.长短期记忆LSTM具有与循环神经网络相似的控制流,两者的区别在于LSTM

中增加了()导致单元内的处理过程不同。

A、输入门

B、记忆门

C、忘记门

D\输出门

答案:C

解析:长短期记忆LSTM具有与循环神经网络相似的控制流,两者的区别在于LS

TM中增加了忘记门导致单元内的处理过程不同。

161.批规范化(BatchNormaIization)的好处都有啥?

A、让每一层的输入的范围都大致固定

B、它将权重的归一化平均值和标准差

C、它是一种非常有效的反向传播(BP)方法

D、这些均不是

答案:A

162.如果问题存在最优解,则下面几种搜索算法中,()必然可以得到该最优解。

A、广度优先搜索

B、深度优先搜索

C、有界深度优先搜索

D、启发式搜索

答案:A

解析:广度优先搜索会根据离起点的距离,按照从近到远的顺序对各节点进行搜

索。而深度优先搜索会沿着一条路径不断往下搜索直到不能再继续为止,然后再

折返,开始搜索下一条路径。广度优先搜索可以找出节点的最短路径,即可以解

决最短路径问题。有界深度优先搜索为了解决深度有限搜索误入无穷分支,定出

一个深度界限,在找寻达到这一深度界限而且还没有找到目标时,即返回重找。

启发式搜索是利用问题拥有的启发信息来引导搜索,达到减少搜索范围、降低问

题复杂度的目的,可以消除组合爆炸,并得到令人能接受的解(通常并不一定是

最佳解)。所以如果存在最优解,广度优先搜索必然可以得到最优解,答案选A

163.在前馈神经网络中,误差后向传播(BP算法)将误差从输出端向输入端进

行传输的过程中,算法会调整前馈神经网络的什么参数

A、输入数据大小

B、神经元和神经元之间连接有无

C、相邻层神经元和神经元之间的连接权重

D、同一层神经元之间的连接权重

答案:C

164.下列哪个是CNN网络的超参数。

A、权重

B、偏置

C、激活函数

D、学习率

答案:D

解析:学习率是CNN网络的超参数。

165.神经元之间的每个连接都有()权重。

A、一^

B、两个

C、多个

D\无

答案:A

解析:神经元之间的每个连接都有一个权重。

166.下列哪项不是SVM的优势

A、可以和核函数结合

B、通过调参可以往往可以得到很好的分类效果

C、训练速度快

D、泛化能力好

答案:C

解析:SVM的训练速度不快

167.问答系统中的NLP技术,以下描述不正确的是:

A、问答(QA)系统的想法是直接从文档、对话、在线搜索和其他地方提取信息,

以满足用户的信息需求。QA系统不是让用户阅读整个文档,而是更喜欢简短而

简洁的答案。

B、QA系统相对独立很难与其他NLP系统结合使用,现有QA系统只能处理对文

本文档的搜索,尚且无法从图片集合中提取信息。

C、大多数NLP问题都可以被视为一个问题回答问题。范例很简单:我们发出查

询指令,机器提供响应。通过阅读文档或一组指令,智能系统应该能够回答各种

各样的问题。

D、强大的深度学习架构(称为动态内存网络(DMN))已针对QA问题进行了专

门开发和优化。给定输入序列(知识)和问题的训练集,它可以形成情节记忆,

并使用它们来产生相关答案。

答案:B

解析:删除

168.Word2Vec提出了哪两个算法训练词向量?

A、COBWSoftmax

B、SoftmaxyCBOW

C、CBOW、Skip-gramD

D、Skip-gramCOBWC

答案:c

解析:Word2Vec提出了两个算法训练词向量

169.Iou表示的是0

A、两个框之间的重叠程度

B、两个框的总面积

C、两个框的相对大小

D、一个框面积与周长比值

答案:A

解析:见算法解析

170.下列哪个神经网络结构会发生权重共享

A、卷积神经网络&

B、&循环神经网络&

C、&全连接神经网络&

D、&卷积和循环神经网络

答案:D

解析:见算法解析

171.关于贝叶斯网的学习描述错误的为(一)

A、贝叶斯的学习过程为对训练样本计数;

B、估计出每个结点的条件概率;

C、网络结构为已知;

D、评分搜索为求解的常用办法;

答案:C

解析:见算法解析

172.影响基本K-均值算法的主要因素不包括下列哪一个选项?

A、样本输入顺序

B、模式相似性测度

C、聚类准则

D、初始类中心的选取

答案:C

173.对于一个图像识别问题(在一张照片里找出一只猫),下面哪种神经网络可以

更好地解决这个问题?

A、循环神经网络

B、感知机

C、多层感知机

D、卷积神经网络

答案:D

174.主成分分析是一种数据降维和去除相关性的方法,它通过()将向量投影到

低维空间。

A、线性变换

B、非线性变换

C、拉布拉斯变换

D、z变换

答案:A

解析:主成分分析是一种数据降维和去除相关性的方法,它通过线性变换将向量

投影到低维空间。

175.在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,

每个主分量的权数为0。

A、每个主分量的方差

B、每个主分量的标准差

C、每个主分量的方差贡献率

D、每个主分量的贡献率

答案:C

解析:在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,

每个主分量的权数为每个主分量的方差贡献率。

176.以下关于Bagging(装袋法)的说法不正确的是

A、能提升机器学习算法的稳定性和准确性,但难以避免overfitting

B、Bagging(装袋法)是一个统计重采样的技术,它的基础是Bootstrap

C、主要通过有放回抽样)来生成多个版本的预测分类器,然后把这些分类器进行

组合

D、进行重复的随机采样所获得的样本可以得到没有或者含有较少的噪声数据

答案:A

177.假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输

入,你会得到输出「-0.0001」。X可能是以下哪一个激活函数?

A、ReLU

B、tanh

C、SIGMOID

D、以上都不是

答案:B

178.语音是一种典型的()数据。

A、无结构无序列

B、方结构序列

C、无结构序列

D、有结构无序列

答案:C

解析:语音是一种典型的无结构序列数据。

179.在RNN中,目前使用最广泛的模型便是()模型,该模型能够更好地建模长

序列。

A、SLTM

B、SLMT

C\LSMT

D、LSTM

答案:D

解析:在RNN中,目前使用最广泛的模型便是LSTM模型,该模型能够更好地建

模长序列。

180.关于线性回归的描述,以下正确的有()

A、基本假设包括随机干扰项是均值为0,方差为1的标准正态分布

B、基本假设包括随机干扰项是均值为0的同方差正态分布

C、多重共线性会使得参数估计值方差减小

D、基本假设包括不服从正态分布的随机干扰项

答案:B

解析:线性回归的基本假设是随机干扰项是均值为0的同方差正态分布

181.机器学习算法的一般流程是()。

Av1)收集数据,2)准备数据,3)分析数据,4)训练算法,5)测试算法,6)

使用算法

B、1)收集数据,2)分析数据,3)准备数据,4)训练算法,5)测试算法,6)

使用算法

C、1)收集数据,2)分析数据,3)准备数据,4)测试算法,5)训练算法,6)

使用算法

D、1)收集数据,2)分析数据,3)测试算法,4)训练算法,5)准备数据,6)

使用算法

答案:A

解析:机器学习算法的一般流程⑴收集数据:可以使用任何方法。(2)准备数据:

距离计算所需要的数值,最好是结构化的数据格式。(3)分析数据:可以使用任

何方法。(4)训练算法:此步骤不适用于k-近邻算法。(5)测试算法:计算错误

率。(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近

邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处

理。

182.卷积神经网络(convolu-tionaIneuraInetwork,CNN),是一种专门用来处理

具有类似()的数据的神经网络。

A、网格结构

B、数组结构

C、序列结构

D、表格结构

答案:A

解析:卷积神经网络(convoIu-tionaIneuraInetwork,CNN),是一种专门用来处

理具有类似0的数据的神经网络。

183.语言模型的作用是:

A、查看一句话成为一句“人话”的概率

B、查看一句话是英语的概率

C、查看一句话是汉语的概率

D、查看一句话是否是完整的

答案:A

解析:语言模型的作用是查看一句话成为一句“人话”的概率

184.关于线性回归的描述,以下说法正确的有()

A、基本假设包括随机干扰项是均值为0,方差为1的标准正态分布

B、基本假设包括随机干扰项是均值为0的同方差正态分布

C、多重共线性会使得参数估计值方差减小

D、基本假设包括不服从正态分布的随机干扰项

答案:B

解析:线性回归基本假设包括随机干扰项是均值为0的同方差正态分布

185..混沌度(Perplexity)是一种常见的应用在使用深度学习处理NLP问题过程

中的评估技术,关于混沌度,哪种说法是正确的?

A、混沌度没什么影响

B、混沌度越低越好

C、混沌度越高越好

D、混沌度对于结果的影响不一定

答案:B

186.环境在接受到个体的行动之后,会反馈给个体环境目前的状态(state)以

及由于上一个行动而产生的()。

A、action

B、reward

Cvstate

Dvagent

答案:B

解析:见算法解析

187.ONE-HOT-ENCODING可用于什么特征处理

A、类别型特征

B、有序性特征

C、数值型特征

D、字符串型特征

答案:A

188.ResNet-50有多少个卷积层?()

A、48

B、49

C、50

D、51

答案:B

189.语义网络表达知识时,有向弧AK0链、ISA链是用来表达节点知识的

A、无悖性

B、可扩充性

C、继承性

D、连贯性

答案:C

解析:语义网络表达知识时,有向弧AKO链、ISA链是用来表达节点知识的继承

190.为了将特征转变成Embedding表示,所有特征均需转变成()

A、数字

B、字符

C、符号

D、英文

答案:A

解析:为了将特征转变成Embedding表示,所有特征均需转变成数字

191.感知器在空间中可以展现为?

A、点

B、线

C、平面

D、超平面

答案:A

192.下面算法中哪个不是分类算法

A、决策树

B、高斯混合模型GMM

C、随机森林

D\Xgboost

答案:B

193.Skip-gram在实际操作中,使用一个()(一般情况下,长度是奇数),从

左到右开始扫描当前句子。

A、过滤器

B、滑动窗口

C、筛选器

D、扫描器

答案:B

解析:见算法解析

194.线性回归在3维以上的维度中拟合面是?

A、曲面

B、平面

C、超平面

D、超曲面

答案:C

195.CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率

的说法,错误的是()

A、学习率太小,更新速度慢

B、学习率过大,可能跨过最优解

C、学习率也是有网络学习而来

D、学习率可在网络训练过程中更改

答案:C

解析:CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习

率的说法,错误的是学习率也是有网络学习而来

196.代码arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])

的输出是()?

A、5

B、25

C\6

D、26

答案:B

解析:见算法解析

197.()的核心训练信号是图片的“可区分性”。模型需要区分两个输入是来自

于同一图片的不同视角,还是来自完全不同的两张图片。

A、对比学习

B、强化学习

C、迁移学习

D、深度学习

答案:A

解析:对比学习的核心训练信号是图片的“可区分性”。模型需要区分两个输入

是来自于同一图片的不同视角,还是来自完全不同的两张图片。

198.在神经网络中,我们是通过以下哪个方法在训练网络的时候更新参数,从而

最小化损失函数的?

A、正向传播算法

B、池化计算

C、卷积计算

D、反向传播算法

答案:D

199.机器学习的算法中,以下哪个不是无监督学习?

A、GMM

B、Xgboost

c、聚类

D、关联规则

答案:B

200.对于线性可分的数据,支持向量机的解决方式是()

A、软间隔

B、硬间隔

C、核函数

D、以上选项均不正确

答案:B

解析:对于线性可分的数据,支持向量机的解决方式是硬间隔

多选题

1.关于逻辑回归正确的是()

A、风险控制是金融领域最核心的问题,逻辑回归是在风险评估中最经典常用的

方法

B、逻辑回归可以用到互联网广告点击预测

C、逻辑回归只能用于解决二分类问题

D、以上都不对

答案:AB

2.一下哪几种是常见的激活函数

A、sigmoid

B、reIu

C、tanh

D、skip

答案:ABC

解析:见算法解析

3.属于卷积神经网络(CNN)的有()。

A、VGGNet

B\ResNet

C、AlexNet

D\GoogIeNet

答案:ABCD

4.可以用随机梯度下降法求解参数的模型分别有()

A、线性回归

B、卷积神经网络

C、循环神经网络

D、LSTM

答案:ABCD

解析:见算法解析

5.假设我们要解决一个二类分类问题,我们已经建立好了模型,输出是0或1,初

始时设阈值为0.5,超过0.5概率估计,就判别为1,否则就判别为0;如果我们现

在用另一个大于0.5的阈值,那么现在关于模型说法,正确的是

A、模型分类的召回率不变

B、模型分类的召回率会升高

C、模型分类准确率会升高或不变

D、模型分类准确率降低

答案:AC

解析:准确率:即预测结果正确的百分比。精确率(查准率):预测结果为正例

样本中真实为正例的比例(查得准)。召回率(查全率):真实为正例的样本中

预测结果为正例的比例(查的全,对正样本的区分能力。F-score:在实践中,

我们定义了新的指标去“综合”这两个指标。具体的定义如公式(3),从数学

上来看,它其实是查准率与查全率的调和平均数。对于二元分类问题,F-score

综合考虑了预测结果的查准率和查全率,是一个比较好的评估指标。

6.Embedding编码有哪些特点?

A、特征稠密

B、特征稀疏

C、能够表征词与词之间的相互关系(相似度计算)

D、泛化性更好,支持语义运算sim

答案:ACD

解析:见算法解析

7.关于神经网络模型的说法,哪些是不正确的()

A、神经网络的工作原理与生物体内的神经元是完全一样的

B、训练神经网络的实质是对复杂函数求参数最优解的过程

C、增加神经网络的层数和增加每层的神经元个数的效果是一样的

D、神经网络只能进行二分类,不能进行更多种类的分类了

答案:ACD

8.以下算法中可以用于图像处理中去噪的是0。

A、中值滤波

B、均值滤波

C、最小值滤波

D、最大值滤波

答案:ABCD

解析:见算法解析

9.下列可用于隐马尔可夫预测的算法是()。

A、维特比算法

B、Baum-Welch算法

C、前向-后向算法

D、拟牛顿法

答案:ABCD

解析:A是教材原文;B是EM算法,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论