人工智能-核心算法考试题库500题_第1页
人工智能-核心算法考试题库500题_第2页
人工智能-核心算法考试题库500题_第3页
人工智能-核心算法考试题库500题_第4页
人工智能-核心算法考试题库500题_第5页
已阅读5页,还剩146页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能-核心算法考试题库500题(供参考)

一、单选题

1.深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相

乘,现在需耍计算三个稠密矩阵A,B,C的乘积ABC,假设三个矩阵的尺寸分别为ni

*n,n*p,p*q,且水n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

2.下面哪项操作能实现跟神经网络中Dropout的类似效果?()

AxBoosting

B、Bagging

C、Stacking

D、Mapping

答案:B

3.我们可以将深度学习看成一种端到端的学习方法,这里的端到端指的是

A、输入端-输出端

B、输入端-中间端

C、输出端-中间端

D、中间端-中间端

答案:A

4.语音是一种典型的()数据。

A、无结构无序列

B、有结构序列

C、无结构序列

D、有结构无序列

答案:C

解析:语音是一种典型的无结构序列数据。

5.CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率的

说法,错误的是。

A、学习率太小,更新速度慢

B、学习率过大,可能跨过最优解

C、学习率也是有网络学习而来

D、学习率可在网络训练过程中更改

答案:C

解析:CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习

率的说法,错误的是学习率也是有网络学习而来

6.岭回归和最小二乘法的算法复杂度是相同的。

A、正确

B、错误

答案:A

7.为应对卷积网络模型中大量的权重存储问题,研究人员在适量牺牲精度的基础

上设计出一款超轻量化模型()

A、KNN

B、RNN

C、BNN

D、VGG

答案:C

解析:为应对卷积网络模型中大量的权重存储问题,研究人员在适量牺牲精度的

基础上设计出一款超轻量化模型BNN

8.()是使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出

A、卷积

B、约化

C、池化

D、批归一化

答案:C

解析:池化是使用某一位置的相邻输出的总体统L特征来代替网络在该位置的输

9.关于梯度下降算法描述正确的是:

A、梯度下降算法就是不断的更新w和b的值

B、梯度下降算法就是不断的更新w和b的导数值

C、梯度下降算法就是不断寻找损失函数的最大值

D、梯度下降算法就是不断更新学习率

答案:A

解析:梯度下降算法就是不断的更新w和b的值

10.下述()不是人工智能中常用的知识格式化表示方法。

A、框架表示法

B、产生式表示法

C、语义网络表示法

D、形象描写表示法

答案:D

11.下列可以用于聚类问题的机器学习算法有。

A、决策树

B、k-means

C、随机森林

D、逻辑回归

答案:B

12.在废弃阶段,废弃销毁使用目的不复存在或者有更好解决方法替换的人工智

能系统,主要包括数据、()以及系统整体的废弃销毁过程。

A、算法

B、模型

C、程序

D、算法模型

答案:D

解析:在废弃阶段,废弃销毁使用目的不复存在或者有更好解决方法替换的人工

智能系统,主要包括数据、算法模型以及系统整体的废弃销毁过程。

13.对于神经网络的说法,下面正确的是()

A、增加神经网络层数,可能会增加测试数据集的分类错误率

B、减少神经网络层数,总是能减小测试数据集的分类错误率

C、增加神经网络层数,总是能减小训练数据集的分类错误率

D、1、2都对

答案:A

14.按照类别比例分组的k折用的是哪个函数。

AxRepeatedKFoId

B、StratifiedKFold

CxLeavePOut

D、GroupKFold

答案:B

15.高层的特征是低层特征的组合,从低层到高层的特征表达越来越(),也即

越来越能表现语义或者意图。

A、具体和形象化

B、抽象和概念化

C、具体和概念化

D、抽象和具体化

答案:B

解析:高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概

念化,也即越来越能表现语义或者意图。

16.关于模型参数(权重值)的描述,错误的说法是

A、在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断

减少

B、每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一股越

C、模型参数量越多越好,没有固定的对应规则

D、训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置

答案:C

解析:几乎模型每个操作所需的时间和内存代价都会随模型参数量的增加而增加

17.以下程序的输出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,

11,12]]);print(array,shape)

A、(4,3)

B、(3,4)

C、3

D、4

答案:A

解析:见算法解析

18,下列关于深度学习说法错误的是

A、LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题

B、CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合

C、只要参数设置合理,深度学习的效果至少应优于随机算法

D、随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题

答案:C

解析:只要参数设置合理,深度学习的效果至不一定优于随机算法

19.循环神经网最常常遇到的问题是:①.梯度消失②.词语依赖位置较远③.梯度

爆炸④.维数灾难

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

解析:循环神经网最常常遇到的问题是:①.梯度消失②.词语依赖位置较远③.

梯度爆炸

20,下列哪个不是激活函数()。

A、sigmod

B、reIu

C、tanh

D、hidden

答案:D

解析:hidden不是激活函数。

21.以下哪个聚类算法不属于基于网格的聚类算法()。

A、STING

BxWaveIuster

C、MAFI

D、IRH

答案:D

22.VGG79中卷积核的大小为

A、3x3

B、5x5

C、3x3,5x5

D、不确定

答案:A

解析:VGG-19中卷积核的大小为3x3

23.CRF(条件随机场)和HMM(隐马尔可夫模型)之间的主要区别是什么?

A、CRF是生成式的,而HMM是判别式模型

B、CRF是判别式模型,HMM是生成式模型。

C、CRF和HMM都是生成式模型

D、CRF和HMM都是判别式模型。

答案:B

24.在数据挖掘中,比较成熟的预测算法包括Logistic回归模型、()、决策树、

神经网络等

A、线性回归

B、时间序列

C、灰色模型

D、贝叶斯网络

答案:D

25.()是用来评估神经网络的计算模型对样本的预测值和真实值之间的误差大小。

A、损失函数

B、优化函数

C、反向传播

D、梯度下降

答案:A

26.关于K均值和DBSCAN的比较,以下说法不正确的是()。

A、K均值丢弃被它识别为噪声的对象,而DBSCAN一般聚类所有对象。

B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。

C、K均值很难处理非球形的簇和不同大小的簇,DBSCAN可以处理不同大小和不

同形状的簇。

D、K均值可以发现不是明显分离的簇,即便簇有重叠也可以发现,但是DBSCAN

会合并有重叠的簇。

答案:A

27.DSSM经典模型的缺点:1.Wordhashing可能造成词语冲突;2.采用词袋模型,

损失了上下文语序信息;3.搜索引擎的排序由多种因素决定,用户点击时doc

排名越靠前越容易被点击,仅用点击来判断正负样本,产生的噪声较大,模型难

以收敛;4.效果不可控。

A、1.2.3

B、1.3.4

C、2.3.4

D、1.2.3.4

答案:D

解析:DSSM经典模型的缺点:1.Wordhashing可能造成词语冲突;2.采用词袋模

型,损失了上下文语序信息;3.搜索引擎的排序由多种因素决定,用户点击时d

℃排名越靠前越容易被点击,仅用点击来判断正负样本,产生的噪声较大,模

型难以收敛;4.效果不可控。

28.在回归模型中,下列哪一项在权衡欠拟合(under-fitting)和过拟合(ove

r-fitting)中影响最大?

A、多项式阶数

B、更新权重w时,使用的是矩阵求逆还是梯度下降

C、使用常数项

答案:A

29.人工神经元内部运算包含哪两个部分:

A、非线性变换和激活变换

B、线性变换和非线性变换

C、向量变换和标量变换

D、化学变换和电变换

答案:B

解析:人工神经元内部运算包含线性变换和非线性变换两个部分

30.在一个神经网络中,下面哪种方法可以用来处理过拟合?

A、Dropout

B、分批归一化(BatchNormaIization)

C、正则化(regularization)

D、都可以

答案:D

31.让学习器不依赖外界交互、自动地利用未标记样本来提升学习性能,就是(.

_)?

A、监督学习

B、倍监督学习

C、半监督学习

D、无监督学习

答案:C

解析:见算法解析

32.Scikit-Learn中。可以实现计算模型准确率。

A、accuracy_score

B、accuracy

C、f1_score

D、f2_score

答案:A

解析:Seikit-Learn中accuracy_score可以实现计算模型准确率。

33.留出法直接将数据集划分为()个互斥的集合。

A、一

B、二

C、三

D、四

答案:B

解析:见算法解析

34.关于SVM,以下描述错误的是()

A、如果原始空间是有限维,即属性数有限,那么一定存在一个高维特征空间使

样本可分

B、某个核函数使训练集在特征空间中线性可分,可能原因是欠拟合

C、“软间隔”允许某些样本不满足约束

D、正则化可理解为一种“罚函数法

答案:B

解析:见算法解析

35.梯度下降算法的正确步骤是什么?a.计算预测值和真实值之间的误差b.重

复迭代,直至得到网络权重的最佳值c.把输入传入网络,得到输出值d.用随机

值初始化权重和偏差e.对每一个产生误差的神经元,调整相应的(权重)值以

减小误差()

A、abode

B、edcba

C、cbaed

D、dcaeb

答案:D

36.下列关于特征选择的说法错误的是()

A、可以提高特征关联性

B、可以减轻维数灾难问题

C、可以降低学习任务的难度

D、特征选择和降维具有相似的动机

答案:A

解析:见算法解析

37.以下对于标称属性说法不正确的是

A、标称属性的值是一些符号或事物的名称,每种值代表某种类别、编码或状态。

B、标称值并不具有有意义的顺序,且不是定量的

C、对于给定对象集,找出这些属性的均值、中值没有意义。

D、标称属性通过将数值量的值域划分有限个有序类别,把数值属性离散化得来。

答案:D

38.深度学习神经网络训练时需要大量的矩阵计算,一般我们需要配用硬件让计

算机具备并行计算的能力,以下硬件设备可提供并行计算能力的是:

A、主板

B、内存条

C、GPU

D、CPU

答案:C

39.fasterRCNN用于生成候选框proposal的模块名称()

A、RPN

B、CNN

C、ResNet

D、RoIpooIing

答案:A

解析:fasterRCNN用亍生成候选框proposal的模块是RPN

40.假设我们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,

假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数

(XNORfunction)吗

A、可以

B、不好说

C、不一定

D、不能

答案:D

解析:使用ReLU激活函数的神经网络是能够模拟出同或函数的。但如果ReLU

激活函数被线性函数所替代之后,神经网络将失去模拟非线性函数的能力

41.对比学习的核心训练信号是图片的“()”。

A、可预见性

B、可移植性

C、可区分性

D、可推理性

答案:C

解析:对比学习的核心训练信号是图片的“可区分性”。

42.()有跟环境进行交互,从反馈当中进行不断的学习的过程。

A、监督学习

B、非监督学习

C、强化学习

D、线性回归

答案:C

43.产生式系统的推理不包括()

A、正向推理

B、逆向推理

C、双向推理

D、简单推理

答案:D

44.在20K文档的输入数据上为机器学习模型创建了文档一词矩阵(document-te

rmmatrix)o以下哪项可用于减少数据维度?(1)关键词归一化(KeywordNor

malization)(2)潜在语义索引(LatentSemanticIndexing)(3)隐狄利克雷

分布(LatentDirichIetAIIocation)

A、只有(1)

B、(2)、(3)

C、(1)、(3)

D、(1)、⑵、(3)

答案:D

45.以下哪种卷积神经网络的设计引入了残差网络结构()

A、LeNet

B、AIexNet

C、GoogLeNet

D、ResNets

答案:D

解析:ResNets(ResiduaINetworks)残差网络;LeNet是最早的卷积神经网络

结构,AIexNet首次在CNN中成功应用了ReLU、Dropout和LRN等技术,GoogLe

Net加入Inception网络结构来搭建一个稀疏性、高计算性能的网络结构,后三

种网络都没有用到残差网络结构

46.当数据太大而不能同时在RAM中处理时,哪种梯度技术更有优势

A、全批量梯度下降

B、随机梯度下降

答案:B

47.SVM的基本思想是间隔最大化来得到最优分离()

A、超平面

B、分离间隔

C、分离曲线

D、分离平面

答案:A

解析:SVM的基本思想是间隔最大化来得到最优分离超平面

48.“文档”是待处理的数据对象,它由一组词组成,这些词在文档中不计顺序

的额,例如一篇论文、一个网页都可以看做一个文档;这样的表示方式称为(—

,)?

A、语句

B、词袋

C、词海

D、词塘

答案:B

解析:见算法解析

49.DNN不是适合处理图像问题是因为“维数灾难”,那么“维数灾难”会带来

什么问题呢:

A、网络结构过于复杂

B、DNN根本不能处理图像问题

C、内存、计算量巨大、训练困难

D、神经元数量下降,所以精度下降

答案:C

解析:“维数灾难”会带来内存、计算量巨大、训练困难等问题。

50.在以下模型中,训炼集不需要标注信息的是()

A、k-means

B、线性回归

C、神经网络

D、决策树

答案:A

解析:k-means是一种无监督聚类方法。

51.图计算中图数据往往是。和不规则的,在利用分布式框架进行图计算时,

首先需要对图进行划分,将负载分配到各个节点上

A、结构化

B、非结构化

C、对称化

D、规则化

答案:B

解析:图计算中图数据往往是非结构化和不规则的,在利用分布式框架进行图计

算时,首先需要对图进行划分,将负载分配到各个节点上

52.下面哪句话正确描述了马尔科夫链中定义的马尔可夫性

A、t+1时刻状态取决于t时刻状态

B、t-1时刻状态取决于t+1时刻状态

C、t+2时刻状态取决于t时刻状态

D、t+1时刻状态和t时刻状态相互独立

答案:A

53.在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,

每个主分量的权数为()。

A、每个主分量的方差

B、每个主分量的标准差

C、每个主分量的方差贡献率

D、每个主分量的贡献率

答案:C

解析:在主成分分析中,将几个主分量经过线性组合构造为一个综合评价函数时,

每个主分量的权数为每个主分量的方差贡献率。

54.长短期记忆LSTM的核心贡献是引入了()的巧妙构思,该构思中的权重视上下

文而定,而不是固定的。

A、自增加

B\自循环

C、自递归

D、自减少

答案:B

解析:长短期记忆LSTM的核心贡献是引入了自循环的巧妙构思,该构思中的权重

视上下文而定,而不是固定的。

55.下面哪项操作能实现跟神经网络中Dropout的类似效果?

A、Boosting

B、Bagging

C、Stacking

D、Mapping

答案:B

56.在处理序列数据时,较容易出现梯度消失现象的深度学习模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuraINetwork)是一类用于处理序列数据的神经网络。RN

N存在一些问题梯度较容易出现衰减或爆炸(BPTT)-梯度爆炸

57.梯度爆炸一般出现在深层网络和权值初始化值()的情况下

A、太小

B、太大

C、分布不均匀

D、太接近零

答案:B

解析:梯度爆炸一般出现在深层网络和权值初始化值太大的情况下

58.衡量模型预测值和真实值差距的评价函数被称为()

A、损失函数

B、无参数函数

C、激活函数

D、矩阵拼接函数

答案:A

解析:衡量模型预测值和真实值差距的评价函数被称为损失函数

59.根据操作的反馈总结更好的策略,这个过程抽象出来,就是()

A、强化训练

B、加强训练

C、强化学习

D、加强学习

答案:C

解析:见算法解析

60.对于线性可分的数据,支持向量机的解决方式是()

A、软间隔

B、硬间隔

C、核函数

D、以上选项均不正确

答案:B

解析:对于线性可分的数据,支持向量机的解决方式是硬间隔

61.对完成特定任务的卷积神经网络训练采用的是监督学习方法。在这个过程中,

通过误差后向传播来优化调整网络参数,请问下面哪个参数不是通过误差后向传

播来优化的

A、卷积滤波矩阵中的参数

B、全连接层的链接权重

C、激活函数中的参数

D、模型的隐藏层数目

答案:D

62.代码arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype

=np.int64);print((arr1*arr2)[1][2])的输出结果是()?注:(已导入

numpy库)importnumpyasnp

A、6

B、8

C、10

D、12

答案:D

解析:见算法解析

63.关于GoogLeNet描述正确的有:

A、GoogLeNet仅仅是在宽度上进行了探索,所以它是一个很浅的网络

B、GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路

C、GoogLeNet使用了Inception结构,Inception结构只有V1这一个版本

D.GoogLeNet结合多种网络设计结构所以是到目前为止分类效果最好的网络结

答案:B

解析:GoogLeNet在宽度上进行了探索,为后人设计更加复杂的网络打开了思路

64.代码arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])的

输出是()?

A、5

B、25

C、6

D、26

答案:B

解析:见算法解析

65.机器学习算法的一般流程是()o

Ax1)收集数据,2)准备数据,3)分析数据,4)训练算法,5)测试算法,6)

使用算法

B、1)收集数据,2)分析数据,3)准备数据,4)训练算法,5)测试算法,6)

使用算法

C、1)收集数据,2)分析数据,3)准备数据,4:'测试算法,5)训练算法,6)

使用算法

D、1)收集数据,2)分析数据,3)测试算法,4)训练算法,5)准备数据,6)

使用算法

答案:A

解析:机器学习算法的一般流程⑴收集数据:可以使用任何方法。⑵准备数据:

距离计算所需要的数值,最好是结构化的数据格式。(3)分析数据:可以使用任

何方法。(4)训练算法:此步骤不适用于k-近邻算法。(5)测试算法:计算错误

率。(6)使用算法:首先需要输入样本数据和结构化的输出结果,然后运行k-近

邻算法判定输入数据分别属于哪个分类,最后应用对计算出的分类执行后续的处

理。

66.下列关于随机变量的分布函数,分布律,密度函数的理解描述不正确的是?

A、离散型随机变量没有分布函数

B、密度函数只能描述连续型随机变量的取值规律。

C、分布函数描述随机变量的取值规律

D、分布律只能描述离散型随机变量的取值规律

答案:A

67.关于主成分分析PCA说法不正确的是

A、我们必须在使用PCA前规范化数据

B、我们应该选择使得模型有最大variance的主成分

C、我们应该选择使得模型有最小variance的主成分

D、我们可以使用PCA在低纬度上做数据可视化

答案:C

68.Word2Vec提出了哪两个算法训练词向量?

A、COBWSoftmax

B、SoftmaxVCBOW

C、CBOWxSkip-gramD

D、Skip-gramCOBWC

答案:C

解析:Word2Vec提出了两个算法训练词向量

69.从一个初始策略出发,不断迭代进行策略评估和改进,直到策略收敛、不再

改变为止,这样的作法称为()

A、策略迭代

B、值迭代

C、策略改进

D、最优值函数

答案:A

解析:见算法解析

70.最小二乘法就是试图找到一条直线,使所有样本到直线上的()之和最小。

A、曼哈顿距离

B、欧氏距离

C、马氏距离

D、切比雪夫距离

答案:B

71.ILP系统通常采用()的规则生成策略

A、自底而上

B、自顶而下

C、自大而小

D、自小而大

答案:A

解析:见算法解析

72.强化学习是()领域的一类学习问题

A、机器学习

B、自然语言处理

C、nip

D、cv

答案:A

解析:见算法解析

73.下列哪一项在神经网络中引入了非线性?

A、随机梯度下降

B、修正线性单元(ReLU)

C、卷积函数

D、以上都不正确

答案:B

解析:修正线性单元是非线性的激活函数

74.激活函数对于神经网络模型学习、理解非常复杂的问题有着重要的作用,以

下关于激活函数说法正确的是

A、激活函数都是线性函数

B、激活函数都是非线性函数

C、激活函数部分是非线性函数,部分是线性函数

D、激活函数大多数是非线性函数,少数是线性函数

答案:B

75.神经网络中Dropout的作用。

A、防止过拟合

B、减小误差

C、增加网络复杂度

答案:A

解析:dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一

定的概率将其暂时从网络中丢弃。

76.在下列哪些应用中,我们可以使用深度学习来解决问题?

A、蛋白质结构预测

B、化学反应的预测

C、外来粒子的检测

D、所有这些

答案:D

77.关于语言建模任务,以下描述不正确的是:

A、语言建模任务指的是给定前一个单词去预测文本中的下一个单词。

B、可能是比较简单的语言处理任务,具体的实际应用场景包括:智能键盘、电

子邮件回复建议、拼写自动更正等。

C、比较经典的方法基于n-grams。

D、不可使用平滑处理不可见的n-grams。

答案:D

78.在神经网络学习中,每个神经元会完成若干功能,下面哪个功能不是神经元

所能够完成的功能

A、对前序相邻神经元所传递信息进行加权累加

B、对加权累加信息进行非线性变化(通过激活函数)

C、向前序相邻神经元反馈加权累加信息

D、将加权累加信息向后续相邻神经元传递

答案:C

79.长短期记忆LSTM具有与循环神经网络相似的控制流,两者的区别在于LSTM

中增加了()导致单元内的处理过程不同。

A、输入门

B、记忆门

C、忘记门

D、输出门

答案:C

解析:长短期记忆LSTM具有与循环神经网络相似的控制流,两者的区别在于LS

TM中增加了忘记门导致单元内的处理过程不同。

80.回归分析中定义的()

A、解释变量和被解释变量都是随机变量

B、解释变量为非随机变量,被解释变量为随机变量

C、解释变量和被解释变量都为非随机变量

D、解释变量为随机变量,被解释变量为非随机变量

答案:B

81.PCA的步骤不包括()

A、构建协方差矩阵

B、矩阵分解得到特征值和特征向量

C、特征值排序

D、特征值归一化

答案:D

82.优化器是训练神经网络的重要组成部分,使用优化器的目的不包含以下哪项:

A、加快算法收敛速度

B、减少手工参数的设置难度

C、避过过拟合问题

D、避过局部极值

答案:C

83.卷积核与特征图的通道数的关系是:

A、卷积核数量越多特征图通道数越少

B、卷积核size越大特征图通道数越多

C、卷积核数量越多特征图通道数越多

D、二者没有关系

答案:C

解析:卷积核数量越多特征图通道数越多

84.当采用K-距离的方法选择DBSCAN的Eps和MmPts参数时,如果设置的K的

值太大,则小簇(尺寸小于K的簇)可能会被标记为

A、噪声

B、核心簇

C、边界簇

D、以上都不对

答案:A

85.一条规则形如:,其中“一”右边的部分称为:)

A、规则长度

B、规则头

C、布尔表达式

D、规则体

答案:D

解析:见算法解析

86..混沌度(Perplexity)是一种常见的应用在使用深度学习处理NLP问题过程

中的评估技术,关于混沌度,哪种说法是正确的?

A、混沌度没什么影响

B、混沌度越低越好

C、混沌度越高越好

D、混沌度对于结果的影响不一定

答案:B

87.循环神经网络优于全连接网络的一个原因是循环神经网络实现了权值共享,

那么权值共享的好处有:①.模型参数变少②.运算速度变快③.占用内存少④.

所有权值都共享同一个值

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

解析:循环神经网络优于全连接网络的一个原因是循环神经网络实现了权值共享,

那么权值共享的好处有:①.模型参数变少②.运算速度变快③.占用内存少

88.以下属于生成式模型的是:()

A、SVM

B、随机森林

C、隐马尔可夫模型HMM

D、逻辑回归

答案:C

89.在K-mean或Knn中,是采用哪种距离计算方法?

A、曼哈顿距离

B、切比雪夫距离

C、欧式距离

D、闵氏距离

答案:C

解析:欧氏距离可用于任何空间的距离计算问题。因为,数据点可以存在于任何

空间,欧氏距离是更可行的选择。

90.下列哪些不是“子集搜索”中的搜索方式(一)

A、单向搜索

B、双向搜索

C、前向搜索

D、后向搜索

答案:A

解析:见算法解析

91.全局梯度下降算法,随机梯度下降算法和批量梯度下降算法均属于梯度下降

算法,以下关于其有优缺点说法错误的是:

A、全局梯度算法可以找到损失函数的最小值

B、批量梯度算法可以解决局部最小值问题

C、随机梯度算法可以找到损失函数的最小值

D、全局梯度算法收敛过程比较耗时

答案:C

92.池化层一般接在哪种网络层之后

A、输入层

B、输出层

C、卷积层

D、全连接层

答案:C

93.以下哪一个不属于分类算法

A、XGBoost

B、RandomForest

C、SVM

D、Fp-Growth

答案:D

94.影响基本K-均值算法的主要因素不包括下列哪一个选项?

A、样本输入顺序

B、模式相似性测度

C、聚类准则

D、初始类中心的选取

答案:C

95.过拟合会出现高()问题

A、标准差

B、方差

C、偏差

D、平方差

答案:B

解析:过拟合会出现高方差问题

96.在强化学习的过程中,学习率a越大,表示采用新的尝试得到的结果比例越().

保持旧的结果的比例越()。

A、大

B、小

C、大

D、大

E、小

答案:A

97.CascadeRCNN中使用了()个BBOXHead完成目标检测

A、1

B、2

C、3

D、4

答案:C

解析:见算法解析

98.()的数目通常也被称作卷积核的个数

A、通道

B、输入通道

C、输入维度

D、输出通道

答案:D

解析:输出通道的数目通常也被称作卷积核的个数

99.在scikit-learn中,DBSCAN算法对于。参数值的选择非常敏感

A、p

B、eps

C、n_jobs

D、aIgorithru

答案:B

100.下列哪个模型属于无监督学习。

A、KNN分类

B、逻辑回归

C、DBSCAN

D、决策树

答案:C

解析:DBSCAN属于无监督学习

1O1.ResNet从角度改进了之前的图像分类网络?

A、增加网络宽度

B、轻量化网络模型

C、改善网络退化现象

D、增加网络深度

答案:C

解析:ResNet从改善网络退化现象角度改进了之前的图像分类网络

102.独热编码的英文是:

Axonehot

B、twohot

C、onecoId

D、twocoId

答案:A

解析:独热编码的英文是onehot

103.剪枝分为前剪枝和后剪枝,前剪枝本质就是早停止,后剪枝通常是通过衡量

剪枝后()变化来决定是否剪枝。

A、信息增益

B、损失函数

C、准确率

D、召回率

答案:B

解析:剪枝分为前剪枝和后剪枝,前剪枝本质就是早停止,后剪枝通常是通过衡

量剪枝后损失函数变化来决定是否剪枝。

104.下列人工神经网络属于反馈网络的是()

A、HopfieId网

B、BP网络

C、多层感知器

D、LVQ网络

答案:A

解析:$BP网络、多层感知器、LVQ网络属于前馈网络

105.构建一个神经网络,将前一层的输出和它自身作为输入。下列哪一种架构有

反馈连接?

A、循环神经网络

B、卷积神经网络

C、限制玻尔兹曼机

D、都不是

答案:A

106.关于学习率的描述正确的是:

A、学习率和w、b一样是参数,是系统自己学习得到的

B、学习率越大系统运行速度越快

C、学习率越小系统一定精度越高

D、学习率的大小是根据不同场景程序员自己设定的,不宜太大或者太小

答案:D

解析:学习率的大小是根据不同场景程序员自己设定的,不宜太大或者太小

107.使用一组槽来描述事件的发生序列,这种知识表示法叫做()

A、语义网络法

B、过程表示法

C、剧本表示法

D、框架表示法

答案:C

108.下面算法中哪个不是回归算法

A、线性回归

B、逻辑回归

C、岭回归

D、随机森林

答案:B

109.下面关于SVM中核函数的说法正确的是?。

A、核函数将低维空间中的数据映射到高维空间

B、它是一个相似度函数

C、A、B都对

D、A、B都不对

答案:C

110.环境在接受到个体的行动之后,会反馈给个体环境目前的状态(state)以

及由于上一个行动而产生的()O

Axaction

B、reward

C、state

D、agent

答案:B

解析:见算法解析

111.关于boosting下列说法错误的是()

A、boosting方法的主要思想是迭代式学习。

B、训练基分类器时采用并行的方式。

C、测试时,根据各层分类器的结果的加权得到最终结果。

D、基分类器层层叠加,每一层在训练时,对前一层基分类器分错的样本给予更

高的权值。

答案:B

112.循环神经网络之所以有作用是因为:

A、序列中的元素是无关的

B、序列中的元素蕴含着顺序的规律

C、序列中的元素都是随机出现的

D、序列中的元素都来自同一个数据源

答案:B

解析:循环神经网络之所以有作用是因为序列中的元素蕴含着顺序的规律

113.ONE-HOT-ENCODING可用于什么特征处理

A、类别型特征

B、有序性特征

C、数值型特征

D、字符串型特征

答案:A

114.线性降维方法假设从高雄空间到低维空间的函数映射是()。

A、一元

B、线性

C、多元

D、非线性

答案:B

解析:基于线性变换来进行降维的方法称为线性降维法。非线性降维是基于核技

巧对线性降维方法进行“核化”

115.下列哪个算法可以用于特征选择()

A、朴素贝叶斯

B、感知器

C、支持向量机

D、决策树

答案:D

解析:见算法解析

116.输入图片大小为200X200,依次经过一层卷积(kernelsize5X5,padding

1,stride2),pooIing(kerneIsize3X3,paddingO,stridel),又一层卷积

(kernelsize3X3,padding1,stride1)之后,输出特征图大小为

A、95

B、96

C、97

D、98

答案:C

117.语义网络表达知识时,有向弧AKO链、ISA链是用来表达节点知识的

A、无悖性

B、可扩充性

C、继承性

D、连贯性

答案:C

解析:语义网络表达知识时,有向弧AKO链、ISA链是用来表达节点知识的继承

118.学习器的实际预测输出与样本的真实输出之间的差异称为()o

A、错误率

B、精度

C、误差

D、查准率

答案:C

解析:见算法解析

119.DSSM使用()个全连接层

A、两

B、一

C、三

D、四

答案:A

解析:DSSM使用两个全连接层

120.xgboost在代价函数里加入了(),用于控制模型的复杂度

A、正则项

B、非线性

C、激活函数

D、特征变换

答案:A

解析:xgboost在代价函数里加入了正则项,用于控制模型的复杂度

121.下列对LVW算法的说法错误的是()

A、算法中特征子集搜索采用了随机策略

B、每次特征子集评价都需要训练学习器,开销很大

C、算法设置了停止条件控制参数

D、算法可能求不出解

答案:D

解析:见算法解析

122.前馈型神经网络的中各个层之间是()的,反馈型神经网络中各个层之间是()

的。

A、有环

B、有环

C、有环

D、无环

E、无环

答案:C

123.根据边的性质不同,概率图模型可大致分为两类:第一类是使用有向无环图

表示变量间的依赖关系,称为第二类是使用无向图表示变量间的相关关

系,称为无向图模型或马尔可夫网(Markovnetwork)。

A、贝叶斯网

B、拉普拉斯网

C、帕斯卡网

D、塞缪尔网

答案:A

解析:见算法解析

124.CNN卷积网络中,filter尺寸的选择多为。

A、奇数

B、偶数

C、整数

D、分数

答案:A

解析:CNN卷积网络中,filter尺寸的选择多为奇数

125.传统GBDT以()作为基分类器

A、线性分类器

B、CART

C、gbIinear

D、svm

答案:B

解析:传统GBDT以CART作为基分类器

126.以下哪种问题主要采用无监督学习方法?

A、频繁项挖掘

B、股价预测

C、图像分类

D、文本情感分析

答案:A

解析:频繁项挖掘主要采用无监督学习方法

127.在感知机中(Perceptron)的任务顺序是什么?1随机初始化感知机的权重

2去到数据集的下一批(batch)3如果预测值和输出不一致,则调整权重4对一

个输入样本,计算输出值

A、1,2,3,4

B、4,3,2,1

C、3,1,2,4

Dx1,4,3,2

答案:D

128.K-Means算法无法聚以下哪种形状的样本

A、圆形分布

B、螺旋分布

C、带状分布

D、凸多边形分布

答案:B

129.假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logi

sties回归需要很长时间才能训练。如何提高训练速度?()

A、降低学习率,减少迭代次数

B、降低学习率,增加迭代次数

C、提高学习率,增加迭代次数

D、增加学习率,减少迭代次数

答案:D

130.在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果

知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的

权重和偏移呢?

A、搜索每个可能的权重和偏差组合,直到得到最佳值

B、赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重

C、随机赋值,听天由命

D、以上都不正确的

答案:B

131.NMS算法中文名为()

A、非极大值抑制

B、非极小值抑制

C、极大值抑制

D、极小值抑制

答案:A

解析:见算法解析

132.基于统计的异常点检测算法不包括

A、基于正态分布的异常点检测算法

B、基于距离的异常点检测算法

C、35原则

D、简单统计分析

答案:A

133.哪项技术在BERT中没有使用()

A、自注意力

B、NormaIization

C、全连接

D、卷积

答案:D

解析:卷积在BERT中没有使用

134.以下关于Bagging(装袋法)的说法不正确的是

A、能提升机器学习算法的稳定性和准确性,但难以避免。verfitting

B、Bagging(装袋法)是一个统计重采样的技术,它的基础是Bootstrap

C、主要通过有放回抽样)来生成多个版本的预测分类器,然后把这些分类器进行

组合

D、进行重复的随机采洋所获得的样本可以得到没有或者含有较少的噪声数据

答案:A

135.下面关于最小二乘法(OrdinaryLeastSquares)的说法,正确的是:

A、最小二乘法是通过最小化预测值y和真实的y在训练数据上的误差来寻找最

优解的方法

B、当自变量X的特征很多的时候,使用最小二乘法可以求得最优解

C、最小二乘法是通过求导来找出最优解,是一种迭代的方法

D、使用最小二乘法求最优解比梯度下降方法好

答案:A

136.关于神经网络的说法中,正确的是()

A、增加网络层数,总能减小训练集错误率

B、减小网络层数,总能减小测试集错误率

C、增加网络层数,可能增加测试集错误率

答案:C

解析:增加网络层数,可能增加测试集错误率

137.在使用scikit-learn里面的交叉验证对回归模型进行评估时,根据平均绝

对误差给模型打分,则下面代码的划线处应填上。,scores的分数越。,

说明回归模型的性能越好。代码:scores=cross_val_score(Im,X,y,cv=5,scor

e')

Axneg_mean_absoIute_error,高

B、mean_absoIute_error,高

C、mean_absoIute_error,低

D、neg_mear)_absoIute_error,低

答案:A

138.下列哪个是CNN网络的超参数。

A、权重

B、偏置

C、激活函数

D、学习率

答案:D

解析:学习率是CNN网络的超参数。

139.半监督学习四大范型不含有()

A、基于分歧方法

B、半监督SVM

C、生成式方法

D、半监督聚类

答案:D

解析:见算法解析

140.多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。下列

哪一种方法可能是解决此问题的最好选择?

A、随机森林分类器

B、卷积神经网络

C、梯度爆炸

D、上述所有方法

答案:B

141.规则学习中ILP的全称是(一)

A、归纳逻辑程序设计

B、内部逻辑程序设计

C、信息泄露防护

D、引入层次程序设计

答案:A

解析:见算法解析

142.为什么不能用多层全连接网络解决命名实体识别问题:

A、序列数据的输入和输出通常是不固定的,有的序列长,有的序列短

B、全连接网络的根本不能处理任何序列数据

C、全连接网络的层次太深导致梯度消失,所以不能处理序列问题

D、命名实体识别问题是一个无法解决的问题,全连接网络也不能解决这个问题

答案:A

解析:序列数据的输入和输出通常是不固定的,有的序列长,有的序列短,因此

不能用多层全连接网络解决命名实体识别问题

143.R0IPooling在那个模型中被第一次提出。

A、fast-rcnn

B、faster-rcnn

Cxmask-rcnn

D、rcnn

答案:A

解析:见算法解析

144.以才哪种组合在CNN不常见

A、conv+reIu

B、conv+reIu+pooI

C、conv+reIu+pooI+fc

D、conv+k-means

答案:D

解析:conv+k-means组合在CNN不常见

145.以下说法正确的是()

A、神经网络可以用于多分类问题

B、决策树只能用于二分类问题

C、监督学习与无监督学习的主要区别是,监督学习的训练样本无标签

D、分类任务的评价指标精确率和准确率是同一个概念

答案:A

146.多义现象可以被定义为在文本对象中一个单词或短语的多种含义共存。下列

哪一种方法可能是解决此问题的最好选择?

A、随机森林分类器

B、卷积神经网络

C、梯度爆炸

D、上述所有方法

答案:B

147.反向传播算法一开始计算什么内容的梯度,之后将其反向传播?

A、预测结果与样本标签之间的误差

B、各个输入样本的平方差之和

C、各个网络权重的平方差之和

D、都不对

答案:A

148.VGG模型于2014年被提出,是最流行的()模型之一,在ImageNet比赛中,

达到了Top5错误率7.3%o

A、CNN

B、KNN

C、RNN

D、DNN

答案:A

解析:VGG模型于2014年被提出,是最流行的CNN模型之一,在ImageNet比赛

中,达到了丁(^5错误率7.3%。

149.机器学习训练时,Mini-Batch的大小优选为2的幕,如256或512。它背后

的原因是什么?。

A、Mini-Batch为偶数的时候,梯度下降算法训练的更快

B、Mini-Batch设为2的鬲,是为了符合CPU、GPU的内存要求,利于并行化处

C、不使用偶数时,损失函数是不稳定的

D、以上说法都不对

答案:B

150.线性判别分析设法将样例投影到()直线上,使得同类样例的投影点尽可

能(_)o

A、一条;接近

B、两条;接近

C、一条;远离

D、两条;原理

答案:A

解析:见算法解析

151.CART树在分类过程中使用的()

A、条件熠

B、基尼指数Gini

C、交叉病

D、联合爆

答案:B

解析:CART树在分类过程中使用的基尼指数Gim

152.如果我们用了一个过大的学习速率会发生什么?

A、神经网络会收敛

B、不好说

C、都不对

D、神经网络不会收敛

答案:D

153.Skip-gram在实际操作中,使用一个。(一般情况下,长度是奇数),从

左到右开始扫描当前句子。

A、过滤器

B、滑动窗口

C、筛选器

D、扫描器

答案:B

解析:见算法解析

154.()函数一般用在多分类问题中,它是对逻辑斯蒂回归logistic的一种推

广,也被称为多项式逻辑斯蒂回归模型。

A、ReIu

B、softmax

CxTanh

D、sigmoid

答案:B

解析:softmax函数一般用在多分类问题中,它是对逻辑斯蒂回归logistic的

一种推广,也被称为多项式逻辑斯蒂回归模型。

155.下列关于冗余特征的说法错误的是()

A、冗余特征是可以通过其他特征推演出来的特征

B、冗余特征是无用的特征

C、冗余特征有时候可以降低学习任务的难度

D、去除冗余特征可以减轻学习过程的负担

答案:B

解析:见算法解析

156.在深度学习网络中,反向传播算法用于寻求最优参数,在反向传播算法中使

用的什么法则进行逐层求导的?

A、链式法则

B、累加法则

C、对等法则

D、归一法则

答案:A

157.机器学习中,模型需要输入什么来训练自身,预测未知?

A、人工程序

B、神经网络

C、训练算法

D、历史数据

答案:D

158.当不知道数据所处类别时,可以使用哪种技术促使同类数据与其他类数据分

离?()

A、分类

B、聚类

C、关联分析

D、隐马尔可夫链

答案:B

159.神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对谕入

进行处理后给出一个输出。请问下列关于神经元的描述中,哪一项是正确的?

A、每个神经元可以有一个输入和一个输出

B、每个神经元可以有多个愉入和一个榆出

C、每个神经元可以有多个输入和多个输出

D、上述都正确

答案:D

解析:每个神经元可以有一个或多个输入,和一个或多个输出。如图所示的神经

网络结构中,隐藏层的每一个神经元都是多输入多输出。若将输出层改为一个神

经元,则隐藏层每个神经元都是一个输出;若将输入层改为一个神经元,则隐藏

层每个神经元都是一个输入。

160.根据numpy数组中ndim属性的含义确定程序的输出()。array=np.array

([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,ndim)

A、(3,4)

B、2

C、(4,3)

D、4

答案:B

解析:见算法解析

161.下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是。。

A、LSTM是简化版的RNN

B、LSTM是双向的RNN

C、LSTM是多层的RNN

DxLSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

答案:D

解析:LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题

162.决策树的生成是一个()过程。

A、聚类

B、回归

C、递归

D、KNN

答案:C

解析:见算法解析

163.ROIPooIing存在几次取整过程?

A、1

B、2

C、3

D、nan

答案:B

解析:见算法解析

164.下列哪项属于集成学习()

A、决策树模型

B、kNN分类

C、Adaboost

D、k-means

答案:C

解析:Adaboost属于集成学习

165.在CNN网络模型中,不常见的PooIing层操作是

Axmax

B、min

C、mean

D、sum

答案:D

解析:在CNN网络模型中,不常见的Pooling层操作是sum

166.一阶规则的基本成分是()

A、原子命题

B、谓词

C、量词

D、原子公式

答案:D

解析:见算法解析

167.线性回归在3维以上的维度中拟合面是?

A\曲面

B、平面

C、超平面

D、超曲面

答案:C

168.关于MNIST,下列说法错误的是0o

A、是著名的手写体数字识别数据集

B、有训练集和测试集两部分

C、训练集类似人学习中使用的各种考试试卷

D、测试集大约包含10000个样本和标签

答案:C

169.在卷积操作过程中计算featuremap的尺寸:设图像大小为300*300,卷积

核大小为3*3,卷积窗口移动的步长为1,则featuremaps的大小是()个元素?

A、78400

B、88804

C、91204

D、99856

答案:B

解析:见算法解析

170.自然语言中的词语需要转化为计算机可以记录处理的数据结构,通常会把自

然语言中的词语转化为以下哪种数据结构:

A、标量

B、向量

C、结构体

D、有向图

答案:B

解析:自然语言中的词语需要转化为计算机可以记录处理的数据结构,通常会把

自然语言中的词语转化为向量。

171.协同过滤和基于内容的模型是两种流行的推荐引擎,在建立这样的算法中N

LP扮演什么角色?

A、从文本中提取特征

B、测量特征相似度

C、为学习模型的向量空间编程特征

D、以上都是

答案:D

172.深度神经网络的运行过程是由三个算法依次运行组成,下面不属于这三个算

法中的是

Ax归一化

B、正向传播

C、反向传播

D、梯度下降

答案:A

解析:深度神经网络的运行过程是由三个算法依次运行组成,下面不属于这三个

算法中的是归一化

173.从全称判断推导出特称判断或单称判断的过程,即由一般性知识推出适合于

某一具体情况的结论的推理是

A、默认推理

B、归结推理

C、演绎推理

D、单调推理

答案:C

解析:从全称判断推导出特称判断或单称判断的过程,即由一般性知识推出适合

于某一具体情况的结论的推理是演绎推理

174.模型有效的基本条件是能够()已知的样本

A、结合

B、拟合

C、联合

D、聚集

答案:B

解析:模型有效的基本条件是能够拟合已知的样本

175.关于Boosting,Bagging和随机森林,以下说法错误的是()

A、从偏差一方差分解的角度看,Boosting主要关注降低偏差

B、从偏差一方差分解的角度看,Bagging主要关注降低方差

C、随机森林简单、容易实现、计算开销小

D、Boosting不能基于泛化性能相当弱的学习器构建出很强的集成

答案:D

解析:见算法解析

176.下列哪一个不是无约束算法。

A、梯度下降法

B、拟牛顿法

C、启发式优化方法

D、EM算法

答案:D

解析:EM算法

177.为什么计算机视觉任务优先考虑使用卷积神经网络:

A、全连接网络完全不能做计算机视觉任务

B、全连接网络理论在处理视觉任务时计算量很小

C、全连接网络理论在处理视觉任务时会出现维数灾难现象,而卷积神经网络可

以缓解这一现象

D、卷积神经网络只能做计算机视觉任务

答案:C

解析:全连接网络理论在处理视觉任务时会出现维数灾难现象,而卷积神经网络

可以缓解这一现象

178.哪种聚类方法采用概率模型来表达聚类()

AxK-means

B、LVQ

C、DBSCAN

D、高斯混合聚类

答案:D

179.LVW属于哪种特征选择方法(一)

A、包裹式

B、启发式

C、嵌入式

D、过滤式

答案:A

解析:见算法解析

180.批规范化(BatchNormaIization)的好处都有啥?

A、让每一层的输入的范围都大致固定

B、它将权重的归一化平均值和标准差

C、它是一种非常有效的反向传播(BP)方法

D、这些均不是

答案:A

181.随机森林是一种集成学习算法,是。算法的具体实现。

A、Boosting

B、Bagging

CxStacking

D、Dropping

答案:B

解析:随机森林是一种集成学习算法,是Bagging算法的具体实现。

182.ROIAlign在哪个模型被采用()

A、fastRCNN

B、fasterRCNN

C\maskRCNN

D、Y0L0v3

答案:C

解析:ROIAlign在maskRCNN被采用

183.问答系统中的NLP技术,以下描述不正确的是:

A、问答(QA)系统的想法是直接从文档、对话、在线搜索和其他地方提取信息,

以满足用户的信息需求。QA系统不是让用户阅读整个文档,而是更喜欢简短而

简洁的答案。

B、QA系统相对独立很难与其他NLP系统结合使月,现有QA系统只能处理对文

本文档的搜索,尚且无法从图片集合中提取信息。

C、大多数NLP问题都可以被视为一个问题回答问题。范例很简单:我们发出查

询指令,机器提供响应。通过阅读文档或一组指令,智能系统应该能够回答各种

各样的问题。

D、强大的深度学习架陶(称为动态内存网络(DMN))已针对QA问题进行了专

门开发和优化。给定输入序列(知识)和问题的训练集,它可以形成情节记忆,

并使用它们来产生相关答案。

答案:B

解析:删除

184.L1正则先验服从什么分布?

A、拉普拉斯分布

B、高斯分布

C、伽玛分布

D、柏拉图分布

答案:A

解析:L1正则化可通过假设权重w的先验分布为拉普拉斯分布,由最大后验概

率估计导出。L2正则化可通过假设权重w的先验分布为高斯分布,由最大后验

概率估计导出。

185.回归算法预测的标签是?

A、自变型

B、离散型

c、应变型

D、连续型

答案:D

186.图像数字化分为两个步骤:一为取样,二为。。

A、数字化

B、量化

C、去噪声

D、清洗

答案:B

解析:图像数字化分为两个步骤:一为取样,二为量化。

187.()反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的稳

定性。反应预测的波动情况。

A、标准差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次输出结果与模型输出期望之间的误差,即模型的

稳定性。反应预测的波动情况。

188.类别不平衡指分类任务中不同类别的训练样例数目()的情况。

A、没有差别

B、差别很大

C、差别很小

D、以上都不正确

答案:B

解析:见算法解析

189.以下哪一个关于卷积神经网络的说法是错误的

A、AIexNet是一个八层的卷积神经网络&

B、&卷积神经网络中的建模学习,学习对象是每一层神经元的值&

C、&目标检测网络SSD的网络结构中包含卷积层&

D、&典型的卷积神经网络,由卷积层、池化层、激活层、全连接层等组成

答案:B

解析:见算法解析

190.一个特征的权重越高,说明该特征比其他特征。。

A、更重要

B、不重要

C、有影响

D、无法判断

答案:A

解析:一个特征的权重越高,说明该特征比其他特征更重要。

191.下列哪个神经网络结构会发生权重共享

A、卷积神经网络&

B、&循环神经网络&

C、&全连接神经网络&

D、&卷积和循环神经网络

答案:D

解析:见算法解析

192.下列哪个函数不可以做非线性激活函数?。

A、y=tanh(x)

B、y=sin(x)

C、y=max(x,0)

D、y=2x

答案:D

193.Inception模块可以并行执行多个具有不同尺度的卷积运算或池化操作,下

列网络运用Inception的是()

A、VGG

B、GoogLeNet

C、fast-RCNN

D、faster-RCNN

答案:B

解析:Inception模块可以并行执行多个具有不同尺度的卷积运算或池化操作,

下列网络运用Inception的是GoogLeNet

194.早期图像识别技术中存在的主要问题是()。

A、全局特征丢掉了图像细节

B、提取不到主要特征

C、存储效率低下

D、太多的错误匹配

答案:A

解析:早期图像识别技术中存在的主要问题是全局特征丢掉了图像细节。

195.语言模型的作用是:

A、查看一句话成为一勺“人话”的概率

B、查看一句话是英语的概率

C、查看一句话是汉语的概率

D、查看一句话是否是完整的

答案:A

解析:语言模型的作用是查看一句话成为一句“人话”的概率

196.DSSM模型的结构是什么?

A、线性

B、双塔

C、三塔

D、非线性

答案:B

解析:DSSM模型的结构是双塔

197.从给定的特征集合中选择出相关特征子集的过程,称为(一)

A、特征抽取

B、特征选择

C、特征降维

D、特征简化

答案:B

解析:见算法解析

198.()控制当前时刻的输入信息需要向状态向量中注入哪些信息。

A、输出门

B、输入门

C、遗忘门

D、以上都不对

答案:B

解析:输入门控制当前时刻的输入信息需要向状态向量中注入哪些信息。

199.哪个不是常用的聚类算法()o

A、K-Means

B、DBSCAN

C、GMMs

D、Softmax

答案:D

解析:Softmax不是常用的聚类算法。

200.在Skip-gram实际实现的过程中,通常会让模型接收。个tensor输入。

A、1

B、2

C、3

D、4

答案:C

解析:见算法解析

多选题

1.参数学习过程中若采用梯度下降法,梯度为负:()W,梯度为正:()W

A、增加

B、取反

C、减小

D、取整

答案:AC

解析:见算法解析

2.下列哪些属于集成学习()

A、Adaboost

B、决策树

C、随机森林

D、XGBoost

答案:ACD

解析:见算法解析

3.LibraRCNN从()几个角度论证并增强了两阶段检测模型

A、FPN特征

B、RPN结构

C、正负样本采样

D、Loss

答案:ACD

解析:见算法解析

4.下列哪些是数据预处理的常用技术()

A、数字属性的缺失值补0

B、LabeIEncoder

C、one-hotencoder

D、CountVectorize

答案:ABCD

解析:见算法解析

5.下面关于随机森林和集成学习的说法,正确的是:

A、随机森林只能用于解决分类问题

B、随机森林由随机数量的决策树组成

C、集成学习通过构建多个模型,并将各个模型的结果使用求平均数的方法集成

起来,作为最终的预测结果,提高分类问题的准确率

D、随机森林的弱分类器(基分类器)的特征选择是随机的

答案:CD

6.关于感知器,下列说法正确的是。

A、感知器由2层神经元组成,是一个单层的前馈神经网络

B、输入结点把接收到的值传送给榆出链,不作任何转换

C、输出结点计算输入的加权和,加上偏置项,根据结果的符号产生输出

D、训练阶段,权值参数不断调整,直至模型输出和训练样例的实际输出一致

答案:ABD

解析:见算法解析

7.人工神经网络比感知器模型更复杂,这些额外的复杂性来源于()

A、输入层和输出层之间仅包含一个中间层

B、输入层和输出层之间可能包含多个中间层

C、激活函数允许隐藏结点和输出结点的输出值与输入参数呈现线性关系

D、激活函数允许隐藏结点和输出结点的输出值与输入参数呈现非线性关系

答案:BD

解析:见算法解析

8.经典逻辑推理有哪些?

A、自然演绎推理

B、归结演绎推理

C、不确定与非单调推理

D、与、或形演绎推理

答案:ABD

9.下面的Python开发包中,属于深度学习框架的有()

A、fIask

B、TensorfIow

C、Keras

D、Mxnet

答案:BCD

解析:见算法解析

10.关于k折交叉验证,下列说法正确的是?

A、k值并不是越大越好,k值过大,会降低运算速度

B、选择更大的k值,会让偏差更小,因为k值越大,训练集越接近整个训练样

C、选择合适的k值,能减小验方差

D、k折交叉验证能够有效提高模型的学习能力

答案:ABCD

11.产生式系统的组成部分包括()

A、状态空间

B、综合数据库

C、规则集

D、控制策略

答案:BCD

12.汉语的演化史表明,量词的真实功用可能与()没有任何关系

A、隐喻机制

B、个体化机制

C、单复数区分

D、补足音素

答案:BC

解析:见算法解析

13.哪些属于生成式对抗网络模块

A、生成模型

B、对抗模型

C、判别模型

D、回归模型

答案:AC

解析:生成式对抗网络模块由生成模型和判别模型组成

14.哪些项属于集成学习

A、Knn

B、Adaboost

C、随机森林

D、XGBoost

答案:BCD

解析:集

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论