人工智能深度学习技术练习(习题卷2)_第1页
人工智能深度学习技术练习(习题卷2)_第2页
人工智能深度学习技术练习(习题卷2)_第3页
人工智能深度学习技术练习(习题卷2)_第4页
人工智能深度学习技术练习(习题卷2)_第5页
已阅读5页,还剩53页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

试卷科目:人工智能深度学习技术练习人工智能深度学习技术练习(习题卷2)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度学习技术练习第1部分:单项选择题,共132题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.在h_fc1=tf.nn.relu(tf.matmul(h_flat,W_fc1)+b_fc1)操作,b_fc1是A)对图像池化B)偏置项C)激活函数D)平均答案:B解析:[单选题]2.(euclideanmetric欧几里得度量)是一个通常采用的距离定义,在二维和三维空间中的欧氏距离就是两点之间的实际()。A)误差B)线段C)距离D)坐标答案:C解析:[单选题]3.下面哪项操作能实现跟神经网络中Dropout的类似效果?A)BoostingB)BaggingC)StackingD)Mapping答案:B解析:[单选题]4.()和tf.multiply用法一致,功能是实现x和y的element-wise方式的相乘,也就是所有点对应相乘。A)np.multiplyB)tf.Session()C)tf.mul()D)tf.Graph()答案:A解析:[单选题]5.全连接网络对一个样本做一次forward,RNN对一个样本做()次forwardA)1B)多C)2D)3答案:B解析:[单选题]6.关于降维算法,下列说法错误的是()。A)PCA是有监督学习算法B)ICA能够使数据中的的分量最大化独立,而PCA不能C)LDA是有监督学习算法D)LDA降维后,同类别的数据分布更为密集答案:A解析:难易程度:中题型:[单选题]7.下列哪一项在神经网络中引入了非线性?()A)随机梯度下降B)修正线性单元(ReLU)C)卷积函数D)以上都不正确答案:B解析:[单选题]8.下列哪一项在神经网络中引入了非线性?A)随机梯度下降B)激活函数ReLUC)卷积函数D)以上都不正确答案:B解析:[单选题]9.特征脸方法利用()进行降维和提取特征A)次分量分析B)主分量分析C)主次分量分析D)矢量分析答案:B解析:[单选题]10.关于结构化程序设计方法原则的描述,以下选项中错误的是()。A)自顶向下B)多态继承C)逐步求精D)模块化答案:B解析:难易程度:易题型:[单选题]11.如果使用的学习率太大,会导致A)网络收敛的快B)网络收敛的慢C)网络无法收敛D)不确定答案:C解析:[单选题]12.双曲正切函数指的是那一个函数?A)Sigmoid函数B)tanh函数C)ReLUD)leakyReLU答案:B解析:[单选题]13.Sequential模型方法中的compile函数中的参数optimizer是指()A)目标函数B)定标量系数C)优化器D)模型评估标准答案:C解析:[单选题]14.声明1:可以通过将所有权重初始化为0来训练网络。声明2:可以通过将偏差初始化为0来很好地训练网络以上哪些陈述是真实的?A)1对2错B)1错2对C)1和2都对D)1和2都错答案:B解析:[单选题]15.卷积神经网络中每层卷积层(Convolutionallayer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是()A)增强图像B)简化图像C)特征提取D)图像处理答案:C解析:[单选题]16.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络?A)除了最一层外所有的层都冻结,重新训练最后一层B)据重新训练模型C)只对最后几层进行调参(finetune)D)一进行选数用答案:C解析:[单选题]17.异步数据读取是指()。A)数据读取与模型训练串行B)数据读取和模型训练并行C)数据读取和模型训练交互D)加快了数据读取速度答案:B解析:难易程度:易题型:[单选题]18.图像特征经过几个卷积后,特征信号:A)减弱B)不变C)增强D)都有可能答案:D解析:[单选题]19.深度学习元年是()年A)2016B)2006C)2008D)2022答案:B解析:[单选题]20.Tf定义一个标量变量X,其语句是A)X=tf.variable(2.0,shape=[1,2])B)X=tf.Variable(2.0,dtype=tf.float32)C)X=tf.variable(2.0,shape=[1,2])D)X=tf.constant(2.0,btype=tf.float32)答案:B解析:[单选题]21.按以下步骤绘图,会出现错误的是()。A)创建画布B)创建画布C)创建画布D)绘制图形答案:A解析:难易程度:中题型:[单选题]22.解决回归问题的神经网路一般有()个输出。A)1B)2C)根据具体生产环境确定D)以上都不对答案:A解析:[单选题]23.下面哪一项不能解决模型过拟合的问题?()A)调小模型复杂度,使其适合自己训练集的数量级(缩小宽度和减小深度)B)dataaugmentationC)regularizationD)添加多项式项答案:D解析:[单选题]24.keras中负责损失处理的库是A)layersB)lossC)optimisD)rnn答案:B解析:[单选题]25.能消除overfitting过拟合的方法是那一个?A)线性化B)非线性化C)归一化D)定义dropout答案:D解析:[单选题]26.一个数据集中有3万条数据,关于数据集分配哪一项说法正确:A)训练集数据可以分配1万条B)测试集数据可以分配1000条C)可以不设置训练集D)可以不设置验证集答案:D解析:[单选题]27.在构建一一个神经网络时,batchsize通常会选择2的次方,比如256和512。这是为什么.呢?()A)当内存使用最优时这可以方便神经网络并行化B)当用偶数是梯度下降优化效果最好C)这些原因都不对.D)当不用偶数时,损失值会很奇怪。答案:A解析:[单选题]28.以下的序列数据中,属于一对多(一个输入,多个输出)的关系是哪个?A)音乐生成B)情感分类C)机器翻译D)DNA序列分析答案:A解析:[单选题]29.请判断?在建立Session前,TensorFlow并未执行任何计算?这句话是否正确。A)错误B)正确C)我不知道D)可能正确答案:A解析:[单选题]30.Batch归一化的特点不包括A)使参数搜索问题变得容易B)使神经网络对超参数的选择更加稳定C)超参数的范围更加庞大D)仅作用于输入层答案:D解析:[单选题]31.RNN网络的特点是:A)有多少个时间步,就有多少个RNN单元B)不管有多少时间步,都是用一个RNN神经单元处理C)RNN内部使用relu激活D)RNN可以解决梯度消失问题答案:B解析:[单选题]32.绘制直方图的命令是()。A)plt.bar()B)plt.histC)plt.pieD)plt.scatter答案:A解析:难易程度:易题型:[单选题]33.神经网络中超参数的调试中最重要的参数是A)mini-Batch的大小B)动量梯度下降的参数βC)学习率αD)隐藏层数目答案:C解析:[单选题]34.Sequential构造器的作用是:A)创建模型B)模型优化C)训练模型D)预测模型答案:A解析:[单选题]35.神经网络的程序编写使用了什么方法()A)类和函数B)只有类C)只有函数D)以上都不是答案:A解析:难易程度:易题型:[单选题]36.下列随机序列中[1,3,1.1,2,3.1,1.9]中,可能是A)均匀分布B)正态分布C)不能确定D)非随机答案:A解析:[单选题]37.pytorch表达二元交叉熵的代码是A)(model(X).data>0.5).float()B)(predicted==Y.data).float().mean()C)-(Y*torch.log(hypothesis)+(1-Y)*torch.log(1-hypothesis)).mean()D)torch.mean(torch.square(y-h))答案:C解析:[单选题]38.在人脸检测系统中,如函数caffe.set_mode_gpu()的含意是设置为什么模式?A)CPU模式B)GPU模式C)CPU+GPU模式D)TPU模式答案:B解析:[单选题]39.keras中dataset中洗牌的参数是A)mapB)filterC)shuffleD)batch答案:C解析:[单选题]40.将多个LSTM组合成层,网络中有多层,复杂的结构能够处理更大范围的()A)动态性B)静态性C)不稳定性D)鲁棒性答案:A解析:[单选题]41.假设一一个具有3个神经元和输入为[1,2,3]的简单MLP模型。输入神经元的权重分别为4,5和6。假设激活函数是一个线性常数值3(激活函数为:y=3x)。输出是什么?()A)32B)643C)96D)48答案:C解析:[单选题]42.model.save_weights(filepath)将模型权重存储为()文件。A)JSONB)H5C)HDF5D)DOC答案:C解析:[单选题]43.面部识别系统对面孔进行测量,并生成一个面纹,即面部的唯一数字代码。每个面纹都存储为一个()字节的文件。系统可以用每分钟几千万张面孔的速度对内存中的面纹数据进行匹配A)48B)84C)148D)841答案:B解析:[单选题]44.随时间反向传播的缩写是哪个?A)BPTTB)BPC)BPTD)BPTM答案:A解析:[单选题]45.修正线性单元函数是指?A)Sigmoid函数B)tanh函数C)ReLUD)leakyReLU答案:C解析:[单选题]46.如果数据集大小为m,mini-batch的大小为A)1B)mC)大于mD)大于2,小于m答案:D解析:[单选题]47.深度卷积神经网络中,()提取的特征往往是比较简单的(如检测点、线、亮度)?A)深层B)浅层C)最后几层D)所有层答案:B解析:[单选题]48.飞桨框架调用显卡计算资源的命令()。A)paddle.set_device(?B)paddle.set_device(?C)paddle.set_device(?D)paddle.set_device(?答案:A解析:难易程度:易题型:[单选题]49.相比于其它激活函数来说,ReLU有以下优势:对于线性函数而言,ReLU的表达能力更强,尤其体现在深度网络中;而对于非线性函数而言,ReLU由于非负区间的梯度为常数,因此不存在()(VanishingGradientProblem),使得模型的收敛速度维持在一个稳定状态。A)梯度消失问题B)卷积C)池化D)全连接答案:A解析:[单选题]50.Alf属于[0,1],A,B是平面上点,alf*A+(1-alf)*B的意义是A)过AB两点直线B)A和B构成的线段C)A和B的向量和D)A和B构成的集合答案:B解析:[单选题]51.有许多种梯度下降算法,其中两种最出名的方法是1-BFGS和SGD。1-BFGS根据二阶梯度下降而SGD是根据一阶梯度下降的。在下述哪些场景中,会更加偏向于使用1-BFGS而不是SGD?场景1:数据很稀疏场景2:神经网络的参数数量较少CA)景1B)场景2C)两种情况都是D)都不会选择1-BFGS答案:C解析:[单选题]52.管道性能能力提升参数描述正确的是:A)interleave时设置num_parallel_calls让数据转换过程多进程执行B)prefetch方法让数据准备和参数迭代两个过程相互并行C)prefetch方法可以让数据读取过程多进程执行,并将不同来源数据夹在一起D)cache转换时,先batch,然后采用向量化的转换方法对每个batch进行转换答案:B解析:[单选题]53.局部响应标准化,此该环节主要用于防止过拟合,简称是什么?A)本区域B)LRNC)BP算法D)池化答案:B解析:[单选题]54.激活函数tf.nn.relu能A)用于卷积后数据B)用于卷积核C)用于步长D)不能用到全连接层答案:A解析:[单选题]55.pytorch不能用来求梯度的方式是:A)backwardB)autograd.gradC)自动微分和优化器D)梯度磁带答案:D解析:[单选题]56.pytorch交换维度的函数是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:D解析:[单选题]57.日常生活中,关于人工智能的应用,我们接触最多的是()。A)人脸识别B)电话骚扰C)无人驾驶D)导弹精准打击答案:B解析:难易程度:易题型:[单选题]58.查看gpu显卡数量的函数是A)tensor_gpu.is_cudaB)torch.cuda.device_count()C)tensor_gpu.deviceD)torch.cuda.is_available()答案:B解析:[单选题]59.安装第三方库的命令正确的是()。A)importB)pipC)installD)pip答案:B解析:难易程度:易题型:[单选题]60.tf.argmax使用的场景有A)矩阵运算B)计算预测类别C)维度变换D)元素排序答案:B解析:[单选题]61.通常全连接层在卷积神经网络的()A)前几层B)尾部层C)中间层D)前后几层答案:B解析:[单选题]62.要建立数学模型,其详细过程是必须经过数据测量、数据比较、()过程,才能达到最优。A)逐渐逼近B)校准C)回归D)监督答案:A解析:[单选题]63.torch.nn.Conv2d中控制步长的参数为A)strideB)kerner_sizeC)in_channelsD)out_channels答案:A解析:[单选题]64.下列关于循环控制语句的说法正确的是()。A)break语句的作用是终止整个程序B)continue语句的作用是终止整层循坏C)pass语句的作用是终止一层循环中的某一次循环D)break和continue语句采用不同方式终止循环,pass语句仅仅是一个占位符答案:D解析:难易程度:中题型:[单选题]65.水平翻转的函数是A)RandomHorizontalFlip()B)RandomVerticalFlip()C)RandomRotationD)RandomCrop答案:A解析:[单选题]66.可以实现多个卷积尺寸处理算法的网络是A)lenetB)alexnetC)vggD)Inception答案:D解析:[单选题]67.NeuralNetworks简称NN,它是A)卷积神经网络B)标准神经网络C)循环神经网络D)RELU神经网络答案:B解析:[单选题]68.下列哪个神经网络结构会发生权重共享?A)卷积神经网络B)循环神经网络C)全连接神经网络D)选项A和B答案:D解析:[单选题]69.在课堂中使用预测器对那个单位进行互相转换()A)英里和海里B)英里和千米C)海里和千米D)公里和千米答案:B解析:难易程度:易题型:[单选题]70.随机梯度下降算法是()。A)MomentumB)AdamC)AdaGradD)SGD答案:D解析:难易程度:易题型:[单选题]71.keras中()函数将模型训练epoch轮次。A)trainB)fitC)trainingD)compile答案:B解析:fit函数将模型训练nb_epoch轮[单选题]72.关于drop_duplicates函数,下列说法中错误的是()。A)对Dataframe的数据有效B)仅支持单一特征的数据去重C)数据有重复时默认保留第一个数据D)该函数不会改变原始数据排列答案:B解析:难易程度:中题型:[单选题]73.超参数范围中说法正确的是A)随机取值可以提升搜索效率B)随机取值就是随机均匀取值C)范围就是[0,1]D)随机取值对搜索无影响答案:A解析:[单选题]74.net=Network(13)x1=x[0]y1=y[0]z=net.forward(x1)print(z)中的13是表示那个参数()。A)金陵十三钗B)十三圆桌骑士C)十三个权重D)普通数字十三答案:C解析:难易程度:易题型:[单选题]75.比()好用的激活函数是tanh函数(双曲正切函数)A)cosh函数B)Sigmoid函数C)RELU函数D)cosx函数答案:B解析:[单选题]76.一般用于将输入中的单词映射为稠密向量的函数是A)EmbeddingB)LSTMC)GRUD)RNN答案:A解析:[单选题]77.pytorch中求梯度的方式是A)optimizer.zero_grad()B)zero.autoC)cost.backward()D)optimizer.step()答案:C解析:[单选题]78.图像处理时,给定输入图像,在输出图像中每一个像素是输入图像中一个小区域中像素的加权平均,其中权值由一个函数定义,这个函数称为()A)被卷积数据B)卷积核C)步长D)填充答案:B解析:[单选题]79.下列声明哪些是正确的?声明1:可以通过将所有权重初始化为0来训练网络声明2:可以通过将偏差初始化为0来训练网络A)1和2都错B)1和2都对C)1错2对D)1对2错答案:C解析:[单选题]80.函数x*ln(x)的导数是A)ln(x)+1B)xC)lnxD)1/x答案:A解析:[单选题]81.为什么会有10个输出神经元?A)纯粹随意B)有10个不同的标签C)使训练速度提高10倍D)使分类速度提高10倍答案:B解析:[单选题]82.在多层感知器中,为什么要使用激活函数,下列说法正确的是()A)为了让输出变成归一化数据B)为了让每一层的输出为非线性函数C)为了和输出保持一致D)为了让数据更加真实答案:B解析:不使用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。[单选题]83.cost.backward()的作用是A)防止代价为非凸函数B)代价反向处理C)回到上一步处理D)进行反向传播,进行梯度累加答案:D解析:[单选题]84.pytorch中可视化模块结构是:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:A解析:[单选题]85.在下图中,我们可以观察到误差出现了许多小的"涨落"。这种情况我们应该担心吗?A)需要,也许意味着神经网络的学习速率存在问题B)不需要,集交验证上有累积的下降就可以了C)不知道D)不好说答案:B解析:[单选题]86.pytorch向上取整的函数是A)roundB)floorC)ceilD)trunc答案:C解析:ceil意思为天花板,是向上取整[单选题]87.()指的就是训练过程中数据将被重复训练多少次。A)fitB)countsC)epochsD)numbers答案:C解析:epochs指的就是训练过程中数据将被?轮?多少次,[单选题]88.深度学习通过多层处理,初始的特征成为()A)低层特征B)高层特征C)中层特征D)浅层特征答案:B解析:[单选题]89.predict(x,batch_size=None,verbose=0,steps=None)中batch_size只能是()A)整数B)小数C)10以内D)大于10答案:A解析:[单选题]90.交叉熵使用了()梯度下降法A)sigmoid函数B)RELU函数C)tanh函数D)cosh函数答案:A解析:[单选题]91.卷积网络的主要3个特点是:局部感知、权值共享和()A)多层池化B)多层卷积C)多层输出D)以上都不对答案:B解析:[单选题]92.Relu是用来做什么的?A)返回x的负数B)仅当x大于零时,返回xC)仅当x小于零时,返回xD)返回x的倒数答案:B解析:[单选题]93.废纸属于什么类别的垃圾A)有害垃圾B)易腐垃圾C)可回收物D)不清楚答案:C解析:[单选题]94.参数padding的作用是()A)设置卷积步长B)设置卷机时是否考虑边界C)设置卷积核大小D)以上都不对答案:B解析:[单选题]95.BP神经网络包括三层,分别是输入层,()和输出层。A)连接层B)包含层C)隐藏层D)内层答案:C解析:[单选题]96.深度学习领域中,通常通过什么方式来选择参数A)通过常识选择B)随机选择点来试验超参数效果C)选择输入的参数即可D)取离散参数的平均值答案:B解析:[单选题]97.RNN具有()展开的特点,这是由其输入决定的A)时间B)空间C)BP算法D)LSTM答案:A解析:[单选题]98.计算图中实际传递的是A)信息B)算法C)张量D)流程答案:C解析:[单选题]99.在指数衰减学习率函数中,衰减系数必须()A)大于1B)大于0小于1C)1到2之间D)以上都不对答案:B解析:[单选题]100.LeNet-5网络是针对灰度图进行训练的,输入图像大小为32*32*1,不包含输入层的情况下共有()层,即2层卷积,2层池化,3层全连接,每一层都包含可训练参数(连接权重)A)5B)7C)8D)16答案:B解析:[单选题]101.欧几里得空间标准内积的另外一种表述是()?A)平方差B)和差化积C)内积D)点积答案:D解析:[单选题]102.A=10−121032−1,B=−210031002,求A⋅B=()。A)21B)22C)23D)24答案:D解析:难易程度:难题型:[单选题]103.pytorch中展平维度的函数是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:B解析:[单选题]104.在一个神经网络里,知道每一个神经元的权值和偏差值是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,就可以近似任何函数。实现这个最佳的办法是A)A随机赋值,祈祷他们是正确的B)搜索所有权重和偏差的组合,直到得到最佳值C)赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重D)以上说法都不正确答案:C解析:[单选题]105.一个800*600分辨率的单通道灰度数字图像,每个像素用8bit来保存,请问需要多大的计算机空间才能保存一段1分钟帧率为30的的原始的灰度数字视频?()A)823.97KbB)6.437MbC)823.97MBD)643.79Kb答案:C解析:[单选题]106.下面哪个方法是对于空间数据的最大池化()A)MaxPooling2DB)AveragePooling1DC)AveragePooling2DD)GlobalAveragePooling2D答案:A解析:[单选题]107.二分类算法可以处理以下哪种场景?A)人脸验证B)识别动物种类C)语音识别D)股票预测答案:A解析:[单选题]108.可以在同一个会话中运行两个图吗?()A)可以B)不可以C)可能可以D)以上都错答案:B解析:[单选题]109.在一个32X32大小的图像,通过步长为1,不考虑填充,大小为5X5的卷积核卷积后,结果尺寸成为A)28X28B)14X14C)31X31D)32X32答案:A解析:[单选题]110.实例的存储类似普通云服务器,分为系统盘和()A)文档盘B)数据盘C)软件盘D)内存盘答案:B解析:[单选题]111.属于神经网络学习模型基本步骤是()。A)数据处理B)模型设计C)训练配置D)以上都是答案:D解析:难易程度:易题型:[单选题]112.梯度爆炸可以使用的解决方式有:A)梯度剪切,正则B)增加拟合数据C)增加训练数据维度D)增加隐藏层答案:A解析:[单选题]113.作为Sequential模型的第一层model=Sequential()model.add(Dense(32,input_shape=(16,)))#在第一层之后,你就不再需要指定输入的尺寸了:model.add(Dense(32))请问模型的输入的尺寸为()A)(*,32)B)(16,*)C)(*,16)D)(32,*)答案:C解析:#作为Sequential模型的第一层model=Sequential()model.add(Dense(32,input_shape=(16,)))#现在模型就会以尺寸为(*,16)的数组作为输入,#其输出数组的尺寸为(*,32)#在第一层之后,你就不再需要指定输入的尺寸了:model.add(Dense(32))[单选题]114.哪个选项不能作为二维数据的存储方式?()。A)CSV格式B)数据库存储C)excel表格存储D)数学运算后存储答案:D解析:难易程度:易题型:[单选题]115.监督式学习的常见应用场景如()和回归问题A)分形问题B)位置问题C)分类问题D)算法问题答案:C解析:监督式学习的常见应用场景如分类问题和回归问题[单选题]116.感知机中的异或门由那几个门构成()A)与门和或门B)与门和非门C)与门、非门、或门D)与门、与非门、或门答案:D解析:难易程度:易题型:[单选题]117.()是深度学习训练时的一种提高准确度的技术方法。英文全称为?localresponsenormalization?A)本区域B)局部响应归一化/标准化C)BP算法D)池化答案:B解析:[单选题]118.带有正则化处理的函数是A)reLuB)sigmoidC)softmaxD)dropout答案:D解析:[单选题]119.在实现tf变量A和B按照对应位相乘的函数是()A)tf.multiplyB)tf.matmulC)A*BD)A,puls(B.答案:A解析:[单选题]120.研究发现Inception-ResNet模型可以在更少的epoch内达到更()的准确率A)低B)高C)先高后低D)不确定答案:B解析:[单选题]121.程序语句print(tf.__version__),有什么作用?A)显示安装的tensorflow的版本号B)保存安装的tensorflow的版本号C)下载安装的tensorflowD)下载上一个版本的tensorflow答案:A解析:[单选题]122.对ImageDataGenerator类错误的描述是()A)在某一批次训练时,对旋转平移等各种参数,会分别对一张原图增强,得到多个增强后的样本。B)若设置samplewisecenter=True,则对所有的样本都减去样本均值。C)若设置rescale=1.0/255.0.则对所有的样本都除于255。D)ImageDataGenerator类的flowfromdirectory函数中,可以设置targetsize统一使得所有的终片resize为指定大小。答案:A解析:[单选题]123.指数加权平均数公式的好处在于A)只需要少量参数B)占用极少内存C)不适用学习率D)是非监督式学习答案:B解析:[单选题]124.编码器-解码器模式属于以下哪种模式?A)一对一B)一对多C)多对一D)多对多答案:D解析:[单选题]125.np.array([[1,2,3],[4,5,6]])属于几维数组()。A)0B)1C)2D)3答案:C解析:难易程度:易题型:[单选题]126.Tf.cast(x,32)将x类型转化成A)返回整数值B)返回布尔值C)返回浮点值D)返回字符答案:A解析:[单选题]127.()是一种特定形式的RNN循环神经网络,英文全称Longshort-termmemoryA)CNNB)LSTMC)RNND)CONV答案:B解析:[单选题]128.双向循环神经网络的英文缩写是?A)RNNB)SRNNC)TRNND)Bi-RNN答案:D解析:[单选题]129.下列的哪种方法可以用来降低深度学习模型的过拟合问题?1增加更多的数据2使用数据扩增技术(dataaugmentation)3使用归纳性更好的架构4正规化数据5降低架构的复杂度A)145B)123C)1345D)所有项目都有用答案:D解析:[单选题]130.一般深度学习中,处理大量数据集,一般使用的下降方式是:A)批量梯度下降B)小批量梯度下降C)随机梯度下降D)正规方程解答案:B解析:[单选题]131.可以把维度中数值为1进行压缩的函数是:A)reshapeB)squeezeC)expand_dimsD)transpose答案:B解析:[单选题]132.腾讯云CVM为您提供全面广泛的服务内容。包括多种机型配置,其中腾讯云CVM提供的机型类型介绍错误的是:A)大数据型(适合Hadoop分布式计算、海量日志处理、分布式文件系统和大型数据仓库等吞吐密集型应用B)标准型(适合中小型Web应用、中小型数据库)C)内存型(适合需要大量的内存操作、查找和计算的应用)D)计算型(适合大型游戏服务器和广告服务引擎、高性能计算以及其他计算密集型应用程序)E)异构型(适合于深度学习、科学计算、视频编解码和图形工作站等高性能应用)F)高IO型(适用于渲染、基因分析、晶体药学等短时频繁使用超大规模计算节点的计算密集型应用)答案:F解析:腾讯云CVM为您提供全面广泛的服务内容。多种机型配置:标准型(适合中小型Web应用、中小型数据库)。内存型(适合需要大量的内存操作、查找和计算的应用)。高IO型(适合低时延,I/O密集型应用)。计算型(适合大型游戏服务器和广告服务引擎、高性能计算以及其他计算密集型应用程序)。大数据型(适合Hadoop分布式计算、海量日志处理、分布式文件系统和大型数据仓库等吞吐密集型应用)。异构型(适合于深度学习、科学计算、视频编解码和图形工作站等高性能应用)。批量型(适用于渲染、基因分析、晶体药学等短时频繁使用超大规模计算节点的计算密集型应用)。第2部分:多项选择题,共41题,每题至少两个正确答案,多选或少选均不得分。[多选题]133.在tf中,与全局变量初始化相关的操作语句是A)init_op=tf.global_variables_initializer()B)withtf.Session()assess:C)sess.run(init_op)D)importnumpyasnp答案:ABC解析:[多选题]134.pytorch可以实现的功能有:A)GPU加速B)自动求导C)定义常用网络层D)模型预测答案:ABCD解析:[多选题]135.Keras中循环相关的层有A)LSTMB)EmbeddingC)SimpleRNND)LSTMCell:LSTM答案:ABCD解析:[多选题]136.借助池化,网络存储可以有效提升存储的利用率,池化操作通常有几种?A)平均池化B)卷积C)最大池化D)全连接答案:AC解析:[多选题]137.数据管道中可以使用获取数据的方式有A)from_tensor_slicesB)read_csvC)make_csv_datasetD)list_files答案:ACD解析:[多选题]138.语句t=tf.ones_like(a)的几个意义是A)将t节点内容用a替换B)t节点对应张量维度和A相同C)t对应张量值为1D)a需要预先初始化答案:BCD解析:[多选题]139.关于归一化描述正确的是:A)归一化可以预防过拟合B)归一化没有实质作用C)归一化将所有数据样本值缩放到0-1之间D)归一化是一种激活函数答案:AC解析:[多选题]140.动量梯度下降算法是通过()和()控制梯度下降的A)平均值B)指数加权平均值C)学习率D)方差答案:BC解析:[多选题]141.Tf.nn.dropout()是tensorflow里面为了防止或减轻过拟合而使用的函数,它一般用在全连接层,具体的作用是有那些?A)停止某些节点更新B)保留百分率为keep_prob的节点更新C)在全链接层有效D)可以停止任意层节点更新答案:ABCD解析:[多选题]142.深度学习中三个主义分别是A)符号主义B)连接主义C)激活主义D)行为主义答案:ABD解析:[多选题]143.以下属于激活函数的有:A)ReluB)dropoutC)sigmoidD)softmax答案:ACD解析:[多选题]144.需要独热的数据类型有A)多分类标签B)离散特征C)时间步单词D)连续值答案:ABC解析:[多选题]145.在深度神经网络中,如果是填充后求卷积,图像尺寸保持不变,以下哪些参数是正确的A)以0填充一圈B)以1填充一圈C)步长为1D)图像尺寸变小答案:AC解析:[多选题]146.零填充描述正确的是A)可以给图像周边填充0B)保证卷积后的结果大小不变C)将卷积数据归零D)卷积池化中都可以使用答案:ABD解析:[多选题]147.Tensorflow实现cnn模型的训练与使用开发过程的步骤通常包括()A)准备样本集合B)前向传递,求出lossC)求出反向的梯度D)按照梯度的反向传播,更新参数答案:ABCD解析:[多选题]148.常用的循环网络相关层有:A)nn.EmbeddingB)nn.LSTMC)nn.GRUD)nn.RNN答案:ABCD解析:[多选题]149.要抽象和展示MathematicalModel通常会使用()等方式A)数学符号B)数学式子C)程序D)图形答案:ABCD解析:[多选题]150.语句tf.variables_initializer语句可以A)初始化一个变量B)初始化多个变量C)初始化全部变量D)初始化常量答案:ABC解析:[多选题]151.常用的梯度优化算法有:A)dropoutB)动量梯度下降法C)RMSpropD)Adam答案:BCD解析:[多选题]152.涉及到1*1卷积的网络模型有A)lenetB)alexnetC)resnetD)inception答案:CD解析:[多选题]153.长短期记忆中的门有A)遗忘门B)输入门C)输出门D)更新门答案:ABC解析:[多选题]154.以下可以连续求导的几乎函数有A)reluB)sigmoidC)tanhD)dropout答案:BC解析:[多选题]155.操作系统(operatingsystem,简称OS)是管理()的计算机程序。A)计算机硬件B)使用人员C)软件资源D)开发人员答案:AC解析:[多选题]156.tensorflow2.0中常见的两种数据为A)变量B)常量C)占位符D)全是答案:AB解析:[多选题]157.语句train_acc=accuracy.eval(feed_dict={x:batch[0],y_actual:batch[1],keep_prob:1.0})A)是训练过程B)是测试过程C)输入训练集合D)输入dropout比例答案:ACD解析:[多选题]158.不能实现总体求和、总体平均的函数是:A)tf.reduce_sumB)tf.multiplyC)tf.reduce_meanD)tf.norm答案:BD解析:[多选题]159.人脸质量信息是要返回人脸各部分的()等信息A)遮挡B)光照C)模糊D)完整度、置信度答案:ABCD解析:[多选题]160.使用到平均池化的cnn网络的有A)lenetB)alexnetC)resnetD)Inception答案:CD解析:[多选题]161.关于LeNet深度神经网络的构成,它的组成描述是A)卷积层B)激活函数C)池化层D)全连接层答案:ABCD解析:[多选题]162.关于梯度消失,说法正确的是:A)可以通过激活函数防止梯度消失B)梯度消失对神经网络无影响C)尽量避免梯度消失D)梯度消失反向传播时,由于梯度值过小或消失的现象答案:ACD解析:[多选题]163.BPTT算法是针对循环层的训练算法,它的基本原理和BP算法是一样的,也包含同样的几个步骤:A)前向计算每个神经元的输出值B)反向计算每个神经元的误差项值,它是误差函数E对神经元j的加权输入的偏导数C)计算每个权重的梯度D)最后再用随机梯度下降算法更新权重答案:ABCD解析:[多选题]164.手写体识别程序经常调用的四个数据集包括以下选项中那几个?()A)train-images.idx3-ubyteB)train-labels-idx1-ubyteC)t10k-images.idx3-ubyteD)t10k-labels-idx1-ubyte答案:ABCD解析:[多选题]165.属于pytorch中常用的损失函数有:A)nn.MSELossB)nn.CrossEntropyLossC)nn.L1LossD)nn.BCEWithLogitsLoss答案:ABCD解析:[多选题]166.深度学习网络的卷积部分的组成有A)卷积层B)RELUC)POOLING层D)pedding答案:ABC解析:[多选题]167.nn.Sequential的等价使用方式有A)利用add_module方法B)利用变长参数C)利用OrderedDictD)都不是答案:ABC解析:[多选题]168.计算机的操作系统根据不同的用途分为不同的种类,从功能角度分析,分别有()等。A)实时系统B)批处理系统C)分时系统D)网络操作系统答案:ABCD解析:计算机的操作系统根据不同的用途分为不同的种类,从功能角度分析,分别有实时系统、批处理系统、分时系统、网络操作系统等。[多选题]169.pytorch梯度下降的相关函数有A)zero_gradB)backwardC)stepD)optim答案:ABC解析:[多选题]170.Inception网络都是顶尖的网络代表,Inception细分种类有那几种?()A)Inceptionv1B)Inceptionv2C)Inceptionv3,Inceptionv4D)Inception-ResNet答案:ABCD解析:[多选题]171.属于卷积核K的参数是A)步长B)填充C)输入通道D)输出通道答案:CD解析:[多选题]172.图像读写语句:image0=tf.image.decode_jpeg(value)A)对Value进行解码B)Value是jpeg格式数据C)value是压缩数据D)tf.image是图像处理类答案:ABCD解析:[多选题]173.在神经网络中,常常会用到如下函数:tensorflow.nn.softmax_cross_entropy_with_logits_V2()是A)在卷积层B)进行优化C)用信息熵D)一定全连接层答案:BCD解析:第3部分:判断题,共54题,请判断题目是否正确。[判断题]174.VGG16有16个卷积层A)正确B)错误答案:错解析:[判断题]175.对于损失函数,有多种函数形式可以表达。A)正确B)错误答案:对解析:[判断题]176.RNN中,LSTM比GRU更加灵活。A)正确B)错误答案:对解析:[判断题]177.三元组损失算法中,只有选择难的三元组梯度下降法才能发挥作用。A)正确B)错误答案:对解析:[判断题]178.人工智能是一种拥有人类智能行为的计算机科学A)正确B)错误答案:对解析:[判断题]179.torch.device('cpu')是使用cpu运行代码A)正确B)错误答案:对解析:[判断题]180.给定概率空间,信息熵是针对无限个概率事件的。A)正确B)错误答案:错解析:[判断题]181.评判一句话的信息量,当它越大,该句话发生的概率越大。A)正确B)错误答案:错解析:[判断题]182.在一个系统中,信息量的概率平均就是信息熵。A)正确B)错误答案:对解析:[判断题]183.考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以把除了最后一层外所有的层都冻结,重新训练最后一层。A)正确B)错误答案:错解析:[判断题]184.在古典概率空间,其样本点对应概率必须相等。A)正确B)错误答案:对解析:[判断题]185.CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合A)正确B)错误答案:对解析:[判断题]186.人工智能的最终目标是研究如何使用计算机去做靠人的智力才能做的工作。A)正确B)错误答案:错解析:[判断题]187.损失函数有两个表达方式,均方差表达,和信息熵表达。A)正确B)错误答案:对解析:[判断题]188.神经网络框架TensorFlow可以安装在Ubuntu、MacOS和Windows系统平台上A)正确B)错误答案:对解析:[判断题]189.随机生成的卷积核,个别一些卷积核对特征提取几乎无贡献,但不影响运算。A)正确B)错误答案:对解析:[判断题]190.如果需要对模型的参数(一般非标量)在训练过程中的变化进行可视化,可以使用writer.add_histogramA)正确B)错误答案:对解析:[判断题]191.对平方范数的损失函数求偏导数的结果,得到一个梯度向量。A)正确B)错误答案:对解析:[判断题]192.形状相似的两个信号序列,其相关系数也大。A)正确B)错误答案:对解析:[判断题]193.Tf.argmax可以认为就是np.argmax。tensorflow使用numpy实现的这个APIA)正确B)错误答案:对解析:[判断题]194.用二维滤波器在被卷积的2D图像上所有位置滑动,并在每个位置上与对应像素点及其领域像素点做内积,这就是二维卷积的原理A)正确B)错误答案:对解析:[判断题]195.ImporttensorflowastfPrint(help(tf))这个语句是寻求帮助的过程A)正确B)错误答案:对解析:[判断题]196.损失函数,可以由误差向量的总体范数平方定义A)正确B)错误答案:对解析:[判断题]197.sigmoid也可以做多分类A)正确B)错误答案:对解析:[判断题]198.Tf语句X.Initializer的意义是对X常量初始化。A)正确B)错误答案:错解析:[判断题]199.step函数处理的是反向传播A)正确B)错误答案:错解析:[判断题]200.Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征A)正确B)错误答案:对解析:Dropout说的简单一点就是:我们在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征[判断题]201.损失函数主要是计算真实值与预测值之间的误差。A)正确B)错误答案:对解析:[判断题]202.BP传播算法过程是经过信号前向传播与误差反向传播,W权值和阈值的调整反复进行,一直进行到预先设定的学习训练次数,或输出误差减小到允许的程度A)正确B)错误答案:对解析:[判断题]203.交叉熵(crossentropy)描述的是两个概率分布之间的距离,距离越小表示这两个概率越相近,越大表示两个概率差异越大。A)正确B)错误答案:对解析:[判断题]204.人工智能就是神经网络。A)正确B)错误答案:错解析:[判断题]205.深度学习的基础,叫做神经网络,它与机器学习算法有本质的区别。A)正确B)错误答案:错解析:[判断题]206.对于函数tf.reshape函数用于对张量变形。A)正确B)错误答案:对解析:[判断题]207.RecurrentNeuralNetwork,RNN这种网络的本质特征是在处理单元之间既有内部的反馈连接又有前馈连接A)正确B)错误答案:对解析:[判断题]208.在一次学习问题中,只能通过一个样本进行学习,以能够认出同一个人。A)正确B)错误答案:对解析:[判断题]209.RandomRotation是随机翻转角度A)正确B)错误答案:错解析:[判断题]210.分类问题用逻辑回归,预测问题用线性回归。A)正确B)错误答案:对解析:[判断题]211.对于一个给定的概率空间,信息熵会有多个。A)正确B)错误答案:错解析:[判断题]212.writer.add_image可视化可以加入一张或多张图片A)正确B)错误答案:错解析:[判断题]213.自然语言理解俗称人机对话()。A)正确B)错误答案:对解析:[判断题]214.在机器学习框架方面,TensorFlow的真正独特之处在于,能够在5行或者10行代码中构建模型。然后应用这个模型,进行扩展做出产品。A)正确B)错误答案:对解析:[判断题]215.感知器是一种二元线性分类器()A)正确B)错误答案:对解析:[判断题]216.如果学习率很小,那么训练可能不收敛。权重变化可能很大,以至于优化器错失最优化并使得损失变大。A)正确B)错误答案:错解析:如果学习率很大,那么训练可能不收敛。权重变化可能很大,以至于优化器错失最优化并使得损失变大。[判断题]217.深度学习是机器学习的一种,而机器学习是实现人工智能的必经路径。A)正确B)错误答案:对解析:[判断题]218.事件的信息熵,是系统信息熵的一个组成部分。A)正确B)错误答案:对解析:[判断题]219.增加卷积核的尺寸,一定能提高卷积神经网络的性能()A)正确B)错误答案:错解析:[判断题]220.神经网络添加隐藏层可能会梯度消失A)正确B)错误答案:对解析:[判断题]221.损失函数中,基于信息熵的损失函数,与平方范数损失函数互有矛盾。A)正确B)错误答案:错解析:[判断题]222.梯度和损失函数不一样,是个向量A)正确B)错误答案:对解析:[判断题]223.不论多大的数据集,测试集数量必须保持在30%A)正确B)错误答案:错解析:[判断题]224.赋范空间中,v,ws属于向量空间V,||v+w||<=||v||+||w||表示三角不等式。A)正确B)错误答案:对解析:[判断题]225.20世纪80年代,计算机硬件的性能不断提高,PC的市场不断扩大,当时可供计算机选用的操作系统主要有Unix、DOS和macOS这几种。A)正确B)错误答案:对解析:[判断题]226.loss和各种metric的变化曲线可以使用writer.add_scalar处理A)正确B)错误答案:对解析:[判断题]227.深度学习在不同的领域超参数的设定不能通用A)正确B)错误答案:错解析:第4部分:问答题,共33题,请在空白处填写正确答案。[问答题]228.简述正则化的物理意义。答案:正则化在神经网络计算损失值的过程中,在损失项后面加一项。这项损失表示网络的输出与标准结果受到干扰,导致学习参数无法按照目标方向来调整,从而达到防止过拟合的效果。解析:[问答题]229.在TensorFlow中启动会话有几哪种方法?答案:1需明确调用会话生成函数和会话关闭函数2通过上下文管理器来使用会话解析:[问答题]230.层的实现中有两个共通的方法_______和_______答案:forward()|backward()解析:[问答题]231.绘制直方图的方法_______答案:hist()解析:[问答题]232.数字5用独热表示的形式为_______。答案:0000010000;解析:[问答题]233.神经网络中人工设定的参数称为_______答案:超参数解析:[问答题]234.编程:新建一个名为weights的Tensor变量,里面的变量名为big_weights,并进行初始化。答案:ImporttensorflowastfDefvariables_create():weights=tf.Variable(tf.random_normal([784,200]),name="big_weights")init_op=tf.global_variables_initializer()returnweights解析:[问答题]235.编程:实现下载并输出MNIST数据集的相关属性。答案:Fromtensorflow.examples.tutorials.mnistimportinput_dataMnist=input_data.read_data_sets("data/",one_hot=True)Print(mnist.train.images.shape)Print(mnist.train.labels.shape)Print(mnist.validation.images.shape)Print(mnist.validation.labels.shape)Print(mnist.test.images.shape)Print(mnist.test.labels.shape)解析:[问答题]236.编程:使用Tensorflow在屏幕上打印出一句话。答案:ImporttensorflowastfImportnumpyasnpGreeting=tf.constant('HelloGoogleTensorflow!')Sess=tf.Session()#启动一个会话Result=sess.run(greeting)#使用会话执行greeting计算模块Print(result)Sess.close()解析:[问答题]237.tensorflow中,用________函数返回一个大于或等于参数的最小整数。答案:Ceil();解析:[问答题]238.测试集样本的形状为_______。答案:(10000,784);解析:[问答题]239.编程:定义两个常量,通过损失函数,计算两个常量的均方误差。答案:ImporttensorflowastfA=tf.constant([[4.0,4.0,4.0],[3.0,3.0,3.0],[1.0,1.0,1.0]])B=tf.constant([[1.0,1.0,1.0],[1.0,1.0,1.0],[2.0,2.0,2.0]])Mse=tf.reduce_mean(tf.square(a-b))Withtf.Session()assess:Print(sess.run(mse))解析:[问答题]240.画出一个包含1个卷积层、两个全连接层,进行图片分类任务的CNN网络答案:解析:[问答题]241.assign()函数的作用是______。答案:赋值;解析:[问答题]242.简述构建二维线性模型的流程。答案:准备数据;搭建模型;反向传播;迭代训练;模型预测解析:[问答题]243.为什么首先使用神经网络?答案:通用逼近性定理指出,一个具有单个隐藏层和标准激活函数的简单前馈神经网络(即多层感知器),如果隐藏层具有足够数量的单位,它就可以近似任何连续函数。解析:[问答题]244.在神经网络中,学习率为什么很重要?学习率衰减是指什么?答案:①学习率过小,会导致学习花费过多时间,反过来学习率过大,则会导致学习发散而不能正确进行。②随着学习进行,使学习率逐渐减小。解析:[问答题]245.在全连接神经网络中可以通过设置______来防止过拟合。答案:正则化;解析:[问答题]246.梯度下降法主要用于________。答案:优化单个参数的取值;解析:[问答题]247.编程:分别使用随机种子1产生三个符合正太分布的变量,并将其输出。答案:ImporttensorflowastfW1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1))W2=tf.Variab

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论