【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案_第1页
【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案_第2页
【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案_第3页
【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案_第4页
【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

【MOOC答案】《深度学习及其应用》(复旦大学)章节作业慕课答案

有些题目顺序不一致,下载后按键盘ctrl+F进行搜索第一单元神经网络基础神经网络基础1.单选题:以下哪个选项最能描述早停(earlystopping)在解决过拟合问题中的作用?

选项:

A、在训练过程中及时停止,防止模型过拟合

B、提前停止训练,以避免模型欠拟合

C、增加模型的复杂度,以提高泛化能力

D、增加训练集的大小,以减少过拟合的风险

答案:【在训练过程中及时停止,防止模型过拟合】2.单选题:以下哪个方法可以有效减少神经网络的过拟合?

选项:

A、增加模型复杂度

B、增加训练集的大小

C、减少训练轮次

D、使用正则化技术

答案:【使用正则化技术】3.单选题:过拟合是指神经网络在训练集上表现良好,但在测试集上表现较差。以下哪个选项最能描述过拟合的原因?

选项:

A、模型复杂度过低

B、模型复杂度过高

C、训练集和测试集之间的分布差异

D、数据量过小

答案:【模型复杂度过高】4.单选题:在梯度下降法中,以下哪种激活函数常用于处理二分类问题?

选项:

A、Sigmoid函数

B、ReLU函数

C、Tanh函数

D、Softmax函数

答案:【Sigmoid函数】5.单选题:梯度下降法中的激活函数对于神经网络的训练有什么作用?

选项:

A、增加模型的复杂度

B、控制梯度的传播

C、加速收敛速度

D、减少过拟合的风险

答案:【控制梯度的传播】6.单选题:在梯度下降法中,批量梯度下降(BatchGradientDescent)和随机梯度下降(StochasticGradientDescent)的主要区别是什么?

选项:

A、批量梯度下降使用全部训练数据,而随机梯度下降使用单个样本

B、批量梯度下降只更新部分参数,而随机梯度下降更新所有参数

C、批量梯度下降收敛速度更快,而随机梯度下降更容易陷入局部最优

D、批量梯度下降适用于大规模数据集,而随机梯度下降适用于小规模数据集

答案:【批量梯度下降使用全部训练数据,而随机梯度下降使用单个样本】7.单选题:在BP神经网络中,用于分类的损失函数通常使用什么来衡量预测值和真实值之间的差异?

选项:

A、均方误差

B、交叉熵损失

C、对数损失

D、KL散度

答案:【交叉熵损失】8.单选题:BP神经网络中的隐藏层有什么作用?

选项:

A、提取输入数据的特征

B、执行分类任务

C、计算输出层的误差

D、更新权重和偏置

答案:【提取输入数据的特征】9.单选题:BP神经网络中进行输入归一化的作用主要包括以下哪一项?

选项:

A、加快模型训练速度

B、防止梯度消失或梯度爆炸问题

C、减少模型的复杂度

D、提高模型的可解释性

答案:【防止梯度消失或梯度爆炸问题】10.单选题:下列哪一项不是BP神经网络结构存在的问题?

选项:

A、容易陷入局部最优解

B、输入数据维度过高

C、梯度消失

D、学习率选择不当

答案:【输入数据维度过高】11.单选题:sigmoid激活函数y=1/(1+)的导数是以下哪一个?

选项:

A、y(1-y)

B、1-

C、1+lnx

D、1-lnx

答案:【y(1-y)】12.单选题:有关BP网络的说法哪个是错误的?

选项:

A、在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能

B、与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数

C、交叉熵也可以作为回归预测问题的损失函数

D、神经元的激活函数选择影响神经网络的训练过程和最终性能

答案:【交叉熵也可以作为回归预测问题的损失函数】13.单选题:有关神经网络参数初始化的说法错误的是哪个?

选项:

A、权重和偏置都可以取全零初始化

B、使用正态分布初始化,但权重取太大或太小都会影响网络的训练

C、Xavier初始化可以减少梯度消失

D、合适的权重初始化可以加快神经网络的训练和效果

答案:【权重和偏置都可以取全零初始化】14.单选题:有关BP神经网络的说法,错误的是哪个?

选项:

A、易陷入局部极小值

B、训练次数多,学习效率低,收敛速度慢

C、隐层节点的选取缺乏理论指导

D、训练时新样本的加入对已经学习的结果没什么影响

答案:【训练时新样本的加入对已经学习的结果没什么影响】15.单选题:下面哪个选项不是神经网络训练过程中过拟合的防止方法?

选项:

A、增加学习率

B、L2正则化

C、dropout

D、提前终止

答案:【增加学习率】16.单选题:有关神经网络训练时使用的学习率参数说法错误的是?

选项:

A、学习率可以与其他网络参数一起训练,对降低代价函数是有利的。

B、学习率过大更容易导致训练陷入局部极小值。

C、学习率可以随着训练误差动态调整效果更好。

D、网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。

答案:【学习率过大更容易导致训练陷入局部极小值。】17.单选题:以下不属于超参的是哪个因素?

选项:

A、激活函数

B、学习步长(率)和冲量引子

C、输出编码形式

D、mini-batch的样本数

答案:【输出编码形式】18.单选题:一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少?

选项:

A、660,45

B、3200,45

C、16000,48

D、3000,32

答案:【660,45】19.单选题:下面关于单个神经元输入输出正确的是哪个?

选项:

A、一个神经元只能拥有一个输入和一个输出

B、一个神经元只能拥有一个输入但可以有多个输出

C、一个神经元可以有多个输入和多个输出

D、一个神经元可以拥有多个输入但只有一个输出

答案:【一个神经元可以有多个输入和多个输出】20.单选题:有关数据预处理对神经网络的影响,以下哪个说法是错误的?

选项:

A、对于非数值型的属性,可以使用独热(onehot)编码或模糊化转换成数值

B、连续性属性可以采用最小最大值归一化,减少数值过大和不同属性量纲不同对网络的影响

C、预处理与否对神经网络的训练速度和分类准确率影响比较大

D、BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力

答案:【BP神经网络的输入属性不需要筛选,因为网络本身有特征获取能力】21.单选题:梯度消失问题的认识哪个是正确的?

选项:

A、隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新

B、神经元处于Sigmoid等激活函数的饱和区工作

C、隐藏层神经元的个数太多导致

D、隐层的权重取值太小不容易导致梯度消失

答案:【隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新】22.多选题:减少神经网络过拟合的说法,以下哪些是正确的?

选项:

A、通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合

B、通过增加数据扰动的数据增强增加了神经网络的过拟合

C、利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合

D、在神经网络训练过程中类似dropout减少神经元或相关链接权的数量

答案:【通过正则化可以减少网络参数的取值或个数,一定程度可能减少过拟合;利用L1或L2正则化可以使权重衰减,从而一定程度上减少过拟合;在神经网络训练过程中类似dropout减少神经元或相关链接权的数量】23.多选题:有关数据增强的说法正确是哪些?

选项:

A、对于分类问题,数据增强是减少数据不平衡的一种方法。

B、对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果

C、数据增强会增加样本的个数,因此可能会减少过拟合

D、数据增强带来了噪声,因此一般会降低神经网络模型的效果

答案:【对于分类问题,数据增强是减少数据不平衡的一种方法。;对于手写体的识别,对样本的反转、旋转、裁剪、变形和缩放等操作会提高神经网络的识别效果;数据增强会增加样本的个数,因此可能会减少过拟合】24.单选题:BP网络的训练过程实质上是网络权重和神经元偏置组成的损失函数最小化的计算过程。

选项:

A、正确

B、错误

答案:【正确】25.单选题:神经网络的全连接是指网络的任一层的每一个神经元与上一层(加入存在的话)的神经元都有连接。

选项:

A、正确

B、错误

答案:【正确】第二单元深度学习在人工智能中的应用深度学习的应用1.单选题:有关深度学习的说法,哪个是正确的?

选项:

A、深度学习可以解决任意的机器学习问题

B、深度学习比较适合处理有大量样本的视频、图像、声音、文本等多模态数据的分析,这些数据的分析需要人工进行特征提取,这是与传统的机器学习不同的

C、对于分类问题,深度学习算法一定优于传统的机器学习算法

D、深度学习的基础是神经网络,因此深度学习算法基本可以使用梯度下降法

答案:【深度学习的基础是神经网络,因此深度学习算法基本可以使用梯度下降法】2.单选题:有关人工智能、深度学习和机器学习的关系,以下哪个认识是错误的?

选项:

A、机器学习是人工智能的核心技术之一,也是实现人工智能的重要基础。

B、深度学习与机器学习是相对独立的技术

C、深度学习算法和传统的机器学习算法构成了机器学习理论体系

D、深度学习是处理计算机视觉、听觉和文字的有效机器学习技术,促进了人工智能的应用和发展

答案:【深度学习与机器学习是相对独立的技术】3.单选题:以下哪种问题不适合使用深度学习解决?

选项:

A、人脸识别

B、银行信用卡客户欺诈检测

C、自动导播语音合成

D、机器人写·诗

答案:【银行信用卡客户欺诈检测】4.单选题:深度学习模型中的“深度”一词指的是什么?

选项:

A、模型中隐藏层的数量

B、模型的计算复杂度

C、模型所需的数据量

D、模型训练的时间

答案:【模型中隐藏层的数量】5.单选题:深度学习在人工智能中的应用范围较广,其中包括:

选项:

A、语音识别和图像处理

B、逻辑推理和问题解决

C、数据库管理和数据挖掘

D、网络安全和密码学

答案:【语音识别和图像处理】6.单选题:以下哪个框架不是深度学习框架?

选项:

A、TensorFlow

B、PyTorch

C、Keras

D、Scikit-learn

答案:【Scikit-learn】7.单选题:在选择深度学习开源框架时,下面哪个不是主要考虑的因素?

选项:

A、易用性

B、效率高

C、容易学习、功能多

D、价格

答案:【价格】8.单选题:下面哪个不是深度学习的常见框架?

选项:

A、PaddlePaddle

B、TensorFlow

C、MySQL

D、Pytorch

答案:【MySQL】9.单选题:与传统的分类机器学习算法相比,深度学习网络不同之处不是下面哪项?

选项:

A、不需要人工进行特征工程,深度学习算法本身具有一定的特征提取能力

B、深度学习算法需要的数据量和算力更大,但性能更好

C、深度学习算法不需要对数据进行预处理

D、深度学习的算法解释性一般比较弱,对数据依赖性强

答案:【深度学习算法不需要对数据进行预处理】10.单选题:以下哪种方法不是用于提升深度学习模型泛化能力的技术?

选项:

A、早期停止(EarlyStopping)

B、数据增强(DataAugmentation)

C、增大模型复杂度(IncreasingModelComplexity)

D、Dropout正则化(DropoutRegularization)

答案:【增大模型复杂度(IncreasingModelComplexity)】11.单选题:在深度学习模型训练中,使用哪种策略可以帮助加速模型的收敛?

选项:

A、减小学习率

B、增加模型层数

C、减少训练数据量

D、使用动量(Momentum)或Adam优化器

答案:【使用动量(Momentum)或Adam优化器】12.多选题:有关深度学习的不足,以下哪些看法是正确的?

选项:

A、深度学习算法对数据量的要求一般都比较高,当样本不足时往往效果不好

B、深度神经网络的结构一般比较复杂,训练速度快

C、深度神经网络一般要优化的参数众多,因此对计算资源的要求比较高

D、深度学习算法可以获得图像、文本和声音等数据的特征,但难以解释这些特征

答案:【深度学习算法对数据量的要求一般都比较高,当样本不足时往往效果不好;深度神经网络一般要优化的参数众多,因此对计算资源的要求比较高;深度学习算法可以获得图像、文本和声音等数据的特征,但难以解释这些特征】13.多选题:深度学习算法的三要素是指以下哪些方面?

选项:

A、模型

B、学习准则

C、数据

D、优化算法

答案:【模型;学习准则;优化算法】第三单元卷积神经网络卷积神经网络及其应用1.单选题:对于神经网络而言,哪个不是输入的标准化的作用?

选项:

A、减少不同输入特征数据量纲的差别

B、使得第一个隐层的输入不至于过大或过小,提高网络训练的收敛速度

C、降低网络的计算量

D、减少网络的过拟合

答案:【降低网络的计算量】2.单选题:有关卷积核的大小对卷积神经网络的影响,哪个说法是正确的?

选项:

A、大的卷积核对应的感受野比较大,更容易获得图像的特征

B、小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少

C、过大的卷积核对应大量的参数,卷积神经网络不容易出现过拟合

D、小的卷积核可以获得图像比较细致的特征,它们组合起来可能降低网络的分类准确率

答案:【小的卷积核级联的效果等价于大卷积核的效果,但权重等参数会大大减少】3.单选题:下面哪种操作不能改善卷积网络训练的稳定性?

选项:

A、批归一化(batchnormalization)

B、动态的学习步长调整,例如Adam

C、冲量项

D、提高mini-batch中的样本个数

答案:【冲量项】4.单选题:对于下图的多通道卷积,其中用梯度下降法要优化的参数(不含神经元的偏置)是多少?

选项:

A、30

B、27

C、75

D、78

答案:【27】5.单选题:对于65x65x6的输入特征图,用32个5*5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?

选项:

A、33*33*32

B、32*32*32

C、65*65*12

D、32*32*5

答案:【33*33*32】6.单选题:有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充(nopadding),输出是多少?

选项:

A、29*29*32

B、39*39*32

C、44*44*16

D、40*40*32

答案:【40*40*32】7.单选题:假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5*5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?

选项:

A、2501

B、7601

C、7500

D、7600

答案:【7600】8.单选题:假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?

选项:

A、9,000,001

B、9,000,100

C、27,000,001

D、27,000,100

答案:【27,000,100】9.单选题:下面关于深度学习网络结构的描述,正确的说法是哪个?

选项:

A、网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长

B、深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关

C、网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的

D、在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多

答案:【深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关】10.单选题:下面关于CNN的描述中,错误的说法是哪个?

选项:

A、SAME填充(padding)一般是向图像边缘添加0值

B、卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变

C、局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度

D、卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Featuremap)就越多

答案:【卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变】11.单选题:下面关于池化的描述中,错误的是哪个?

选项:

A、池化方法可以自定义

B、池化在CNN中可以减少较多的计算量,加快模型训练

C、在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征

D、池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化

答案:【池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化】12.单选题:关于深度学习的说法正确的是哪个?

选项:

A、用Sigmoid激活函数时,如果权重初始化较大或较小时,容易出现梯度饱和梯度消失,可选用Tanh函数改进

B、批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布

C、与Sigmoid函数相比,Relu较不容易使网络产生梯度消失

D、梯度下降法实现简单,当目标函数是凸函数时,可基于二阶收敛快速到达目标值

答案:【与Sigmoid函数相比,Relu较不容易使网络产生梯度消失】13.单选题:假设某卷积层的输入特征图大小为36*32*6,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?

选项:

A、32*30*20

B、27*30*20

C、32*28*6

D、36*34*20

答案:【32*30*20】14.单选题:假设某卷积层的输入和输出特征图大小分别为63*63*6和31*31*12,卷积核大小是5*5,步长为2,那么Padding值为多少?

选项:

A、1

B、2

C、3

D、4

答案:【1】15.单选题:假设一个卷积神经网络,第一个全连接层前的池化层输出为12*12*250,其展开的向量长度为?

选项:

A、36000

B、224

C、3000

D、3600

答案:【36000】16.单选题:对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?

选项:

A、16*16*6

B、32*32*3

C、16*16*3

D、32*32*6

答案:【16*16*6】17.多选题:以下有关卷积核的说法正确的是哪些?

选项:

A、堆叠多层小卷积核的操作可以等同于大卷积核的操作。

B、使用小卷积核可以减少参数量。

C、使用多层小卷积堆叠可以增加网络的非线性映射能力。

D、卷积核网络性能越大越好。

答案:【堆叠多层小卷积核的操作可以等同于大卷积核的操作。;使用小卷积核可以减少参数量。;使用多层小卷积堆叠可以增加网络的非线性映射能力。】18.多选题:下面关于池化的描述中,正确的的说法有哪些?

选项:

A、池化方法也可以自定义

B、池化在CNN中没有增加可训练的参数,但减少较多的计算量,加快模型训练时间

C、在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征

D、池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化

答案:【池化方法也可以自定义;池化在CNN中没有增加可训练的参数,但减少较多的计算量,加快模型训练时间;在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征】19.多选题:以下哪些方法能改进卷积神经网络的训练质量?

选项:

A、权重归一化

B、dropout

C、batchnomalization

D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升

答案:【权重归一化;dropout;batchnomalization】20.多选题:下面有关卷积神经网络的说法哪些是正确的?

选项:

A、卷积核的高和宽不一定是相等的,且一般大小取奇数

B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0

C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取

D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能

答案:【卷积核的高和宽不一定是相等的,且一般大小取奇数;在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0;卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能】21.多选题:有关通道的说法,哪些说法是正确的?

选项:

A、卷积层的输入特征图的通道数和输出特征图的通道数是相同的

B、通道数越多,获得的特征图越多,网络获得的特征越充分

C、随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能

D、在卷积操作时,每个卷积核要对输入特征图的所有通道分别做卷积后求和,得到对应的新特征图

答案:【通道数越多,获得的特征图越多,网络获得的特征越充分;随着卷积网络深度的增加,一般使用更小的卷积核和更多的通道,兼顾训练速度和网络分类性能】22.多选题:以下有关卷积神经网络的说法,哪些是错误的?

选项:

A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化

B、共享权重大大减少了参数的个数,降低了网络的复杂度

C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力

D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快

答案:【卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化;卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快】23.单选题:以股票预测为例,在同样的条件下,二维卷积的准确度一定好好于一维卷积。

选项:

A、正确

B、错误

答案:【错误】24.单选题:在卷积网络中,卷积层的参数是卷积核和偏置,池化层没有参数,因此在误差反向传播时只要优化卷积层的参数。

选项:

A、正确

B、错误

答案:【正确】25.单选题:GoogLeNet使用了全局平均池化替代全连接层,使网络参数大幅减少。

选项:

A、正确

B、错误

答案:【正确】26.单选题:池化(下采样)层的神经元不具有需要优化的参数,但它们影响反向传播的计算。

选项:

A、正确

B、错误

答案:【错误】第四单元典型卷积神经网络算法典型卷积神经网络算法1.单选题:AlexNet使用ReLU激活函数的好处不包括以下哪个方面?

选项:

A、缓解了梯度消失问题

B、提高l网络训练速度

C、梯度为0时神经元难以正常工作

D、开销小、计算快

答案:【梯度为0时神经元难以正常工作】2.单选题:以下哪个不是AlexNet的创新点?

选项:

A、dropout

B、Relu激活函数和重叠池化

C、双GPU训练

D、共享权重

答案:【共享权重】3.单选题:梯度消失和梯度爆炸不会导致下面哪种情况?

选项:

A、梯度消失会导致网络训练变慢

B、梯度消失使网络性能不佳,分类准确度低

C、梯度爆炸使网络训练时代价函数震荡,不利于收敛

D、梯度爆炸会加快网络训练,更易达到最优解

答案:【梯度爆炸会加快网络训练,更易达到最优解】4.单选题:ResNet的特点不包括以下哪一点?

选项:

A、减少深层网络的梯度消失问题

B、特征的重用

C、增强特征的获取能力

D、模型参数明显增加

答案:【模型参数明显增加】5.单选题:ResNet中引入shortcut的功能不包括以下哪一个?

选项:

A、ResNet的梯度通过shortcut回到更早的层,缓解了网络因为深度增大导致的梯度消失

B、引出了残差模块,简化了学习

C、改善了网络的特征获取能力

D、减少了计算量

答案:【减少了计算量】6.单选题:对于GoogLeNet网络,以下哪个说法是错误的?

选项:

A、为适应不同大学的图形特征的获取,采用了多种大小的卷积核

B、网络的宽度和深度都得到了加强,特征获得更充分

C、通过线性堆叠各种Inception模块,在不明显增加网络课训练参数的情况下,提升网络的性能

D、GoogLeNetL的两个辅助分类器的主要目的是增加分类子模型,提高分类准确度

答案:【GoogLeNetL的两个辅助分类器的主要目的是增加分类子模型,提高分类准确度】7.单选题:以下卷积神经网络优化的方法正确的是哪个?

选项:

A、卷积层使用卷积+ReLU+batchnormalization的结构

B、mini-batch的batch值越大越好

C、增加池化层的个数可以提高网络训练参数,但降低了网络性能

D、激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力

答案:【增加池化层的个数可以提高网络训练参数,但降低了网络性能】8.单选题:VGG对图像的分类准确度高于AlexNet的原因可能不是下面的哪一项?

选项:

A、较小的卷积核

B、更多的隐层(深度大)

C、训练次数多

D、多个卷积层组成的模块

答案:【训练次数多】9.单选题:有关VGG网络的说法,以下哪个说法是错误的?

选项:

A、多个3X3小卷积的级联效果与5X5和7X7的大卷积核功能相仿

B、使用了dropout减少过拟合

C、使用不同数量的卷积核拼成模块,同一模块特征图的尺寸不变。

D、卷积层与池化层是一一配对的

答案:【卷积层与池化层是一一配对的】10.单选题:在池化中,当步长小于卷积核的大小时会称为重叠池化。与非重叠池化相比,下面哪个不是重叠池化的优点?

选项:

A、损失信息少

B、获得的图像特更丰富

C、提高卷积神经网络的正确率

D、减少计算量

答案:【减少计算量】11.多选题:哪些权重的取值或调整方法可以改善卷积神经网络的训练和性能?

选项:

A、He初始化

B、batchnormalization

C、dropout

D、任意随机初始化

答案:【He初始化;dropout】12.多选题:以下有

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论