【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案_第1页
【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案_第2页
【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案_第3页
【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案_第4页
【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案_第5页
已阅读5页,还剩39页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

【答案】《人工智能之模式识别》(北京理工大学)章节作业慕课答案有些题目顺序不一致,下载后按键盘ctrl+F进行搜索模块1课程导论课程导论单元测验1.单选题:深度学习属于哪种类型的模式识别算法?

选项:

A、结构模式识别

B、统计模式识别

C、模糊模式识别

D、句法模式识别

答案:【统计模式识别】2.单选题:下列选项中对模式识别定义正确的是?

选项:

A、对事物所具有的特征进行完全匹配

B、事物所具有的共同特征

C、依据事物的特征进行概念归类的过程

D、其余3个答案都对

答案:【依据事物的特征进行概念归类的过程】3.单选题:模式识别中识别的基础和本质是____。

选项:

A、抽象和认知

B、认知和分类

C、抽象和分类

D、识别和分类

答案:【认知和分类】4.多选题:下列说法中正确的是?

选项:

A、模式识别是人工智能领域中的感知技术

B、模式识别是根据事物的特征进行归类的过程

C、模式识别技术包括认知和识别两个过程

D、模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用

答案:【模式识别是人工智能领域中的感知技术;模式识别是根据事物的特征进行归类的过程;模式识别技术包括认知和识别两个过程;模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用】5.多选题:以下选项中属于模式识别应用领域的是?

选项:

A、人脸识别

B、语音识别

C、脑电识别

D、自然语言理解

E、手势识别

F、目标跟踪

答案:【人脸识别;语音识别;脑电识别;自然语言理解;手势识别;目标跟踪】6.多选题:模式识别的主要算法包括以下哪些?

选项:

A、线性分类器算法

B、贝叶斯分类器算法

C、模糊模式识别算法

D、神经网络模式识别算法

答案:【线性分类器算法;贝叶斯分类器算法;模糊模式识别算法;神经网络模式识别算法】7.单选题:在模式识别技术中,认知是从一类事物的具体样本中抽象出类别共同特征的过程。

选项:

A、正确

B、错误

答案:【正确】8.单选题:模式识别技术属于人工智能领域中的决策技术。

选项:

A、正确

B、错误

答案:【错误】9.单选题:人工智能技术包括感知,决策,行动三个方面的技术。

选项:

A、正确

B、错误

答案:【正确】10.单选题:模式识别技术是研究如何使计算机具备识别能力的学科。

选项:

A、正确

B、错误

答案:【正确】11.单选题:1986年美国认知神经学家Rumelhart等人提出了深度学习。

选项:

A、正确

B、错误

答案:【错误】12.单选题:1995年前苏联统计学家和数学家Vapnik等人提出了支持向量机。

选项:

A、正确

B、错误

答案:【正确】13.单选题:识别的基础是认知,识别的本质是分类。

选项:

A、正确

B、错误

答案:【正确】14.单选题:模式识别是研究如何使计算机具识别能力的学科,而不是研究生物识别能力的机理。

选项:

A、正确

B、错误

答案:【正确】15.单选题:在模式识别中,识别是依据事物的特征进行全部特征匹配的过程。

选项:

A、正确

B、错误

答案:【错误】模块2模式识别系统模式识别系统单元测验1.单选题:造成维数灾难的原因是____。

选项:

A、训练集样本数量不足

B、训练集样本数量过多

C、带标签的样本数量过多

D、带标签的样本数量不足

答案:【训练集样本数量不足】2.单选题:得到特征后一定要进行特征降维吗?

选项:

A、并不是一定要进行特征降维,可以自行分析生成结果,判断是否需要

B、必须要进行,否则会对分类结果造成巨大影响

C、没必要进行,特征的维度对分类结果没有影响

D、其余三个说法都不对

答案:【并不是一定要进行特征降维,可以自行分析生成结果,判断是否需要】3.单选题:给定一个样本集但是没有给每一个样本贴上类别标签的学习方式称为____。

选项:

A、无监督学习

B、有监督学习

C、深度学习

D、机器学习

答案:【无监督学习】4.多选题:下列选项中,属于模式识别系统的环节是?

选项:

A、预处理与特征生成

B、分类器训练

C、特征降维

D、模式采集

E、分类决策

答案:【预处理与特征生成;分类器训练;特征降维;模式采集;分类决策】5.多选题:以下选项中哪些属于统计模式识别?

选项:

A、线性分类器

B、贝叶斯分类器

C、最近邻分类器

D、神经网络分类器

E、结构聚类算法

F、句法模式识别

答案:【线性分类器;贝叶斯分类器;最近邻分类器;神经网络分类器】6.单选题:样本中能够用于识别的某个重要特性称为特征,样本转化为特征表达后的整体构成了特征空间。

选项:

A、正确

B、错误

答案:【正确】7.单选题:过拟合是指为追求样本集中样本的正确分类性导致分类器泛化能力降低。

选项:

A、正确

B、错误

答案:【正确】8.单选题:泛化能力是指训练好的分类器对已知样本的正确分类能力。

选项:

A、正确

B、错误

答案:【错误】9.单选题:有监督学习和无监督学习的区别是一个需要从人类的经验中进行学习一个不需要。

选项:

A、正确

B、错误

答案:【正确】10.单选题:在数学上,模式识别中的特征空间可以由向量空间和集合空间来表达。

选项:

A、正确

B、错误

答案:【正确】11.单选题:模式识别分类的依据是样本的共同特征和分类决策规则。

选项:

A、正确

B、错误

答案:【正确】12.单选题:模式识别的核心是分类器。

选项:

A、正确

B、错误

答案:【正确】13.单选题:整个模式识别系统中各个环节的完成完全是计算机自主实现的,不需要人工干预。

选项:

A、正确

B、错误

答案:【正确】14.单选题:当出现维数灾难时,可以通过增加样本数量来缓解分类器性能下降的问题。

选项:

A、正确

B、错误

答案:【正确】15.单选题:模板匹配算法对车牌数字和手写数字的识别结果精度一样。

选项:

A、正确

B、错误

答案:【错误】16.单选题:特征降维的方法包括特征选择和特征提取。

选项:

A、正确

B、错误

答案:【正确】17.单选题:特征的维度可以无限增加。

选项:

A、正确

B、错误

答案:【错误】18.单选题:无监督学习是使用没有类别标签的训练集进行分类学习的学习模式。

选项:

A、正确

B、错误

答案:【正确】19.单选题:有监督学习是分类器从有类别标签的训练集中学习到具体的分类决策规则的学习模式。

选项:

A、正确

B、错误

答案:【正确】20.单选题:在模式识别系统中,分类决策是在分类器训练结束以后对已经分好类的样本按照已建立起来的分类决策规则进行分类的过程。

选项:

A、正确

B、错误

答案:【错误】21.单选题:在模式识别系统中,分类器训练是分类决策规则的学习过程,由人根据样本的情况自动进行。

选项:

A、正确

B、错误

答案:【错误】22.单选题:在模式识别系统中,预处理是通过各种滤波降噪措施降低干扰的影响,增强有用信息,生成在分类上具有意义的各种特征。

选项:

A、正确

B、错误

答案:【正确】23.单选题:在模式识别系统中,模式采集是针对具体物理样本所包含的各种信息,将其通过采集转换得到计算机能接受和处理的数据。

选项:

A、正确

B、错误

答案:【正确】24.单选题:模式识别系统由模式采集,预处理与特征生成,特征降维,分类器训练构成。

选项:

A、正确

B、错误

答案:【错误】25.单选题:导致维数灾难的根本原因是训练集样本特征过多。

选项:

A、正确

B、错误

答案:【错误】模块3线性分类器线性判别与感知器算法单元测验1.单选题:感知器算法应用什么方法求解准则函数的最优值?

选项:

A、梯度下降法

B、最小均方误差

C、最大均方误差

D、平均值法

答案:【梯度下降法】2.单选题:为什么批量梯度下降法(BGD)寻优路径相对比较平滑?

选项:

A、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向

B、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向

C、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向

D、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向

答案:【批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向】3.单选题:下列选项中关于随机梯度下降法的说法,正确的是?

选项:

A、随机梯度下降法最终收敛的点不一定是全局最优

B、随机梯度下降法最终收敛的点一定是全局最优

C、无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解

D、无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解

答案:【随机梯度下降法最终收敛的点不一定是全局最优】4.单选题:梯度法中,步长的取值可以小于或等于0吗?

选项:

A、不可以

B、可以

C、步长取值可以任意

D、其余三种说法都不对

答案:【不可以】5.单选题:在绝对可分的情况下,以下哪种表述是正确的?

选项:

A、存在不可识别区域较多的问题

B、多分类线性判别函数形式复杂

C、多分类线性判别函数的意义不明确

D、分类器的整体性能比较好

答案:【存在不可识别区域较多的问题】6.单选题:用二分类问题的组合来确定三分类的分类决策规则时,在什么情况下是一定可分的?

选项:

A、仅有一个判别函数值大于0

B、有两个判别函数值大于0

C、三个判别函数值都小于0

D、三个判别函数值都大于0

答案:【仅有一个判别函数值大于0】7.多选题:线性分类器训练的一般思路是?

选项:

A、寻找准则函数

B、通过求准则函数的极小值求得最优解

C、寻找分类规则

D、根据分类规则进行分类

答案:【寻找准则函数;通过求准则函数的极小值求得最优解】8.多选题:下列选项中,哪些因素会影响到感知器算法中随机梯度下降法的求解结果?

选项:

A、初始权向量设置

B、学习速率

C、样本处理顺序不同

D、学习规则

答案:【初始权向量设置;学习速率;样本处理顺序不同】9.多选题:下列选项中,属于感知器的特点的是?

选项:

A、感知器具有多路输入、单路输出

B、感知器没有反馈和内部状态

C、感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于等于阈值时输出0

D、单个感知器可以解决非线性分类问题

答案:【感知器具有多路输入、单路输出;感知器没有反馈和内部状态;感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于等于阈值时输出0】10.单选题:在模式识别中,广义线性化是指从低维特征空间映射到高维特征空间,从而将一个非线性不可分问题映射为一个线性可分问题。

选项:

A、正确

B、错误

答案:【正确】11.单选题:为平衡感知器算法中的求解精度和速度之间的关系,可以通过固定学习速率进行训练。

选项:

A、正确

B、错误

答案:【错误】12.单选题:为平衡感知器算法中的求解精度和速度之间的关系,可以通过绝对修正学习速率进行训练。

选项:

A、正确

B、错误

答案:【正确】13.单选题:采用最大值可分方法,需要的判别函数数量是k的平方。(假设类别数为k)

选项:

A、正确

B、错误

答案:【错误】14.单选题:感知器算法权向量递推公式修正的符号是“+”。

选项:

A、正确

B、错误

答案:【正确】15.单选题:样本到决策边界的距离正比于判别函数的值。

选项:

A、正确

B、错误

答案:【正确】16.单选题:感知器算法的两种权向量更新方式都属于随机梯度下降法。

选项:

A、正确

B、错误

答案:【错误】17.单选题:引入松弛变量,可以将约束条件转化为等式方程组来求解。

选项:

A、正确

B、错误

答案:【正确】18.单选题:感知器算法的最大缺陷是无法解决线性不可分问题。

选项:

A、正确

B、错误

答案:【正确】19.单选题:为平衡感知器算法中的求解精度和速度之间的关系,可以通过最优化学习速率进行训练。

选项:

A、正确

B、错误

答案:【正确】20.单选题:单个感知器神经元只能做二分类判别。

选项:

A、正确

B、错误

答案:【正确】21.单选题:在超定等式约束的条件下,线性分类器的求解仍然是一个最优化问题。

选项:

A、正确

B、错误

答案:【正确】22.单选题:为平衡感知器算法中的求解精度和速度之间的关系,可以通过变速学习速率进行训练。

选项:

A、正确

B、错误

答案:【正确】23.单选题:批量梯度下降法(BGD)寻优路径相对比较平滑。

选项:

A、正确

B、错误

答案:【正确】24.单选题:感知器算法可以从解区域中优中取优。

选项:

A、正确

B、错误

答案:【错误】LMSE算法与支持向量机单元测验1.单选题:采用____方法能够使线性分类器的学习在解区域中求得最优解。

选项:

A、最小均方误差

B、最大均方误差

C、平均值法

D、梯度下降法

答案:【最小均方误差】2.单选题:下列选项中属于支持向量机面对的线性不可分问题的是?

选项:

A、异常点干扰和非线性分类

B、异常点干扰和线性分类

C、非异常点干扰和线性分类

D、非异常点干扰和非线性分类

答案:【异常点干扰和非线性分类】3.单选题:支持向量机分类模型对误差的容忍程度与惩罚因子有什么关系?

选项:

A、惩罚因子越大,容忍度越低

B、惩罚因子越大,容忍度越高

C、二者之间存在联系,但是不能找到联系间存在的规律

D、二者没有联系

答案:【惩罚因子越大,容忍度越低】4.单选题:①更新权向量w(k+1);②令k=k=1,进行下一步递推,计算误差向量,直至e(k)小于等于0;③当k=0时,设定初始松弛变量b(0)的值,计算初始权向量;④更新松弛变量b(k+1);⑤计算误差向量e(k),H-K算法的正确排序是?

选项:

A、③⑤①④②

B、②⑤①③④

C、③①⑤④②

D、①②③④⑤

答案:【③⑤①④②】5.多选题:利用SVM将低维空间中的非线性问题映射到高维空间,存在哪些问题?

选项:

A、不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题

B、如何找到合适的映射函数φ

C、增加计算量,可能会因为维数灾难无法解决

D、能够确定映射到的高维空间的维度

E、能够找到合适的映射函数φ

F、增加计算量时可以避免出现维数灾难

答案:【不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题;如何找到合适的映射函数φ;增加计算量,可能会因为维数灾难无法解决】6.多选题:分类器函数的VC维h越大,将使下列选项中的哪些数据发生变化?

选项:

A、置信风险越大

B、结构风险越大

C、分类器泛化能力越差

D、经验风险越大

答案:【置信风险越大;结构风险越大;分类器泛化能力越差】7.单选题:代价函数是对于单个样本的模型得到的输出与该样本对应的真实输出之间的误差。

选项:

A、正确

B、错误

答案:【错误】8.单选题:线性支持向量机是把具有最大分类间隔的最优线性判别函数的求解转化为求解最小权向量的二次规划问题。

选项:

A、正确

B、错误

答案:【正确】9.单选题:结构风险指训练好的分类器错分样本占有的比例,经验风险指训练好的分类器面对未知样本时分类错误的概率。

选项:

A、正确

B、错误

答案:【错误】10.单选题:支持向量机只能处理线性可分类的模式识别问题。

选项:

A、正确

B、错误

答案:【错误】11.单选题:SVM的优点是不需要大量的样本且具有较强的泛化能力。

选项:

A、正确

B、错误

答案:【正确】12.单选题:分类间隔由所有训练集样本决定。

选项:

A、正确

B、错误

答案:【错误】13.单选题:H-K算法是LMSE中一种比较优异的算法。

选项:

A、正确

B、错误

答案:【正确】14.单选题:使用核函数可以在低维空间中直接计算某一些高维空间中的向量内积。

选项:

A、正确

B、错误

答案:【正确】15.单选题:在相同维度的特征空间中,分类器函数形式的阶次越低,其VC维也越小,在样本集数量有限的情况下,训练好的分类器结构风险也越小,泛化能力越强。

选项:

A、正确

B、错误

答案:【正确】16.单选题:代价函数和损失函数之间没有联系。

选项:

A、正确

B、错误

答案:【错误】17.单选题:损失函数是样本整体的损失函数的期望。

选项:

A、正确

B、错误

答案:【错误】18.单选题:H-K算法的出发点不是以均方误差为准则函数的LMSE算法。

选项:

A、正确

B、错误

答案:【错误】19.单选题:损失函数是模型得到的输出与该样本对应的真实输出之间的差值。

选项:

A、正确

B、错误

答案:【正确】20.单选题:Mercer定理是当存在一个函数对样本集中所有样本间的函数值构成的矩阵是正定的。

选项:

A、正确

B、错误

答案:【错误】模块4贝叶斯分类器贝叶斯分类器单元测验1.单选题:对于需要考虑分类决策带来的损失的模式识别问题,应当使用____。

选项:

A、最小风险贝叶斯分类

B、最小错误率贝叶斯分类

C、朴素贝叶斯分类

D、半朴素贝叶斯分类

答案:【最小风险贝叶斯分类】2.单选题:在不知道类条件概率分布的情况下,要进行错误率最小的分类决策,应当依据?

选项:

A、先验概率

B、后验概率

C、特征值大小

D、类条件概率

答案:【先验概率】3.单选题:贝叶斯分类器一定需要知道准确的先验概率吗?

选项:

A、不需要,因为新的信息会逐步修正先验概率

B、需要,因为后验概率计算需要使用先验概率

C、不需要,因为后验概率的计算与先验概率无关

D、其余3种说法都不对

答案:【不需要,因为新的信息会逐步修正先验概率】4.单选题:事件A(结果A)出现后,各不相容的条件Bi存在的概率称为____。

选项:

A、后验概率

B、先验概率

C、类条件概率

D、全概率

答案:【后验概率】5.单选题:以下关于贝叶斯分类的特点的说法中错误的是?

选项:

A、先验概率是未知的

B、分类决策不存在错误率

C、先验概率是已知的

D、以新获得的信息对先验概率进行修正

E、分类决策存在错误率

答案:【先验概率是未知的】6.单选题:同一个训练集,最近邻分类的错误率不会低于____的错误率。

选项:

A、最小错误率贝叶斯分类

B、最小风险贝叶斯分类

C、支持向量机

D、感知器分类

答案:【最小错误率贝叶斯分类】7.单选题:最近邻方法属于____。

选项:

A、非参数化方法

B、参数化方法

C、结构聚类算法

D、句法模式识别

答案:【非参数化方法】8.单选题:极大似然估计中,使用对数似然函数是为了____。

选项:

A、便于似然函数求导

B、将求极大值问题转化为求极小值问题

C、提高似然函数灵敏度

D、便于似然函数求和

答案:【便于似然函数求导】9.多选题:贝叶斯分类器的训练,就是从样本集数据中估计出____。

选项:

A、先验概率

B、类条件概率

C、后验概率

D、全概率

答案:【先验概率;类条件概率】10.多选题:以下哪些预测问题可以用贝叶斯分类器来处理?

选项:

A、天气预报

B、股票预测

C、彩票号码预测

D、分子运动方向预测

答案:【天气预报;股票预测】11.多选题:以下哪些是K近邻分类器的优化算法?

选项:

A、快速K近邻算法

B、压缩近邻法

C、最近邻算法

D、K近邻算法

答案:【快速K近邻算法;压缩近邻法】12.多选题:下列说法中正确的是?

选项:

A、k近邻分类器存在计算量过大和存储量过大两大缺陷

B、贝叶斯公式表示了如何得到逆概率推理的结果

C、确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交

D、当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率

答案:【k近邻分类器存在计算量过大和存储量过大两大缺陷;贝叶斯公式表示了如何得到逆概率推理的结果;确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交;当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率】13.多选题:下列选项中属于贝叶斯分类器的特点的是?

选项:

A、先验概率已知,以新获得的信息对先验概率进行修正

B、分类决策存在错误率

C、先验概率未知,以新获得的信息对先验概率进行修正

D、分类决策不存在错误率

答案:【先验概率已知,以新获得的信息对先验概率进行修正;分类决策存在错误率】14.单选题:贝叶斯估计是把待估计的参数看作具有某种分布形式的随机变量,通过对第i类学习样本xi的观察,使概率密度分布P(xi|θ)转化为后验概率P(θ|xi),获得参数分布的概率密度函数,再通过求取其数学期望获得参数估计值。

选项:

A、正确

B、错误

答案:【正确】15.单选题:快速k近邻算法和压缩近邻法改进了k近邻算法存在的计算量过大和存储量过大两个问题。

选项:

A、正确

B、错误

答案:【正确】16.单选题:极大似然估计是把估计的所有样本作为结果,把概率分布的参数作为条件,最有可能抽取到已知样本集中所有样本的概率分布参数就是极大似然的参数。

选项:

A、正确

B、错误

答案:【正确】17.单选题:最近邻分类器的错误率比最小错误率贝叶斯分类器的错误率低。

选项:

A、正确

B、错误

答案:【错误】18.单选题:贝叶斯分类器是一类典型的参数化模式识别方法。

选项:

A、正确

B、错误

答案:【正确】19.单选题:K近邻分类器错误率的下界是最小错误率贝叶斯分类器的错误率。

选项:

A、正确

B、错误

答案:【正确】20.单选题:采用贝叶斯分类原理得到的分类结果是完全正确的。

选项:

A、正确

B、错误

答案:【错误】21.单选题:当最小错误率贝叶斯分类的错误率最小时,最大后验概率的正确率为最大。

选项:

A、正确

B、错误

答案:【正确】22.单选题:当样本的类条件概率是正态分布且各类同分布的情况下,最小错误率贝叶斯分类器是线性分类器。

选项:

A、正确

B、错误

答案:【正确】23.单选题:极大似然估计是把待估计的参数看作不确定的未知量,根据训练样本集的数据求取该未知参数的最优估计值。

选项:

A、正确

B、错误

答案:【错误】24.单选题:类条件概率的估计中采用参数估计常用的方法是极大似然估计和贝叶斯估计。

选项:

A、正确

B、错误

答案:【正确】25.单选题:类条件概率可以通过参数估计和非参数估计进行估计。

选项:

A、正确

B、错误

答案:【正确】26.单选题:多元正态概率分布下的最小错误率贝叶斯决策的决策面方程是gi(x)-gj(x)=0。

选项:

A、正确

B、错误

答案:【正确】27.单选题:最小错误率贝叶斯分类器的分类决策规则确定了分类决策的边界。

选项:

A、正确

B、错误

答案:【正确】28.单选题:最小错误率贝叶斯分类器是将样本划分到后验概率最大的类别中。

选项:

A、正确

B、错误

答案:【正确】29.单选题:贝叶斯分类主要应用于处理确定统计分类。

选项:

A、正确

B、错误

答案:【错误】30.单选题:非参数估计是在知道或者假设类条件概率密度的分布形式的基础上,直接用样本集中所包含的信息来估计样本的概率分布情况。

选项:

A、正确

B、错误

答案:【错误】模块5特征降维特征降维单元测验1.单选题:分支定界法步骤的正确排序是?①将过程中所有可能的组合情况组合成一棵搜索树;特征数少的组合作为特征数多的组合的子节点②如遇到某个节点的准则函数值比已得到的特征数更少的节点的准则函数值还小,则放弃其下所有节点的计算③按特定路线遍历整个搜索树,计算所遇到的每一个节点的准则函数④从原特征数D开始依次减少特征维数,直到达到所需的特征数d

选项:

A、④①③②

B、④③①②

C、③④①②

D、③①②④

答案:【④①③②】2.单选题:分支定界法利用了特征选取准则函数构造时的哪个特性?

选项:

A、与分类正确率有单调递增关系

B、当特征独立时具有可加性

C、具有标量测度特性

D、对特征数量具有单调性

答案:【对特征数量具有单调性】3.单选题:主成分分析法的具体做法是对原始空间做____变换。

选项:

A、平移

B、旋转

C、线性

D、非线性

答案:【线性】4.多选题:度量类别可分性的准则函数应该满足哪些条件?

选项:

A、与分类正确率有单调递增关系

B、当特征独立时具有可加性

C、具有标量测度特性

D、对特征数量具有单调性

答案:【与分类正确率有单调递增关系;当特征独立时具有可加性;具有标量测度特性;对特征数量具有单调性】5.多选题:下列选项中属于特征降维的优点的是?

选项:

A、增加有用的特征

B、降低模式识别任务的复杂度

C、提升分类决策的正确率

D、用更少的代价设计出更加优秀的模式识别系统

答案:【降低模式识别任务的复杂度;提升分类决策的正确率;用更少的代价设计出更加优秀的模式识别系统】6.多选题:下列选项中属于穷举法的特点的是?

选项:

A、可以找到全局最优解

B、计算量大

C、难以找到全局最优的解

D、计算量较小

答案:【可以找到全局最优解;计算量大】7.多选题:下列关于分支定界法的特点的说法中正确的是?

选项:

A、能否得到最优解,取决于准则函数J对特征数量是否单调

B、计算次数可能比穷举法多也可能比穷举法少

C、遍历搜索树可以有很多种方法

D、能否取得最优解与准则函数无关

E、计算次数一定比穷举法少

F、遍历搜索树只能采用回溯法

答案:【能否得到最优解,取决于准则函数J对特征数量是否单调;计算次数可能比穷举法多也可能比穷举法少;遍历搜索树可以有很多种方法】8.多选题:下列关于分支定界法中搜索树的构造的说法中正确的是?

选项:

A、根节点为0级,包含D个特征

B、每一级舍弃1个特征

C、下一级在上一级的基础上继续舍弃特征

D、整个搜索树共有D-d级

E、为避免组合重复,从左至右每个子树包含的分支依次减少

答案:【根节点为0级,包含D个特征;每一级舍弃1个特征;下一级在上一级的基础上继续舍弃特征;整个搜索树共有D-d级;为避免组合重复,从左至右每个子树包含的分支依次减少】9.单选题:顺序后退法(SBS)是从D个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。

选项:

A、正确

B、错误

答案:【错误】10.单选题:顺序前进法的缺点是不能剔除已入选的特征,无法保证全局最优。

选项:

A、正确

B、错误

答案:【正确】11.单选题:顺序前进法(SFS)是从零开始,每次从未入选的特征中选择一个特征,使得它与已入选的特征组合所得到的J值最大,是一种特征选择的次优算法。

选项:

A、正确

B、错误

答案:【正确】12.单选题:类内类间距离是指各类中各特征向量之间的距离的最大值。

选项:

A、正确

B、错误

答案:【错误】13.单选题:常用的类别可分性度量准则函数有基于类内类间距离和基于概率距离的准则函数。

选项:

A、正确

B、错误

答案:【正确】14.单选题:特征提取或特征选择方案的优化,其准则函数都应该与类别可分性呈单调递减关系。

选项:

A、正确

B、错误

答案:【错误】15.单选题:特征提取是通过映射得到一组新的特征,特征选择是从高维特征中选出一组最有效的特征以达到降低特征空间维数的目的。

选项:

A、正确

B、错误

答案:【正确】16.单选题:主成分分析法的核心思想是样本集在各个不同的方向上进行投影其方差是不同的,方差越大的方向,包含的信息量越大,就越是整个样本集分布特性的“主成分”。

选项:

A、正确

B、错误

答案:【正确】17.单选题:类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。

选项:

A、正确

B、错误

答案:【正确】18.单选题:特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。

选项:

A、正确

B、错误

答案:【正确】19.单选题:分支定界法计算量一定比穷举法小。

选项:

A、正确

B、错误

答案:【错误】20.单选题:动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。

选项:

A、正确

B、错误

答案:【正确】21.单选题:主成分分析法是对针对类别可分性,对已经有的特征进行特征降维的方法。

选项:

A、正确

B、错误

答案:【错误】22.单选题:特征提取和特征选择是对整个样本集进行特征降维的方法之一。

选项:

A、正确

B、错误

答案:【错误】23.单选题:特征降维针对整个样本集进行特征降维是通过发现最能体现样本间差异性的特征维度实现的。

选项:

A、正确

B、错误

答案:【正确】24.单选题:特征降维的方法可以分为对整个样本集进行特征降维和针对类别之间的可分性对已经有的特征进行特征降维。

选项:

A、正确

B、错误

答案:【正确】25.单选题:进行特征降维可以降低一个模式识别任务的计算复杂度且有可能提升分类决策的正确率。

选项:

A、正确

B、错误

答案:【正确】模块6聚类算法聚类算法单元测验1.单选题:基于最近邻规则的试探法聚类的分类结果不受哪些因素的影响?

选项:

A、聚类中心的选择

B、待分类模式样本的排列顺序

C、阈值T的大小

D、样本分布的几何性质

E、分类准则函数的选取

答案:【分类准则函数的选取】2.单选题:数据预处理消除量纲标尺带来的不良影响的过程中,最常用的方法是____。

选项:

A、归一化处理

B、函数化处理

C、相对化处理

D、其余三个答案都不对

答案:【归一化处理】3.多选题:下列选项中属于常用聚类准则的是?

选项:

A、紧致性准则

B、散布准则

C、误差平方和准则

D、分布形式准则

答案:【紧致性准则;散布准则;误差平方和准则;分布形式准则】4.多选题:下列选项中可以用于样本间相似度度量标准的是?

选项:

A、最短距离

B、最长距离

C、重心距离

D、类平均距离

E、曼哈顿距离

F、欧几里得距离

G、明考夫斯基距离

H、切比雪夫距离

答案:【曼哈顿距离;欧几里得距离;明考夫斯基距离;切比雪夫距离】5.多选题:下列选项中可以用于类间相似度度量标准的是?

选项:

A、最短距离

B、最长距离

C、重心距离

D、类平均距离

E、曼哈顿距离

F、欧几里得距离

G、明考夫斯基距离

H、切比雪夫距离

答案:【最短距离;最长距离;重心距离;类平均距离】6.多选题:数据聚类具有以下哪些特点?

选项:

A、聚类是对整个样本集的划分,而不是对单个样本的识别

B、聚类的依据是“样本间的相似程度”

C、聚类结果是“无遗漏”、“无重复”的

D、数据聚类是典型的的有监督学习

答案:【聚类是对整个样本集的划分,而不是对单个样本的识别;聚类的依据是“样本间的相似程度”;聚类结果是“无遗漏”、“无重复”的】7.多选题:数据聚类中特征的选定应该考虑以下哪些因素?

选项:

A、聚类任务的需求

B、特征对聚类任务的有效性

C、维度和算法效率

D、判别函数的选取

答案:【聚类任务的需求;特征对聚类任务的有效性;维度和算法效率】8.多选题:聚类算法可以应用在哪些领域?

选项:

A、指纹考勤

B、战场敌我识别

C、经济

D、信息检索

E、生物基因分析

F、数据处理

答案:【经济;信息检索;生物基因分析;数据处理】9.多选题:下列说法中正确的是?

选项:

A、数据聚类没有预先分好类的样本集

B、数据聚类没有已知的分类决策规则

C、数据聚类由待分样本特征的内在规律来驱动分类过程

D、聚类结果受特征选取和聚类准则的影响

E、聚类结果受相似度度量标准的影响

F、聚类结果受各特征量纲标尺的影响

答案:【数据聚类没有预先分好类的样本集;数据聚类没有已知的分类决策规则;数据聚类由待分样本特征的内在规律来驱动分类过程;聚类结果受特征选取和聚类准则的影响;聚类结果受相似度度量标准的影响;聚类结果受各特征量纲标尺的影响】10.单选题:常用聚类算法有试探法,层次法,迭代法,和密度法。

选项:

A、正确

B、错误

答案:【正确】11.单选题:样本间的相似度度量可以使用距离度量和非距离度量。

选项:

A、正确

B、错误

答案:【正确】12.单选题:完整的数据聚类过程一般包括选定特征,设定聚类准则,选择聚类算法和聚类结果评估。

选项:

A、正确

B、错误

答案:【错误】13.单选题:聚类可以使得各样本都能归入其中一类,且样本能够属于两类及以上。

选项:

A、正确

B、错误

答案:【错误】14.单选题:采用模糊聚类的方法会出现一个样本同时属于两个类别的情况。

选项:

A、正确

B、错误

答案:【正确】15.单选题:聚类结果是“无遗漏”和“无重复”的。

选项:

A、正确

B、错误

答案:【正确】16.单选题:聚类是对整个样本集的划分,而不是对单个样本的识别。

选项:

A、正确

B、错误

答案:【正确】17.单选题:聚类就是将样本集中的样本按照相似的程度划分成不同的类别。

选项:

A、正确

B、错误

答案:【正确】18.单选题:Kmeans算法属于有监督学习中的一种。

选项:

A、正确

B、错误

答案:【错误】19.单选题:最大最小距离聚类算法的结果与参数θ及第一个聚类中心的选择没有关系。

选项:

A、正确

B、错误

答案:【错误】20.单选题:最大最小距离聚类算法比基于最近邻规则的试探法聚类算法在聚类中心的确定上有更强的适应能力。

选项:

A、正确

B、错误

答案:【正确】21.单选题:归一化处理总是可以提升聚类效果。

选项:

A、正确

B、错误

答案:【错误】22.单选题:ISODATA算法是在k均值算法的基础上,增加对聚类结果的“合并”和“分裂”两个操作,并设定算法运行控制参数的一种聚类算法。

选项:

A、正确

B、错误

答案:【正确】23.单选题:动态聚类算法是一种通过反复修改聚类结果来进行优化以达到满意的聚类结果的迭代算法。

选项:

A、正确

B、错误

答案:【正确】24.单选题:每一个特征维度量纲标尺对聚类结果的影响实质上是在不同的量纲标尺下特征值取值大小出现了差异。

选项:

A、正确

B、错误

答案:【正确】25.单选题:层次聚类有融合算法和分解算法两个基本算法。

选项:

A、正确

B、错误

答案:【正确】模块7组合分类器组合分类器单元测试1.单选题:关于决策树,以下说法中错误的是?

选项:

A、决策树不要求样本集的各个维度的特征具有同质性

B、一般无法用基于距离的指标来衡量样本集划分结果的紧致性

C、一般不采用熵的概念来度量每个子样本集的纯度

D、决策树是有监督学习方法

答案:【一般不采用熵的概念来度量每个子样本集的纯度】2.单选题:下列选项中,属于Boosting方法的特点的是?

选项:

A、串行训练的算法,基分类器彼此关联

B、串行算法不断增加训练器训练偏差

C、基分类器应该选择偏差较小的算法

D、并行训练的算法,基分类器彼此关联

答案:【串行训练的算法,基分类器彼此关联】3.单选题:组合分类器主要有哪几种类型?

选项:

A、Bagging、Boosting、Stacking

B、Bagging、Ababoost、Stacking

C、Bagging、Ababoost、随机森林

D、Ababoost、随机森林、Stacking

答案:【Bagging、Boosting、Stacking】4.单选题:下列选项中,哪个不是Boosting方法的特点?

选项:

A、串行训练的算法

B、基分类器彼此关联

C、串行算法不断减小分类器训练偏差

D、组合算法可以减小分类输出方差

答案:【组合算法可以减小分类输出方差】5.多选题:下列关于集成算法的说法中正确的是?

选项:

A、可以对不同分类器算法进行集成

B、可以对相同分类器在不同条件下集成

C、集成算法无法在不同条件下进行集成

D、对数据集不同部分分配给不同分类器后集成

答案:【可以对不同分类器算法进行集成;可以对相同分类器在不同条件下集成;对数据集不同部分分配给不同分类器后集成】6.多选题:下列选项中属于Adaboost算法的特点的是?

选项:

A、算法的组合过程能减小偏差

B、基分类器要选择方差小、泛化能力强的弱分类器

C、只能解决二分类问题

D、异常数据(离群点)影响大

E、精度高,参数少,自适应能力强

F、不易实现并行化训练

答案:【算法的组合过程能减小偏差;基分类器要选择方差小、泛化能力强的弱分类器;只能解决二分类问题;异常数据(离群点)影响大;精度高,参数少,自适应能力强;不易实现并行化训练】7.多选题:下列选项中属于决策树分类器的特点的是?

选项:

A、有监督学习方法

B、无监督学习方法

C、速度快,分类决策规则明确

D、需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征

E、未考虑特征间的相关性

F、分类无偏性好,但容易发生过拟合

答案:【有监督学习方法;速度快,分类决策规则明确;需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征;未考虑特征间的相关性;分类无偏性好,但容易发生过拟合】8.多选题:下列选项中属于分类器训练过程中的特点的是?

选项:

A、分类器性能提升是匀速的,与是否接近最优结果无关

B、分类器越接近最优解,分类器性能提升越慢

C、分类器错误率高,稍微训练即可大幅提升训练结果

D、其余三种说法都对

答案:【分类器越接近最优解,分类器性能提升越慢;分类器错误率高,稍微训练即可大幅提升训练结果】9.多选题:设计一个组合分类器需要满足什么要求?

选项:

A、基分类器的分类正确率大于50%

B、每个基分类器的训练集和训练结果要有差异

C、基分类器的数量越多越好

D、组合分类器需要重点考虑方差和偏差

答案:【基分类器的分类正确率大于50%;每个基分类器的训练集和训练结果要有差异;组合分类器需要重点考虑方差和偏差】10.单选题:Boosting方法是采用并行训练的算法。

选项:

A、正确

B、错误

答案:【错误】11.单选题:随机森林算法是仅对决策树算法的集成。

选项:

A、正确

B、错误

答案:【正确】12.单选题:随机森林算法是一种集成算法。

选项:

A、正确

B、错误

答案:【正确】13.单选题:随机森林算法是以决策树为基分类器,采用各种随机化措施来增强整体泛化能力的一种Bagging组合分类器。

选项:

A、正确

B、错误

答案:【正确】14.单选题:Adaboost算法的自适应体现在,以每一个基分类器的分类错误率为依据来决定该分类器在整个组合分类器中的权重,分类器错误率越低,基分类器权重越大。

选项:

A、正确

B、错误

答案:【正确】15.单选题:三个臭皮匠,能顶一个诸葛亮没有数学依据。

选项:

A、正确

B、错误

答案:【错误】16.单选题:如果基分类器的方差较大,但无偏性较好,则应该选择能减小方差的组合方法。

选项:

A、正确

B、错误

答案:【正确】17.单选题:决策树分类器采用有监督学习模式。

选项:

A、正确

B、错误

答案:【正确】18.单选题:Boosting算法是通过不断提升基分类器的性能来得到更好的组合分类结果的方法。

选项:

A、正确

B、错误

答案:【正确】19.单选题:随机森林算法是一种典型的Stacking算法。

选项:

A、正确

B、错误

答案:【错误】20.单选题:Bagging方法具有可以并行训练的算法,组合算法可减小方差,基分类器算法需选择小偏差算法的特点。

选项:

A、正确

B、错误

答案:【正确】21.单选题:根据训练集获取方式和组合算法的不同,组合分类器的主要类型有Bagging,Boosting,Stacking。

选项:

A、正确

B、错误

答案:【正确】22.单选题:Adaboost算法不属于Boosting方法中的一种经典算法。

选项:

A、正确

B、错误

答案:【错误】23.单选题:组合分类器是将多个弱分类器组合为一个强分类器。

选项:

A、正确

B、错误

答案:【正确】24.单选题:使用组合分类器是为了在降低整体分类器训练代价的同时提升分类器的整体性能。

选项:

A、正确

B、错误

答案:【正确】模块8模糊模式识别模糊模式识别单元测验1.单选题:下列选项中,对模糊子集的交集表述正确的是?

选项:

A、对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小

B、对两个隶属度函数值求最大

C、用1减原模糊子集在支持点上隶属度函数值

D、对两个隶属度函数值求平均值

答案:【对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小】2.单选题:k均值聚类算法的准则函数是?

选项:

A、误差平方和函数

B、误差均值函数

C、误差和函数

D、误差平方差函数

答案:【误差平方和函数】3.单选题:下列说法中正确的是?

选项:

A、隶属度表达某个命题具有某个概念的程度

B、概率表达某个命题具有某个概念的可能性

C、今天有80%的可能性会下雪是模糊概念

D、他有50%的可能性是年轻人是精确概念

E、在高原地区水不能加热到100摄氏度的概率是80%是模糊概念

答案:【隶属度表达某个命题具有某个概念的程度】4.多选题:下列说法中正确的是?

选项:

A、层次聚类算法可以用模糊数学理论来改进

B、K-均值聚类算法不可以用模糊数学理论来改进

C、K-均值聚类算法可以用模糊数学理论来改进

D、层次聚类算法不能通过模糊数学理论来改进

答案:【层次聚类算法可以用模糊数学理论来改进;K-均值聚类算法可以用模糊数学理论来改进】5.多选题:下列选项中属于模糊模式识别的算法的是?

选项:

A、最大隶属度识别法

B、择近原则识别法

C、模糊层次聚类

D、模糊k-均值聚类

答案:【最大隶属度识别法;择近原则识别法;模糊层次聚类;模糊k-均值聚类】6.多选题:模糊关系中的等价关系有以下哪些性质?

选项:

A、自反性

B、对称性

C、传递性

D、旋转性

答案:【自反性;对称性;传递性】7.多选题:下列选项中属于模糊子集的基本运算的是?

选项:

A、交集

B、并集

C、补集

D、水平截集

答案:【交集;并集;补集;水平截集】8.单选题:在模糊k-均值聚类算法中模糊度控制权重m常取为1。

选项:

A、正确

B、错误

答案:【错误】9.单选题:隶属度函数表达了一个元素对一个集合的隶属程度。

选项:

A、正确

B、错误

答案:【正确】10.单选题:模糊等价关系具有传递闭包性。

选项:

A、正确

B、错误

答案:【正确】11.单选题:最大隶属度识别法可以获得样本的分类结果以及样本和各个类间相似程度的排序。

选项:

A、正确

B、错误

答案:【正确】12.单选题:离散模糊子集表达式中的“+”表示的是求和。

选项:

A、正确

B、错误

答案:【错误】13.单选题:模糊k-均值聚类算法是对硬聚类算法的一种改进。

选项:

A、正确

B、错误

答案:【正确】14.单选题:模糊k-均值聚类算法的聚类中心应满足使得准则函数取得极值的条件。

选项:

A、正确

B、错误

答案:【正确】15.单选题:k-均值聚类算法的聚类目标是使准则函数取得最小值。

选项:

A、正确

B、错误

答案:【正确】16.单选题:贴近度的值具有绝对意义,能够直接进行比较。

选项:

A、正确

B、错误

答案:【错误】17.单选题:贴近度是两个模糊子集间靠近的程度,可以认为是两个模糊子集间的距离或相似度的度量。

选项:

A、正确

B、错误

答案:【正确】18.单选题:模糊控制权重m代表每次聚类结果的模糊程度,m越小,隶属度函数的语义越强。

选项:

A、正确

B、错误

答案:【错误】19.单选题:最大隶属度函数识别法中的隶属度函数的值相当于模式识别中的判别函数。

选项:

A、正确

B、错误

答案:【正确】20.单选题:相似关系的成立需要满足对称性、自反性和传递性。

选项:

A、正确

B、错误

答案:【错误】21.单选题:模糊子集的交并补运算与经典子集运算兼容。

选项:

A、正确

B、错误

答案:【正确】22.单选题:隶属度函数用精确的数学方法描述了概念的模糊性。

选项:

A、正确

B、错误

答案:【正确】23.单选题:等价关系的成立只需满足对称性和自反性。

选项:

A、正确

B、错误

答案:【错误】24.单选题:水平截集具有确定的边界,建立了与模糊集合之间的桥梁,为去模糊化提供了基础。

选项:

A、正确

B、错误

答案:【正确】25.单选题:隶属度具有随机性,其结构具有二值性。

选项:

A、正确

B、错误

答案:【错误】26.单选题:模糊子集有3种表达方式。

选项:

A、正确

B、错误

答案:【正确】模块9神经网络分类器神经网络分类器单元测验1.单选题:下列关于BP网络的说法中错误的是?

选项:

A、是典型的分层前馈神经元网络

B、BP神经网络的基本网络结构从多层感知器而来

C、相邻两层神经元之间是全连接的

D、BP网络中每个神经元学习的规则不是误差反馈学习

答案:【BP网络中每个神经元学习的规则不是误差反馈学习】2.单选题:卷积中的池化不包括以下哪个优点?

选项:

A、保留更多信息

B、降维

C、减少计算量

D、过滤部分噪声

答案:【保留更多信息】3.单选题:下列关于对比散度算法的说法中错误的是?

选项:

A、对比散度算法采用无监督学习规则

B、对比散度算法中隐层也被称为特征提取器

C、随机梯度下降法迭代修正权向量和偏置量一次就能取得较好结果

D、多层同时完成在玻尔兹曼机中的预训练

答案:【多层同时完成在玻尔兹曼机中的预训练】4.单选题:下列关于感知器网络的表述中错误的是?

选项:

A、多层感知器网络在早期的发展中存在如何训练的问题

B、网络的层数多少和逼近能力呈正相关

C、隐层神经元的输出误差可以直接获取

D、BP网络中每个神经元学习的规则都是误差反馈学习

答案:【隐层神经元的输出误差可以直接获取】5.单选题:BP网络采用的损失函数是____?

选项:

A、均方误差函数

B、平均误差函数

C、最大误差函数

D、最小误差函数

答案:【均方误差函数】6.多选题:根据神经元连接方式和传递信息方向,人工神经元网络可以分为哪两大类?

选项:

A、前馈型网络

B、输出型网络

C、输入型网络

D、反馈型网络

答案:【前馈型网络;反馈型网络】7.多选题:下列选项中属于反馈型神经网络的是?

选项:

A、Hopfield网络

B、多层感知器网络

C、RBF网络

D、受限玻尔兹曼机

答案:【Hopfield网络;受限玻尔兹曼机】8.多选题:下列选项中属于深度学习的特点的是?

选项:

A、是层数较多的大规模神经网络

B、逐层抽象,发现数据集的特征

C、需要大规模并行计算能力的支持

D、需要大量样本进行训练

答案:【是层数较多的大规模神经网络;逐层抽象,发现数据集的特征;需要大规模并行计算能力的支持;需要大量样本进行训练】9.多选题:下列选项中属于BP网络的不足的是?

选项:

A、全连接网络计算大

B、隐层神经元数量难以确定

C、容易陷入局部极小值

D、无法做到深度很深,会产生梯度消失

答案:【全连接网络计算大;隐层神经元数量难以确定;容易陷入局部极小值;无法做到深度很深,会产生梯度消失】10.多选题:神经网络的输入输出关系由哪些因素决定?

选项:

A、输入权向量

B、偏置量θ

C、网络结构

D、激活函数

答案:【输入权向量;偏置量θ;网络结构;激活函数】11.多选题:下列选项中属于人工神经元网络的特点的是?

选项:

A、由简单单元构成复杂网络

B、能够大规模并行计算

C、能够分布式存储信息

D、具有非线性逼近能力

E、具有自适应学习能力

答案:【由简单单元构成复杂网络;能够大规模并行计算;能够分布式存储信息;具有非线性逼近能力;具有自适应学习能力】12.多选题:下列选项中关于前馈网络和反馈网络的说法中正确的是?

选项:

A、前馈网络表达输入和输出之间的映射关系

B、前馈网络表达输出与输入的共同作用

C、反馈网络表达输入和输出之间的映射关系

D、反馈网络表达输出与输入的共同作用

E、前馈网络为静态网络

F、前馈网络为动态网络

G、反馈网络为静态网络

H、反馈网络为动态网络

I、前馈网络输出不作用在网络的输入中

J、反馈网络下一时刻的输出与上一时刻的输出有关

答案:【前馈网络表达输入和输出之间的映射关系;反馈网络表达输出与输入的共同作用;前馈网络为静态网络;反馈网络为动态网络;前馈网络输出不作用在网络的输入中;反馈网络下一时刻的输出与上一时刻的输出有关】13.多选题:下列关于玻尔兹曼机的说法中正确的是?

选项:

A、玻尔兹曼机是一种存在全互联的神经网络模型

B、玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近

C、玻尔兹曼机的学习过程是调整权向量和网络结构的过程

D、玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果

答案:【玻尔兹曼机是一种存在全互联的神经网络模型;玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近;玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果】14.多选题:关于均值池化以下哪些表述是正确的?

选项:

A、LeNet中使用的是均值池化

B、均值池化可以较好地保留图像的背景信息

C、均值池化在处理图像时,图像的边缘会被钝化

D、均值池化在物体轮廓等特征提取中更有效

答案:【LeNet中使用的是均值池化;均值池化可以较好地保留图像的背景信息;均值池化在处理图像时,图像的边缘会被钝化】15.多选题:调节以下哪些部分可以对神经网络的性能造成影响?

选项:

A、激活函数

B、权值

C、阈值

D、隐层单元

答案:【激活函数;权值;阈值;隐层单元】16.单选题:前馈网络表达输入和输出之间的映射关系,为静态网络,输出作用在网络的输入中。

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论