【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案_第1页
【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案_第2页
【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案_第3页
【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案_第4页
【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案_第5页
已阅读5页,还剩23页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

【期末】《人工智能之模式识别》(北京理工大学)期末考试慕课答案有些题目顺序不一致,下载后按键盘ctrl+F进行搜索人工智能之模式识别(北京理工大学)期末测试1.单选题:下列选项中,对模糊子集的交集表述正确的是?

选项:

A、对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小

B、对两个隶属度函数值求最大

C、用1减原模糊子集在支持点上隶属度函数值

D、对两个隶属度函数值求平均值

答案:【对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小】2.单选题:下列说法中正确的是?

选项:

A、隶属度表达某个命题具有某个概念的程度

B、概率表达某个命题具有某个概念的可能性

C、今天有80%的可能性会下雪是模糊概念

D、他有50%的可能性是年轻人是精确概念

E、在高原地区水不能加热到100摄氏度的概率是80%是模糊概念

答案:【隶属度表达某个命题具有某个概念的程度】3.单选题:下列关于BP网络的说法中错误的是?

选项:

A、BP网络中每个神经元学习的规则不是误差反馈学习

B、是典型的分层前馈神经元网络

C、BP神经网络的基本网络结构从多层感知器而来

D、相邻两层神经元之间是全连接的

答案:【BP网络中每个神经元学习的规则不是误差反馈学习】4.单选题:卷积中的池化不包括以下哪个优点?

选项:

A、保留更多信息

B、降维

C、减少计算量

D、过滤部分噪声

答案:【保留更多信息】5.单选题:下列关于感知器网络的表述中错误的是?

选项:

A、隐层神经元的输出误差可以直接获取

B、多层感知器网络在早期的发展中存在如何训练的问题

C、网络的层数多少和逼近能力呈正相关

D、BP网络中每个神经元学习的规则都是误差反馈学习

答案:【隐层神经元的输出误差可以直接获取】6.单选题:关于决策树,以下说法中错误的是?

选项:

A、一般不采用熵的概念来度量每个子样本集的纯度

B、决策树不要求样本集的各个维度的特征具有同质性

C、一般无法用基于距离的指标来衡量样本集划分结果的紧致性

D、决策树是有监督学习方法

答案:【一般不采用熵的概念来度量每个子样本集的纯度】7.单选题:下列选项中,属于Boosting方法的特点的是?

选项:

A、串行训练的算法,基分类器彼此关联

B、串行算法不断增加训练器训练偏差

C、基分类器应该选择偏差较小的算法

D、并行训练的算法,基分类器彼此关联

答案:【串行训练的算法,基分类器彼此关联】8.单选题:分支定界法利用了特征选取准则函数构造时的哪个特性?

选项:

A、对特征数量具有单调性

B、与分类正确率有单调递增关系

C、当特征独立时具有可加性

D、具有标量测度特性

答案:【对特征数量具有单调性】9.单选题:基于最近邻规则的试探法聚类的分类结果不受哪些因素的影响?

选项:

A、分类准则函数的选取

B、聚类中心的选择

C、待分类模式样本的排列顺序

D、阈值T的大小

E、样本分布的几何性质

答案:【分类准则函数的选取】10.单选题:同一个训练集,最近邻分类的错误率不会低于____的错误率。

选项:

A、最小错误率贝叶斯分类

B、最小风险贝叶斯分类

C、支持向量机

D、感知器分类

答案:【最小错误率贝叶斯分类】11.单选题:最近邻方法属于____。

选项:

A、非参数化方法

B、参数化方法

C、结构聚类算法

D、句法模式识别

答案:【非参数化方法】12.单选题:极大似然估计中,使用对数似然函数是为了____。

选项:

A、便于似然函数求导

B、将求极大值问题转化为求极小值问题

C、提高似然函数灵敏度

D、便于似然函数求和

答案:【便于似然函数求导】13.单选题:对于需要考虑分类决策带来的损失的模式识别问题,应当使用____。

选项:

A、最小风险贝叶斯分类

B、最小错误率贝叶斯分类

C、朴素贝叶斯分类

D、半朴素贝叶斯分类

答案:【最小风险贝叶斯分类】14.单选题:在不知道类条件概率分布的情况下,要进行错误率最小的分类决策,应当依据?

选项:

A、先验概率

B、后验概率

C、特征值大小

D、类条件概率

答案:【先验概率】15.单选题:下列关于对比散度算法的说法中错误的是?

选项:

A、对比散度算法是一种无监督学习算法

B、对比散度算法能够发现训练集中样本最关键的特征

C、对比散度算法能够使真实的样本特征分布和重构的样本特征分布之间的KL散度取得误差范围内的极小值。

D、深度信念网中多层受限玻尔兹曼机同时通过对比散度算法完成预训练

答案:【深度信念网中多层受限玻尔兹曼机同时通过对比散度算法完成预训练】16.单选题:下列选项中,关于ISODATA算法的说法错误的是?

选项:

A、使用误差平方和作为基本聚类准则

B、设定指标参数决定是否进行“合并”或“分裂”

C、设定算法控制参数来决定算法的运算次数

D、不能自动调节最优类别数k

答案:【不能自动调节最优类别数k】17.单选题:下列关于k均值聚类算法的说法中错误的是?

选项:

A、k均值算法采用误差和准则函数,其聚类目标是使准则函数值最小

B、理论上可以证明,k均值聚类算法是收敛的

C、k均值算法的聚类结果虽然收敛但不确定

D、聚类结果受设定的聚类数k、初始聚类中心和样本的分布情况影响

答案:【k均值算法采用误差和准则函数,其聚类目标是使准则函数值最小】18.单选题:感知器算法应用什么方法求解准则函数的最优值?

选项:

A、最小均值法

B、最大均值法

C、梯度下降法

D、最小均方误差法

答案:【梯度下降法】19.单选题:下列关于最大池化的说法中错误的是?

选项:

A、ALexNet采用的是最大池化方法

B、最大池化在物体轮廓等特征提取中更有效

C、最大池化比随机池化的计算量小

D、LeNet采用的是最大池化方法

答案:【LeNet采用的是最大池化方法】20.单选题:模式结构中关于图表达的说法中错误的是?

选项:

A、图表达能很容易表示出两个图之间的相似性度量

B、图表达比串表达能力强

C、图表达是把模式结构看作基元之间的相互连接

D、图的数学描述有图论的严密数学理论

答案:【图表达能很容易表示出两个图之间的相似性度量】21.单选题:以下关于贝叶斯分类的特点的说法中错误的是?

选项:

A、先验概率是未知的

B、分类决策不存在错误率

C、先验概率是已知的

D、以新获得的信息对先验概率进行修正

E、分类决策存在错误率

答案:【先验概率是未知的】22.单选题:给定一个样本集但是没有给每一个样本贴上类别标签的学习方式称为____。

选项:

A、无监督学习

B、有监督学习

C、深度学习

D、机器学习

答案:【无监督学习】23.单选题:深度学习属于哪种类型的模式识别算法?

选项:

A、统计模式识别

B、结构模式识别

C、模糊模式识别

D、句法模式识别

答案:【统计模式识别】24.单选题:模式识别中识别的基础和本质是____。

选项:

A、认知和分类

B、抽象和认知

C、抽象和分类

D、识别和分类

答案:【认知和分类】25.单选题:下列选项中属于支持向量机面对的线性不可分问题的是?

选项:

A、异常点干扰和非线性分类

B、异常点干扰和线性分类

C、非异常点干扰和线性分类

D、非异常点干扰和非线性分类

答案:【异常点干扰和非线性分类】26.单选题:①更新权向量w(k+1);②令k=1,进行下一步递推,计算误差向量,直至e(k)小于等于0;③当k=0时,设定初始松弛变量b(0)的值,计算初始权向量;④更新松弛变量b(k+1);⑤计算误差向量e(k),H-K算法的正确排序是?

选项:

A、③⑤①④②

B、②⑤①③④

C、③①⑤④②

D、①②③④⑤

答案:【③⑤①④②】27.单选题:在绝对可分的情况下,以下哪种表述是正确的?

选项:

A、存在不可识别区域较多的问题

B、多分类线性判别函数形式复杂

C、多分类线性判别函数的意义不明确

D、分类器的整体性能比较好

答案:【存在不可识别区域较多的问题】28.单选题:用二分类问题的组合来确定三分类的分类决策规则时,在什么情况下是一定可分的?

选项:

A、仅有一个判别函数值大于0

B、有两个判别函数值大于0

C、三个判别函数值都小于0

D、三个判别函数值都大于0

答案:【仅有一个判别函数值大于0】29.单选题:造成维数灾难的原因是____。

选项:

A、训练集样本数量不足

B、训练集样本数量过多

C、带标签的样本数量过多

D、带标签的样本数量不足

答案:【训练集样本数量不足】30.多选题:数据聚类具有以下哪些特点?

选项:

A、聚类是对整个样本集的划分,而不是对单个样本的识别

B、聚类的依据是“样本间的相似程度”

C、聚类结果是“无遗漏”、“无重复”的

D、数据聚类是典型的有监督学习

答案:【聚类是对整个样本集的划分,而不是对单个样本的识别;聚类的依据是“样本间的相似程度”;聚类结果是“无遗漏”、“无重复”的】31.多选题:数据聚类中特征的选定应该考虑以下哪些因素?

选项:

A、聚类任务的需求

B、特征对聚类任务的有效性

C、维度和算法效率

D、判别函数的选取

答案:【聚类任务的需求;特征对聚类任务的有效性;维度和算法效率】32.多选题:下列说法中正确的是?

选项:

A、数据聚类没有预先分好类的样本集

B、数据聚类没有已知的分类决策规则

C、数据聚类由待分样本特征的内在规律来驱动分类过程

D、聚类结果受特征选取和聚类准则的影响

E、聚类结果受相似度度量标准的影响

F、聚类结果受各特征量纲标尺的影响

答案:【数据聚类没有预先分好类的样本集;数据聚类没有已知的分类决策规则;数据聚类由待分样本特征的内在规律来驱动分类过程;聚类结果受特征选取和聚类准则的影响;聚类结果受相似度度量标准的影响;聚类结果受各特征量纲标尺的影响】33.多选题:下列选项中属于Adaboost算法的特点的是?

选项:

A、算法的组合过程能减小偏差

B、基分类器要选择方差小、泛化能力强的弱分类器

C、只能解决二分类问题

D、异常数据(离群点)影响大

E、精度高,参数少,自适应能力强

F、不易实现并行化训练

答案:【算法的组合过程能减小偏差;基分类器要选择方差小、泛化能力强的弱分类器;只能解决二分类问题;异常数据(离群点)影响大;精度高,参数少,自适应能力强;不易实现并行化训练】34.多选题:下列选项中属于决策树分类器的特点的是?

选项:

A、有监督学习方法

B、速度快,分类决策规则明确

C、需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征

D、未考虑特征间的相关性

E、分类无偏性好,但容易发生过拟合

F、无监督学习方法

答案:【有监督学习方法;速度快,分类决策规则明确;需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征;未考虑特征间的相关性】35.多选题:设计一个组合分类器需要满足什么要求?

选项:

A、基分类器的分类正确率大于50%

B、每个基分类器的训练集和训练结果要有差异

C、组合分类器需要重点考虑方差和偏差

D、基分类器的数量越多越好

答案:【基分类器的分类正确率大于50%;每个基分类器的训练集和训练结果要有差异;组合分类器需要重点考虑方差和偏差】36.多选题:下列关于分支定界法的特点的说法中正确的是?

选项:

A、能否得到最优解,取决于准则函数J对特征数量是否单调

B、计算次数可能比穷举法多也可能比穷举法少

C、遍历搜索树可以有很多种方法

D、能否取得最优解与准则函数无关

E、计算次数一定比穷举法少

F、遍历搜索树只能采用回溯法

答案:【能否得到最优解,取决于准则函数J对特征数量是否单调;计算次数可能比穷举法多也可能比穷举法少;遍历搜索树可以有很多种方法】37.多选题:下列关于分支定界法中搜索树的构造的说法中正确的是?

选项:

A、根节点为0级,包含D个特征

B、每一级舍弃1个特征

C、下一级在上一级的基础上继续舍弃特征

D、整个搜索树共有D-d级

E、为避免组合重复,从左至右每个子树包含的分支依次减少

答案:【根节点为0级,包含D个特征;每一级舍弃1个特征;下一级在上一级的基础上继续舍弃特征;整个搜索树共有D-d级;为避免组合重复,从左至右每个子树包含的分支依次减少】38.多选题:度量类别可分性的准则函数应该满足哪些条件?

选项:

A、与分类正确率有单调递增关系

B、当特征独立时具有可加性

C、具有标量测度特性

D、对特征数量具有单调性

答案:【与分类正确率有单调递增关系;当特征独立时具有可加性;具有标量测度特性;对特征数量具有单调性】39.多选题:下列选项中属于特征降维的优点的是?

选项:

A、降低模式识别任务的复杂度

B、提升分类决策的正确率

C、用更少的代价设计出更加优秀的模式识别系统

D、增加有用的特征

答案:【降低模式识别任务的复杂度;提升分类决策的正确率;用更少的代价设计出更加优秀的模式识别系统】40.多选题:以下哪些预测问题可以用贝叶斯分类器来处理?

选项:

A、天气预报

B、股票预测

C、彩票号码预测

D、分子运动方向预测

答案:【天气预报;股票预测】41.多选题:下列说法中正确的是?

选项:

A、k近邻分类器存在计算量过大和存储量过大两大缺陷

B、贝叶斯公式表示了如何得到逆概率推理的结果

C、确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交

D、当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率

答案:【k近邻分类器存在计算量过大和存储量过大两大缺陷;贝叶斯公式表示了如何得到逆概率推理的结果;确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交;当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率】42.多选题:下列选项中属于贝叶斯分类器的特点的是?

选项:

A、先验概率已知,以新获得的信息对先验概率进行修正

B、分类决策存在错误率

C、先验概率未知,以新获得的信息对先验概率进行修正

D、分类决策不存在错误率

答案:【先验概率已知,以新获得的信息对先验概率进行修正;分类决策存在错误率】43.多选题:贝叶斯分类器的训练,是从样本集数据中估计出____。

选项:

A、先验概率

B、类条件概率

C、后验概率

D、全概率

答案:【先验概率;类条件概率】44.多选题:下列选项中属于试探法聚类的特点的是?

选项:

A、简单高效

B、初始条件和样本处理顺序敏感

C、不能保证取得最优聚类结果

D、聚类结果需要评估

答案:【简单高效;初始条件和样本处理顺序敏感;不能保证取得最优聚类结果;聚类结果需要评估】45.多选题:深度信念网可以解决传统BP算法的哪些问题?

选项:

A、收敛速度慢

B、易陷入局部最优解

C、计算量大

D、能够确定神经元的个数

答案:【收敛速度慢;易陷入局部最优解】46.多选题:聚类结果的评估应该考虑以下哪些内容?

选项:

A、聚类得到的各个类别分布是否合理

B、聚类结果是否能发现和适应样本集的样本分布特点

C、是否存在大量的孤立样本和边界样本

D、聚类过程是否需要大量的人工干预

E、聚类过后是否可以发现样本集中的分类规则,建立决策边界

答案:【聚类得到的各个类别分布是否合理;聚类结果是否能发现和适应样本集的样本分布特点;是否存在大量的孤立样本和边界样本;聚类过程是否需要大量的人工干预;聚类过后是否可以发现样本集中的分类规则,建立决策边界】47.多选题:特征选择的算法包括以下哪些?

选项:

A、穷举法

B、分支定界法

C、顺序前进法

D、顺序后退法

答案:【穷举法;分支定界法;顺序前进法;顺序后退法】48.多选题:Jp作为类内、类间可分性的概率距离度量时应该满足下列选项中哪些条件?

选项:

A、Jp大于等于0

B、Jp小于等于0

C、当两类完全可分时,Jp取得最大值

D、当两类完全可分时,Jp取得最小值

E、当两类完全不可分时,Jp等于0

F、当两类完全不可分时,Jp小于0

答案:【Jp大于等于0;当两类完全可分时,Jp取得最大值;当两类完全不可分时,Jp等于0】49.多选题:以下不属于模式识别的应用是

选项:

A、刷卡开门

B、相机笑脸检测

C、给新物种命名

D、植物在冬季落叶

E、读出书上的文字

答案:【刷卡开门;给新物种命名】50.多选题:下列选项中,可以用于图的相似性度量的是?

选项:

A、基于核和核度理论

B、基于最小支配集

C、基于图的邻接矩阵特征谱

D、距离度量和非距离度量

答案:【基于核和核度理论;基于最小支配集;基于图的邻接矩阵特征谱】51.多选题:深度信念网不能用于图像识别的原因是?

选项:

A、深度信念网为一维向量输入,不能直接用于二位图像

B、受限玻尔兹曼机的层间全连接,权值数量太多

C、需要进行认知-重构的双向计算,学习速度不够快

D、其余三个说法都不对

答案:【深度信念网为一维向量输入,不能直接用于二位图像;受限玻尔兹曼机的层间全连接,权值数量太多;需要进行认知-重构的双向计算,学习速度不够快】52.多选题:利用链式求导法则需要哪些信息?

选项:

A、权重参数

B、激活函数输出对净激励的导数

C、损失函数与网络输出向量之间的函数关系

D、激活函数

答案:【激活函数输出对净激励的导数;损失函数与网络输出向量之间的函数关系】53.多选题:下列选项中,属于有监督学习的是?

选项:

A、支持向量机

B、决策树

C、聚类算法

D、线性回归

答案:【支持向量机;决策树;线性回归】54.多选题:下列选项中属于深度学习的特点的是?

选项:

A、是层数较多的大规模神经网络

B、逐层抽象,发现数据集的特征

C、需要大规模并行计算能力的支持

D、需要大量样本进行训练

答案:【是层数较多的大规模神经网络;逐层抽象,发现数据集的特征;需要大规模并行计算能力的支持;需要大量样本进行训练】55.多选题:下列选项中属于BP网络的不足的是?

选项:

A、全连接网络计算大

B、隐层神经元数量难以确定

C、容易陷入局部极小值

D、无法做到深度很深,会产生梯度消失

答案:【全连接网络计算大;隐层神经元数量难以确定;容易陷入局部极小值;无法做到深度很深,会产生梯度消失】56.多选题:下列选项中属于人工神经元网络的特点的是?

选项:

A、由简单单元构成复杂网络

B、能够大规模并行计算

C、能够分布式存储信息

D、具有非线性逼近能力

E、具有自适应学习能力

答案:【由简单单元构成复杂网络;能够大规模并行计算;能够分布式存储信息;具有非线性逼近能力;具有自适应学习能力】57.多选题:下列选项中关于前馈网络和反馈网络的说法中正确的是?

选项:

A、前馈网络表达输入和输出之间的映射关系

B、反馈网络表达输出与输入的共同作用

C、前馈网络为静态网络

D、反馈网络为动态网络

E、前馈网络输出不作用在网络的输入中

F、反馈网络下一时刻的输出与上一时刻的输出有关

G、前馈网络表达输出与输入的共同作用

H、反馈网络表达输入和输出之间的映射关系

I、前馈网络为动态网络

J、反馈网络为静态网络

答案:【前馈网络表达输入和输出之间的映射关系;反馈网络表达输出与输入的共同作用;前馈网络为静态网络;反馈网络为动态网络;前馈网络输出不作用在网络的输入中;反馈网络下一时刻的输出与上一时刻的输出有关】58.多选题:下列关于玻尔兹曼机的说法中正确的是?

选项:

A、玻尔兹曼机是一种存在全互联的神经网络模型

B、玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近

C、玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果

D、玻尔兹曼机的学习过程是调整权向量和网络结构的过程

答案:【玻尔兹曼机是一种存在全互联的神经网络模型;玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近;玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果】59.多选题:调节以下哪些部分可以对神经网络的性能造成影响?

选项:

A、激活函数

B、权值

C、阈值

D、隐层单元

答案:【激活函数;权值;阈值;隐层单元】60.多选题:下列选项中属于反馈型神经网络的是?

选项:

A、Hopfield网络

B、受限玻尔兹曼机

C、多层感知器网络

D、RBF网络

答案:【Hopfield网络;受限玻尔兹曼机】61.多选题:下列选项中,哪些因素会影响到感知器算法中随机梯度下降法的求解结果?

选项:

A、初始权向量设置

B、学习速率

C、样本处理顺序不同

D、学习规则

答案:【初始权向量设置;学习速率;样本处理顺序不同】62.多选题:利用SVM将低维空间中的非线性问题映射到高维空间,存在哪些问题?

选项:

A、不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题

B、如何找到合适的映射函数φ

C、增加计算量,可能会因为维数灾难无法解决

D、能够确定映射到的高维空间的维度

E、能够找到合适的映射函数φ

F、增加计算量时可以避免出现维数灾难

答案:【不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题;如何找到合适的映射函数φ;增加计算量,可能会因为维数灾难无法解决】63.多选题:分类器函数的VC维h越大,将使下列选项中的哪些数据发生变化?

选项:

A、置信风险越大

B、结构风险越大

C、分类器泛化能力越差

D、经验风险越大

答案:【置信风险越大;结构风险越大;分类器泛化能力越差】64.多选题:下列选项中,属于感知器的特点的是?

选项:

A、感知器具有多路输入、单路输出

B、感知器没有反馈和内部状态

C、感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于阈值时输出0

D、单个感知器可以解决非线性分类问题

答案:【感知器具有多路输入、单路输出;感知器没有反馈和内部状态;感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于阈值时输出0】65.多选题:下列选项中,属于模式识别系统的环节是?

选项:

A、预处理与特征生成

B、分类器训练

C、特征降维

D、模式采集

E、分类决策

答案:【预处理与特征生成;分类器训练;特征降维;模式采集;分类决策】66.多选题:以下选项中哪些属于统计模式识别?

选项:

A、线性分类器

B、贝叶斯分类器

C、最近邻分类器

D、神经网络分类器

E、结构聚类算法

F、句法模式识别

答案:【线性分类器;贝叶斯分类器;最近邻分类器;神经网络分类器】67.多选题:下列说法中正确的是?

选项:

A、模式识别技术属于人工智能领域中的感知技术

B、模式识别是根据事物的特征进行归类的过程

C、模式识别技术包括认知和识别两个过程

D、模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用

答案:【模式识别技术属于人工智能领域中的感知技术;模式识别是根据事物的特征进行归类的过程;模式识别技术包括认知和识别两个过程;模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用】68.多选题:以下选项中属于模式识别应用领域的是?

选项:

A、人脸识别

B、语音识别

C、脑电识别

D、自然语言理解

E、手势识别

F、目标跟踪

答案:【人脸识别;语音识别;脑电识别;自然语言理解;手势识别;目标跟踪】69.多选题:模式识别的主要算法包括以下哪些?

选项:

A、线性分类器算法

B、贝叶斯分类器算法

C、模糊模式识别算法

D、神经网络模式识别算法

答案:【线性分类器算法;贝叶斯分类器算法;模糊模式识别算法;神经网络模式识别算法】70.单选题:水平截集具有确定的边界,建立了与模糊集合之间的桥梁,为去模糊化提供了基础。

选项:

A、正确

B、错误

答案:【正确】71.单选题:随机森林算法是以决策树为基分类器,采用各种随机化措施来增强整体泛化能力的一种Bagging组合分类器。

选项:

A、正确

B、错误

答案:【正确】72.单选题:Adaboost算法的自适应体现在,以每一个基分类器的分类错误率为依据来决定该分类器在整个组合分类器中的权重,分类器错误率越低,基分类器权重越大。

选项:

A、正确

B、错误

答案:【正确】73.单选题:Bagging方法具有可以并行训练的算法,组合算法可减小方差,基分类器算法需选择小偏差算法的特点。

选项:

A、正确

B、错误

答案:【正确】74.单选题:根据训练集获取方式和组合算法的不同,组合分类器的主要类型有Bagging,Boosting,Stacking。

选项:

A、正确

B、错误

答案:【正确】75.单选题:使用组合分类器是为了在降低整体分类器训练代价的同时提升分类器的整体性能。

选项:

A、正确

B、错误

答案:【正确】76.单选题:贴近度是两个模糊子集间靠近的程度,可以认为是两个模糊子集间的距离或相似度的度量。

选项:

A、正确

B、错误

答案:【正确】77.单选题:在模糊k-均值聚类算法中模糊度控制权重m常取为1。

选项:

A、正确

B、错误

答案:【错误】78.单选题:最大隶属度识别法可以获得样本的分类结果以及样本和各个类间相似程度的排序。

选项:

A、正确

B、错误

答案:【正确】79.单选题:k-均值聚类算法的聚类目标是使准则函数取得最小值。

选项:

A、正确

B、错误

答案:【正确】80.单选题:等价关系的成立只需满足对称性和自反性。

选项:

A、正确

B、错误

答案:【错误】81.单选题:动态聚类算法是一种通过反复修改聚类结果来进行优化以达到满意的聚类结果的迭代算法。

选项:

A、正确

B、错误

答案:【正确】82.单选题:每一个特征维度量纲标尺对聚类结果的影响实质上是在不同的量纲标尺下特征值取值大小出现了差异。

选项:

A、正确

B、错误

答案:【正确】83.单选题:采用模糊聚类的方法会出现一个样本同时属于两个类别的情况。

选项:

A、正确

B、错误

答案:【正确】84.单选题:聚类是对整个样本集的划分,而不是对单个样本的识别。

选项:

A、正确

B、错误

答案:【正确】85.单选题:聚类就是将样本集中的样本按照相似的程度划分成不同的类别。

选项:

A、正确

B、错误

答案:【正确】86.单选题:如果基分类器的方差较大,但无偏性较好,则应该选择能减小方差的组合方法。

选项:

A、正确

B、错误

答案:【正确】87.单选题:最大最小距离聚类算法的结果与参数θ及第一个聚类中心的选择没有关系。

选项:

A、正确

B、错误

答案:【错误】88.单选题:ISODATA算法是在k均值算法的基础上,增加对聚类结果的“合并”和“分裂”两个操作,并设定算法运行控制参数的一种聚类算法。

选项:

A、正确

B、错误

答案:【正确】89.单选题:特征提取和特征选择是对整个样本集进行特征降维的方法之一。

选项:

A、正确

B、错误

答案:【错误】90.单选题:特征降维的方法可以分为对整个样本集进行特征降维和针对类别之间的可分性对已经有的特征进行特征降维。

选项:

A、正确

B、错误

答案:【正确】91.单选题:进行特征降维可以降低一个模式识别任务的计算复杂度且有可能提升分类决策的正确率。

选项:

A、正确

B、错误

答案:【正确】92.单选题:动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。

选项:

A、正确

B、错误

答案:【正确】93.单选题:顺序后退法(SBS)是从D个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。

选项:

A、正确

B、错误

答案:【错误】94.单选题:顺序前进法(SFS)是从零开始,每次从未入选的特征中选择一个特征,使得它与已入选的特征组合所得到的J值最大,是一种特征选择的次优算法。

选项:

A、正确

B、错误

答案:【正确】95.单选题:类内类间距离是指各类中各特征向量之间的距离的最大值。

选项:

A、正确

B、错误

答案:【错误】96.单选题:特征提取或特征选择方案的优化,其准则函数都应该与类别可分性呈单调递减关系。

选项:

A、正确

B、错误

答案:【错误】97.单选题:特征提取是通过映射得到一组新的特征,特征选择是从高维特征中选出一组最有效的特征以达到降低特征空间维数的目的。

选项:

A、正确

B、错误

答案:【正确】98.单选题:主成分分析法是对针对类别可分性,对已经有的特征进行特征降维的方法。

选项:

A、正确

B、错误

答案:【错误】99.单选题:极大似然估计是把待估计的参数看作不确定的未知量,根据训练样本集的数据求取该未知参数的最优估计值。

选项:

A、正确

B、错误

答案:【错误】100.单选题:最小错误率贝叶斯分类器的分类决策规则确定了分类决策的边界。

选项:

A、正确

B、错误

答案:【正确】101.单选题:最小错误率贝叶斯分类器是将样本划分到后验概率最大的类别中。

选项:

A、正确

B、错误

答案:【正确】102.单选题:非参数估计是在知道或者假设类条件概率密度的分布形式的基础上,直接用样本集中所包含的信息来估计样本的概率分布情况。

选项:

A、正确

B、错误

答案:【错误】103.单选题:极大似然估计是把估计的所有样本作为结果,把概率分布的参数作为条件,最有可能抽取到已知样本集中所有样本的概率分布参数就是极大似然的参数。

选项:

A、正确

B、错误

答案:【正确】104.单选题:当最小错误率贝叶斯分类的错误率最小时,最大后验概率的正确率为最大。

选项:

A、正确

B、错误

答案:【正确】105.单选题:当样本的类条件概率是正态分布且各类同分布的情况下,最小错误率贝叶斯分类器是线性分类器。

选项:

A、正确

B、错误

答案:【正确】106.单选题:误差反馈学习规则和Hebb学习规则是单个人工神经元重要的两类学习规则。

选项:

A、正确

B、错误

答案:【正确】107.单选题:由于批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向,使得批量梯度下降法的寻优路径相对平滑。

选项:

A、正确

B、错误

答案:【正确】108.单选题:梯度法中步长的取值可以小于等于0。

选项:

A、正确

B、错误

答案:【错误】109.单选题:支持向量机分类模型对误差的容忍程度与惩罚因子间存在惩罚因子越大容忍度越高的关系。

选项:

A、正确

B、错误

答案:【错误】110.单选题:随机梯度下降法最终收敛的点不一定是全局最优解。

选项:

A、正确

B、错误

答案:【正确】111.单选题:模式识别算法体系包括统计模式识别和结构模式识别。

选项:

A、正确

B、错误

答案:【正确】112.单选题:作为工程类专业课程的模式识别主要研究的是生物识别能力的内在机理。

选项:

A、正确

B、错误

答案:【错误】113.单选题:我们不能认出第一次见面的人是因为需要有一个“认知”的过程。

选项:

A、正确

B、错误

答案:【正确】114.单选题:数据预处理消除量纲标尺带来的不良影响的过程中,最常用的方法是归一化处理。

选项:

A、正确

B、错误

答案:【正确】115.单选题:主成分分析法的具体做法是对原始空间做线性变换。

选项:

A、正确

B、错误

答案:【正确】116.单选题:随机性统计分类中一个样本的分类结果可能是在不同的概率上属于不同的类。

选项:

A、正确

B、错误

答案:【正确】117.单选题:k近邻分类器存在计算量过大和存储量过大两大缺陷。

选项:

A、正确

B、错误

答案:【正确】118.单选题:3型正则文法对应的是图灵机。

选项:

A、正确

B、错误

答案:【错误】119.单选题:基元是构成模式结构信息的基本单元,它本身包含有意义的结构信息。

选项:

A、正确

B、错误

答案:【错误】120.单选题:无约束文法又称为递归可枚举文法。

选项:

A、正确

B、错误

答案:【正确】121.单选题:可以采用参考匹配法、状态图法、填充树法进行句法分析。

选项:

A、正确

B、错误

答案:【正确】122.单选题:形式语言理论的核心也称为转换——生成语法,用有限的文法规则生成无限的具有共同生成结构的句法。

选项:

A、正确

B、错误

答案:【正确】123.单选题:模式特征的表达方式有串表达和图表达。

选项:

A、正确

B、错误

答案:【正确】124.单选题:对比散度学习算法流程第二步依据玻尔兹曼机神经元基本模型。

选项:

A、正确

B、错误

答案:【错误】125.单选题:朴素贝叶斯分类器是在特征独立性上对模式识别问题的类条件概率分布做了简化。

选项:

A、正确

B、错误

答案:【正确】126.单选题:确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交。

选项:

A、正确

B、错误

答案:【正确】127.单选题:训练样本被分类的正确性越高则分类器的泛化能力越好。

选项:

A、正确

B、错误

答案:【错误】128.单选题:深度学习是通过一个具有一定深度的人工神经元网络,使得计算机具有比较强的学习能力。

选项:

A、正确

B、错误

答案:【正确】129.单选题:卷积神经网络的一般结构包括卷积层、池化层和全连接层。

选项:

A、正确

B、错误

答案:【正确】130.单选题:卷积神经网络中的卷积层实现特征提取,池化层实现特征降维,全连接层为分类器。

选项:

A、正确

B、错误

答案:【正确】131.单选题:采用非线性激活函数可以实现感知器解决非线性分类问题。

选项:

A、正确

B、错误

答案:【错误】132.单选题:激活函数的非线性使得具有多个层次的神经网络输入输出之间可以形成复杂的非线性映射关系。

选项:

A、正确

B、错误

答案:【正确】133.单选题:前馈网络表达输入和输出之间的映射关系,为静态网络,输出作用在网络的输入中。

选项:

A、正确

B、错误

答案:【错误】134.单选题:玻尔兹曼机最终学习结果是使网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布最为接近。

选项:

A、正确

B、错误

答案:【正确】135.单选题:神经网络的学习规则有逐层更新学习、竞争学习和概率型学习。

选项:

A、正确

B、错误

答案:【正确】136.单选题:损失函数是模型得到的输出与该样本对应的真实输出之间的差值。

选项:

A

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论