模式识别(山东联盟)智慧树知到期末考试答案2024年_第1页
模式识别(山东联盟)智慧树知到期末考试答案2024年_第2页
模式识别(山东联盟)智慧树知到期末考试答案2024年_第3页
模式识别(山东联盟)智慧树知到期末考试答案2024年_第4页
模式识别(山东联盟)智慧树知到期末考试答案2024年_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

模式识别(山东联盟)智慧树知到期末考试答案2024年模式识别(山东联盟)下列关于模式识别的说法中,错误的是

A:对外界事物完成分类的过程也就完成了识别的过程B:模式可以看作对象的组成成分或影响因素间存在的规律性关系C:模式识别研究的问题就是如何通过机器实现样本的特征提取D:人类的日常活动中包含很多模式识别的活动答案:模式识别研究的问题就是如何通过机器实现样本的特征提取下列表达中不能影响贝叶斯估计结果的是

A:数据的线性变换B:样本的数量C:损失函数的形式D:待估计参数的后验概率答案:数据的线性变换下列关于感知器算法的说法中错误的是

A:在感知器算法中的学习率是可以改变的B:感知器算法也适用于线性不可分的样本C:在感知器算法中,如果样本不是线性可分的,则算法最后不会收敛。D:在感知器算法中可以通过调整学习率p来减少迭代次数。答案:感知器算法也适用于线性不可分的样本贝叶斯决策是通过计算样本后验概率的大小来进行决策的,下面表达式中wi代表类别,x代表样本,能够表示后验概率的是

A:P(x|wi)B:P(wi|x)C:P(x)D:P(wi)答案:P(wi|x)下面关于fisher线性判别的说法中错误的是

A:经过fisher准则投影后得到的最佳投影方向是投影后两类样本分类面的法线方向。B:好的投影方向应该使不同类别的样本均值之差尽量大,类内的样本尽量聚集C:投影后得到的样本均值是标量。D:经过fisher准则投影后得到的两类样本分类面的位置是唯一的。答案:经过fisher准则投影后得到的两类样本分类面的位置是唯一的。下面不能用来度量概率距离的参数是

A:散度B:Bhattacharyya距离C:欧式距离D:Chernoff界限答案:欧式距离关于非监督学习的评价方法中错误的是

A:紧致性指标的范围是从0到无穷大,该值越大,说明聚类结果越好。B:连接度的指标越小说明聚类结果越好。C:在非监督学习中,可以采用数学上评价聚类性能的指标来帮助人们客观地理解和解释所得的聚类结果。D:紧致性指标越小,说明聚类结果越好。答案:紧致性指标的范围是从0到无穷大,该值越大,说明聚类结果越好。下面关于贝叶斯估计的说法中错误的是

A:贝叶斯估计的方法类似于贝叶斯决策,也需要定义损失函数。B:贝叶斯估计也需要一个训练样本集,利用训练样本集来找出估计参数,限制条件是使得损失函数最小。C:最大似然估计与贝叶斯估计的思想是相同的,只不过采用的方法不同。D:贝叶斯估计需要事先确定待估计参数的先验分布答案:最大似然估计与贝叶斯估计的思想是相同的,只不过采用的方法不同。下列关于最小风险的贝叶斯决策的说法中正确的有

A:最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的B:最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失C:最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例D:条件风险反映了对于一个样本x采用某种决策时所带来的损失答案:最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失###最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例###条件风险反映了对于一个样本x采用某种决策时所带来的损失下面关于基于类内类间距离的可分性判据的说法中正确的是

A:基于类内类间距离的可分性判据的值越大,说明可分离性越好。B:基于类内类间距离的可分性判据的值越小,说明可分离性越好。C:当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。D:当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。答案:基于类内类间距离的可分性判据的值越大,说明可分离性越好神经网络的模型受到哪些因素的影响。

A:传递函数B:样本的数量C:连接权值的学习D:网络结构答案:传递函数###网络结构###连接权值的学习下面关于最大似然估计的说法中正确的是

A:在最大似然函数估计中,要估计的参数是一个确定的量。B:最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。C:在最大似然估计中要求各个样本必须是独立抽取的。D:在最大似然函数估计中,要估计的参数是一个随机量。答案:在最大似然估计中要求各个样本必须是独立抽取的###最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数###在最大似然函数估计中,要估计的参数是一个确定的量下列关于正态分布的描述中正确的是

A:正态分布参数的维数取决于样本的维数B:正态分布概率密度函数的两个主要参数是均值和方差C:在多元正态分布中,区域的大小由方差来决定。D:在多元正态分布中,区域的中心由均值来决定。答案:正态分布概率密度函数的两个主要参数是均值和方差;正态分布参数的维数取决于样本的维数;在多元正态分布中,区域的中心由均值来决定。;在多元正态分布中,区域的大小由方差来决定。在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。

A:对B:错答案:对使用CV2法得到的分类器估计结果会更准确一些。

A:错误B:正确答案:正确决策树学习是监督学习

A:正确B:错误答案:正确当两类的概率密度函数的重合度越大,说明两类的可分性越好。

A:正确B:错误答案:错误在模式识别中,多层神经网络的输入层、隐藏层、输出层的神经元的个数与样本的特征有关。

A:对B:错答案:对在最小风险的贝叶斯决策当中不需要计算样本的后验概率。

A:正确B:错误答案:错误在类别数量未知的情况下,可以采用二分树的方式进行分类器设计。

A:错误B:正确答案:正确K-L变换也是一种特征提取的方法。

A:正确B:错误答案:正确多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。

A:错B:对答案:对特征提取的过程是通过训练样本求取特征变换矩阵的过程。

A:正确B:错误答案:正确在感知器算法中感知器准则函数取得最大值时所对应的权向量a就是所要寻找的合适的权向量。

A:正确B:错误答案:正确在BP算法中数据流的正向传播时,数据的传播方向是输入层→隐层→输出层。

A:错误B:正确答案:正确C均值算法是基于相似性度量的

A:正确B:错误答案:正确当原始特征的均值为0时,主成分分析方法和K-L变换方法是等价的。

A:对B:错答案:对选择性抽样是根据样本的先验概率来确定检验集数量的抽样方法。

A:对B:错答案:对利用神经网络来实现多类问题的分类时,可以采用一个具有的多个输出节点的神经网络来实现。

A:对B:错答案:对自举法的基本思想是,从原始样本集中进行多次自举抽样,目的就是为了模仿从总体中得到多个同样大小的样本集,从每个自举样本集得到一个估计,用多个估计的平均作为最后的估计结果。

A:正确B:错误答案:正确分级聚类方法需要进行迭代运算

A:错误B:正确答案:错误穷举法是一种基本的特征选择最优算法。

A:对B:错答案:对在解空间中,越靠近边缘的解越可靠。

A:错误B:正确答案:错误越靠近解区中间的解向量,对样本错分的可能性越小。

A:错误B:正确答案:正确线性分类器虽然简单,但是分类效果不一定不好

A:对B:错答案:错感知器准则函数是用权向量a与所有的错分样本的乘积来表示对错分样本的惩罚。

A:错B:对答案:对依据可分性准则定义的判据应该与错误率有单调关系。

A:正确B:错误答案:正确特征的提取和选择对分

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论