机器学习智慧树知到期末考试答案章节答案2024年山东科技大学_第1页
机器学习智慧树知到期末考试答案章节答案2024年山东科技大学_第2页
机器学习智慧树知到期末考试答案章节答案2024年山东科技大学_第3页
机器学习智慧树知到期末考试答案章节答案2024年山东科技大学_第4页
免费预览已结束,剩余6页可下载查看

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习智慧树知到期末考试答案+章节答案2024年山东科技大学核函数是从高维空间构造超平面,会带来高维计算代价问题。()

答案:错随机梯度下降算法可以有效提高逻辑回归的拟合度。()

答案:错强化学习主要任务是使智能体能够根据环境的状态,获得最佳行动策略。()

答案:对牛顿迭代法是二阶收敛的,梯度下降是一阶收敛,所以牛顿法多数情况下收敛更快。()

答案:对梯度下降算法是最常用也是最有效的神经网络的优化办法,完全可以满足不同类型的需求。()

答案:错在样本足够多的情况下,蒙特卡洛算法是无偏估计的。()

答案:对损失函数越小,模型训练的一定越好()

答案:错逐步回归特征选择算法采用贪心策略来选择特征,可能做出次优的特征选择。()

答案:对策略迭代算法是在已知模型的基础上,判断策略的价值函数,然后寻找最优的价值函数。()

答案:错DBSCAN算法的缺点有()

答案:样本集密度不均匀时,聚类质量较差###调参更复杂###样本集较大时,聚类收敛时间较长下面关于损失函数的描述正确的是()

答案:不存在一种损失函数适用于处理所有类型的数据###0-1损失函数适用于分类问题###平方损失函数则适用于回归问题下列有关决策树说法正确的是()

答案:决策树的分级越多,决策树就越复杂。###决策树能够使项目管理者有步骤的进行决策。###决策树是从左往右依次展开的树状图。以下关于特征选择的说法正确的是?()

答案:与标签无关联的特征会提高模型过度拟合的概率###与标签无关联的特征会增加数据规模和计算量###Lasso回归是具有特征选择功能的一个正则化方法以下哪些公式是贝尔曼期望方程?()

答案:LDA降维的目标是将带有标签的数据降维,投影到低维空间同时满足三个条件有:()

答案:投影后使得同类样本尽可能近,不同类样本尽可能远###寻找使样本尽可能好分的最佳投影方向###尽可能多地保留数据样本的信息关于L1、L2正则化下列说法正确的是?()

答案:L1正则化得到的解更加稀疏下面哪项操作跟神经网络中Dropout有类似效果?()

答案:Bagging局部线性嵌入中,原空间局部信息指的是()。

答案:邻域样本对中心样本的线性表示信息

答案:模型仅使用接近超平面的点来建模关于SVM泛化误差描述,正确的是:()

答案:SVM对未知数据的预测能力动态规划适合解决什么类型的问题?()

答案:有模型的强化学习以下说法错误的一项是()

答案:梯度下降法比牛顿法收敛速度快下列哪一项在神经网络中引入了非线性?()

答案:修正线性单元(ReLU)一个正例(2,3),一个负例(0,-1),下面哪个是SVM超平面?()

答案:x+2y-3=0

答案:大数据集下列哪个不属于LDA和PCA的相同点()

答案:两者均属于监督式学习算法。以下关于PCA的说法哪个是错误的?()

答案:PCA将数据投影至低维空间,并使其投影方差尽可能小以下哪个不是机器学习的损失函数?()

答案:激活函数线性回归的核心是()

答案:参数学习以下关于正则化的说法哪个是错误的?()

答案:L2正则化可起到选择重要参数或特征维度、去除噪声的作用决策树的说法正确的是()。

答案:它易于理解、可解释性强###其可作为分类算法,也可用于回归模型###CART使用的是二叉树以下关于决策树原理介绍错误的有()。

答案:决策树算法属于无监督学习交叉熵损失函数适用于回归问题。()

答案:对次梯度方法是传统的梯度下降方法的拓展,用来处理不可导的凸函数。它的优势是比传统方法处理问题范围大,劣势是算法收敛速度慢。()

答案:对值迭代算法是在已知模型的基础上,用规划的方法进行策略评估策略改进,最终获得最优策略。()

答案:错增大正则化系数可以用于处理欠拟合()

答案:错SVM分类超平面的解是唯一的,要满足间隔最大化。感知机的解不唯一,没有间隔最大化的约束条件,满足分开数据点的分界面都是可以的。()

答案:对带模型假设的经验损失最小化算法架构,相比于无约束经验损失最小化算法架构更容易发生过拟合。()

答案:错线性降维方法包括主成分分析和局部线性嵌入方法。()

答案:错L1正则化方法和L2正则化方法都可以增加模型的平滑度,降低模型过度拟合的概率。()

答案:错卷积神经网络在池化层丢失大量的信息,从而降低了空间分辨率,导致了对于输入微小的变化,从而导致了其输出改变巨大。()

答案:错BP算法容易陷入局部最优解。()

答案:对平方损失函数是凸函数,连续可导,因此容易优化。()

答案:对马尔科夫性特点:未来与现在有关,下一个状态既和当前状态有关,又和之前的状态有关。()

答案:错分段回归特征选择算法是一个迭代搜索算法,避免了采用贪心选择策略。()

答案:对DQN的回放记忆单元的目的是通过随机抽取交互数据,避免了数据相关性问题,数据满足独立同分布,算法易于收敛。()

答案:对梯度下降法需要预先设定学习率,然后通过多次迭代求解最优参数。()

答案:对‏L2正则化得到的解更加稀疏。()

答案:错以下关于结构损失最小化算法的说法哪个是正确的?()

答案:带有正则化方法的经验损失最小化算法被称为结构损失最小化算法###任何经验损失最小化算法,都可以通过正则化方法转化成结构损失最小化算法###体现了奥卡姆剃刀法则思想主成分分析中可以利用()求解主成分

答案:协方差矩阵###相关系数矩阵以下输入梯度下降法的有:()

答案:小批量梯度下降法###批量梯度下降法###随机梯度下降法以下关于PCA和KPCA的对比,正确的有()

答案:应用PCA算法前提是假设存在一个线性超平面,如果数据不是线性的,这时就需要用到KPCA###KPCA能比PCA提供更多的特征数目###PCA对坐标轴做了线性变换,而KPCA对坐标轴做了非线性变换关于合并聚类算法说法正确的有()。

答案:合并聚类算法聚类时,先将每一个数据样本自成一类###合并聚类算法的思想类似于经典图算法中的Kruskal算法###类间距离定义为两类的中心之间的欧几里得距离Q-learning的缺点有哪些?()

答案:查找Q值耗时长###不能对连续状态,进行查找。###存储开销大###需要存储并维护Q表,具有局限性以下关于监督式学习的说法哪个是正确的?()

答案:实际应用中,监督式学习使用的标签形式灵活多样###监督式学习往往需要事先标注大量的数据###监督式学习需要通过有标签的数据进行学习关于BP神经网络的缺点说法正确的是()

答案:BP算法一般只能用于浅层网络结构的学习,限制了BP算法的数据表征能力,影响了在实际应用中的效果。###BP神经网络以数值作为输入。在处理图像相关的信息时,则要从图像中提前提取特征。###随着神经网络的层数加深,训练过程存在严重的“梯度弥散”现象,即网络的输出结果通过反向传播,当到达前面层时,梯度会逐渐消失,使得不能指引网络权值的训练,从而导致网络不能正常收敛。以下关于聚类算法说法正确的是()。

答案:聚类分析是无监督学习算法###聚类目标是将数据集中的样本划分为若干个不相交的子集###K均值算法是一个近似算法下列哪种方法可以用来减小过拟合?()

答案:L2正则化###减小模型的复杂度###更多的训练数据###L1正则化降维的主要优点有哪些()。

答案:方便实现数据可视化###方便消除冗余特征###减小训练时间以下哪些算法基于动态规划的强化学习算法?()

答案:值迭代算法###策略迭代算法强化学习包含哪些元素?()

答案:Agent###State###Action###Reward以下哪些方法不能用于处理过拟合?()

答案:增加数据特征的复杂度

答案:在回归分析中,下列哪个选项不属于线性回归()。

答案:多个因变量与多个自变量的回归下列关于感知器算法的说法中错误的是()

答案:感知器算法也适用于线性不可分的样本以下(1)动态规划算法、(2)蒙特卡洛算法、(3)时序差分算法,无模型的算法有哪些?()

答案:(2),(3)线性回归方程y=-2x+7揭示了割草机的剩余油量(升)与工作时间(小时)的关系,以下关于斜率描述正确的是:()。

答案:割草机每工作1小时大约需要消耗2升油线性回归经常使用的优化算法是()

答案:A和B下列关于梯度下降(Gradientdescent)法的描述错误的是()

答案:梯度下降算法的学习速率是模型参数,而不是超参数下面关于前馈神经网络的描述不正确的是()

答案:不能有隐藏层ID3算法以()作为测试属性的选择标准。

答案:信息增益PCA的理论基础是()

答案:方差最大理论下列选项中哪个不是正规方程的特点()

答案:需要迭代求解K均值算法中的K指的是什么()

答案:类别数量关于K均值算法说法不正确的是()。

答案:当类中数据集构成凸集时,取得最差的效果‍假设有100张照片,其中,猫的照片有60张,狗的照片是40张。‍识别结果:TP=40,FN=20,FP=10,TN=30,则可以得到:()。

答案:精确率=0.8决策树的构成顺序是?()

答案:特征选择、决策树生成、决策树剪枝回归问题和分类问题的区别是()

答案:回归问题输出值是连续的,分类问题输出值是离散的下列哪个是自动编码器任务()

答案:降维或特征学习下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是()

答案:LSTM是RNN的扩展方法,通过特有结构设计来避免长期依赖问题以下说法哪个是不正确的?()

答案:Softmax回归算法是一个以sigmoid函数为模型假设,且以log对数损失函数为目标函数的经验损失最小化算法。主成分分析是根据()确定选取的主成分个数

答案:累计贡献率.一元线性回归模型和多元线性回归模型的区别在于()

答案:自变量的个数不同下面有关LDA的说法错误的是哪个()

答案:LDA中线性变换可以使投影后类内方差最大,类间方差最小。线性回归模型假设标签随机变量服从_______?Logistic回归模型假设标签随机变量服从_______?Softmax回归模型假设标签随机变量服从_______?()

答案:正态分布、伯努利分布、多项分布

答案:假定你使用SVM学习数据X,数据X里面有些点存在分类错误。现在如果你使用一个二次核函数,多项式阶数为2,使用松弛变量C作为超参之一,当你使用较大的C(C趋于无穷),则:()

答案:仍然能正确分类数据Logistic回归与多重线性回归比较()

答案:logistic回归的因变量为二分类变量以下哪些公式是贝尔曼最优方程?()

答案:时序差分算法是基于模型的强化学习()

答案:错以下哪些算法属于无模型算法?()

答案:蒙特卡洛算法###REINFORCE算法###时序差分算法K-means的主要缺点之一是其简单地使用了平均值作为簇的中心。()

答案:对关于DBSCAN算法说法错误的是?()

答案:DBSCAN将样本点划分为两种类型的点下列哪些属于聚类算法()

答案:DBSCAN###K-中心点###K-meansDBSCAN算法的优点有?()。

答案:可以处理任意形状的空间聚类问题###可以处理噪声点###不需要划分个数。跟K-means比起来,DBSCAN可以自动分出类别个数合并聚类算法是经典的层级聚类算法,合并聚类算法不是贪心算法。()

答案:错下列关于自动编码器说法错误的是()

答案:自动编码器是一种无监督学习,不需要损失函数。下列关于PCA说法正确的是()

答案:在使用PCA之前,通常需要对数据进行标准化放缩。###优先选择具有最大方差的主成分。###可以使用PCA在低维空间中可视化数据。线性判别分析法的目标是()

答案:类间区别尽可能大,类内区别尽可能小。局部线性嵌入法的基本思想是保持样本点之间距离经降维后不改变。()

答案:错下列方法中,可以用于特征降维的方法包括()

答案:自动编码器AE###线性判别分析法LDA###主成分分析法PCASigmoid函数在变量取绝对值非常大的正值或负值时会出现饱和现象,意味着函数会变得很平,并且对输入的微小改变会变得不敏感。在反向传播时,当梯度接近于0,权重基本不会更新,很容易就会出现梯度消失的情况,从而无法完成深层网络的训练。()

答案:对长短期记忆网络(LSTM)通过遗忘门减少一般循环神经网络(RNN)的短期记忆不足,但增加算法的计算复杂度。()

答案:对有关循环神经网络(RNN)的理解,以下哪些说法是正确的?()

答案:某个时刻t,隐层神经元拟合了上一时刻输入与输出以及当前输入与输出的关系###某个时刻t输入和输出之间的关系可以通过隐层神经元拟合###对于只有在最后一个时刻有输出的RNN,可以拟合输出的时序数据之间的关系对应的类别,例如商超客户的消费行为分析误差的反向传播,即从第一个隐藏层到输出层,逐层向前修改神经元的连接权值参数,使得损失函数值最小。()

答案:对决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全部最优。()

答案:对以下哪项关于决策树的说法是错误的()

答案:决策树算法对于噪声的干扰非常敏感我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以()。

答案:减少树的深度下面关于SVM原理的说法错误的是:()

答案:关于SVM核函数,下列说法中错误的是:()

答案:核函数把特征映射到的空间维度越高越好。SVM决策边界只会被支持向量影响,跟其它样本点无关。()

答案:对下列关于SVM的应用场景说法正确的是(多选):()

答案:SVM能够解决多分类问题。###SVM在二分类问题上表现突出。###SVM能够实现异常值检测。###SVM思想能够应用于回归问题。SVM使用高斯核函数之前通常会进行特征归一化,经过特征归一化得到的新特征通常优于旧特征。()

答案:对Logistic回归属于()

答案:概率型非线性回归Logistic回归算法是模型假设为Sigmoid函数的经验损失最小化算法。()

答案:对关于分类和回归问题,下面说法正确的是?()

答案:回归和分类都是有监督学习问题。###一般来说,回归不用在分类问题上,但是也有特殊情况,比如Logistic回归可以用来解决0/1分类问题。###回归问题和分类问题都有可能发生过拟合。Logistic回归可用于()

答案:其余选项都是我们知道二元分类一般设定输出概率大于或等于0.5,则预测为正类;若输出概率小于0.5,则预测为负类。那么,如果将阈值0.5提高,例如0.6,大于或等于0.6的才预测为正类,则精确率(Precision)和召回率(Recall)会发生什么变化?()

答案:召回率(Recall)减小或者不变。###精确率(Precision)增大或者不变。牛顿法是梯度下降法的进一步发展,牛顿法不仅使用目标函数的一阶偏导数,还进一步利用了目标函数的二阶偏导数,这样就考虑了梯度变化的趋势,因而能更全面地确定合适的搜索方向加快收敛,它具二阶收敛速度。()

答案:对坐标下降算法的优点是容易计算,同时收敛很快;缺点是当loss比较复杂时,会很明显的降低速度。()

答案:对随机梯度下降法缺点在于每次更新可能并不会按照正确的方向进行,参数更新具有高方差,从而导致损失函数剧烈波动。()

答案:对梯度下降算法的正确步骤是

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论