机器学习基础知到智慧树期末考试答案题库2025年太原理工大学_第1页
机器学习基础知到智慧树期末考试答案题库2025年太原理工大学_第2页
机器学习基础知到智慧树期末考试答案题库2025年太原理工大学_第3页
机器学习基础知到智慧树期末考试答案题库2025年太原理工大学_第4页
机器学习基础知到智慧树期末考试答案题库2025年太原理工大学_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习基础知到智慧树期末考试答案题库2025年太原理工大学随机梯度下降导致方向变化过大,不能很快收敛到最优解。()

答案:对随机梯度下降中每次迭代使用一个样本的梯度。()

答案:对降维的优点有哪些()

答案:减小训练时间;方便实现数据可视化;方便消除冗余特征逻辑回归算法是一种广义的线性回归分析方法,它仅在线性回归算法的基础上,利用Sigmoid函数对事件发生的概率进行预测。()。

答案:对逻辑回归的特征一定是离散的。()。

答案:错设实矩阵A有SVD:A=UΣVT,则下列说法错误的是()。

答案:V的每行都是单位向量‎训练完SVM模型后,不是支持向量的那些样本我们可以丢掉,也可以继续分类。()

答案:对考虑一个有两个属性的logistic回归问题。假设,则分类决策平面是()。

答案:考虑一个有两个属性的logistic回归问题。假设,则分类决策平面是()。线性回归是一种有监督机器学习算法,它使用真实的标签进行训练。()

答案:对线性回归方程中,回归系数b为负数,表明自变量与因变量为()

答案:负相关线性回归中加入正则化可以降低过拟合。()

答案:对线性回归中,我们可以使用最小二乘法来求解系数,下列关于最小二乘法说法正确的是()。

答案:只适用于线性模型,不适合逻辑回归模型等其他模型;不需要选择学习率;当特征值很多的时候,运算速率会很慢;不需要迭代训练现有一个能被正确分类且远离超平面的样本,如果将其删除,不会影响超平面的选择。()

答案:对特征空间越大,过拟合的可能性越大。()

答案:对特征工程非常重要,在采用机器学习算法前,首先需要利用特征工程确定样本属性。()

答案:对梯度下降法中,梯度要加一个负号的原因是()。

答案:梯度方向是上升最快方向,负号就是下降最快方向梯度下降,就是沿着函数的梯度(导数)方向更新自变量,使得函数的取值越来越小,直至达到全局最小或者局部最小。()

答案:对梯度上升方法可以求解全局最大或者局部最大值。()

答案:对根据肿瘤的体积、患者的年龄来判断良性或恶性,这是一个回归问题。()

答案:错样本是连续型数据且有标签,我们采用()进行机器学习。

答案:回归算法机器学习进行的第一步是()。

答案:特征提取机器学习算法需要显示编程,具备归纳、总结等自学习能力。()

答案:错机器学习算法在图像识别领域的性能表现可能会超过人类。()

答案:对机器学习的核心要素包括()。

答案:数据;算法;算力机器学习方法由()等几个要素构成。

答案:模型;损失函数;优化算法;模型评估指标机器学习方法传统上可以分为()类。

答案:4机器学习和人工智能、深度学习是一个概念,都是指机器模仿人类推理、学习能力。()

答案:错朴素贝叶斯适用于小规模数据集,逻辑回归适用于大规模数据集。()

答案:错朴素贝叶斯的基本假设是属性之间是相互独立的。()

答案:对朴素贝叶斯的优点不包括()

答案:朴素贝叶斯模型对输入数据的表达形式很敏感朴素贝叶斯法对缺失数据较敏感。()

答案:对朴素贝叶斯模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性相关性较小时,朴素贝叶斯性能良好。而在属性个数比较多或者属性之间相关性较大时,分类效果不好。()

答案:对朴素贝叶斯是概率模型。()

答案:对朴素贝叶斯是一种典型的基于概率的机器学习方法,它利用了()

答案:先验概率、后验概率朴素贝叶斯分类器基于()假设

答案:属性条件独立性最小二乘法是基于预测值和真实值的均方差最小化的方法来估计线性回归学习器的参数w和b。()

答案:对数据预处理对机器学习是很重要的,下面说法正确的是()。

答案:数据预处理的效果直接决定了机器学习的结果质量数据之间的相关关系可以通过以下哪个算法直接挖掘()。

答案:Apriori支持向量机求解不可以采用梯度下降方法求解最优值。()

答案:错支持向量机是那些最接近决策平面的数据点。()

答案:对批量梯度下降是最原始的形式,它是指在每一次迭代时使用一部分样本的梯度来更新参数。()

答案:错影响KNN算法效果的主要因素包括()。

答案:K的值;距离度量方式;决策规则市场上某商品来自两个工厂,它们市场占有率分别为60%和40%,有两人各自买一件,则买到的来自不同工厂之概率为()

答案:0.48小批量梯度下降是结合了批量梯度下降和随机梯度下降,性能比批量梯度下降和随机梯度下降都好。()

答案:对对于线性回归,我们应该有以下哪些假设()(1)找到离群点很重要,因为线性回归对离群点很敏感;(2)线性回归要求所有变量必须符合正态分布;(3)线性回归假设数据没有多重线性相关性。

答案:其它都不是对于以下哪些任务,K-means聚类可能是一种合适的算法?()。

答案:给定一个关于用户信息的数据库,自动将用户分组到不同的市场细分中。;根据超市中大量产品的销售数据,找出哪些产品可以组成组合(比如经常一起购买),因此应该放在同一个货架上。如果某个项集是频繁的,那么它的所有超集也是频繁的。()

答案:错如果某个项集是频繁的,那么它的所有子集也是频繁的。()

答案:对如果A为m阶实矩阵,则ATA半正定。()

答案:对如果A为m阶实矩阵,ATA与AAT有相同的非零特征值集合。()

答案:对大部分的机器学习工程中,数据搜集、数据清洗、特征工程这三个步骤要花费大部分时间,而数据建模,占总时间比较少。()

答案:对在机器学习中,样本常被分成()。

答案:其它选项都有在各类机器学习算法中,过拟合和欠拟合都是可以彻底避免的。()

答案:错在K近邻算法中,K的选择是()?

答案:与样本有关回归问题和分类问题的区别()。

答案:回归问题输出值是连续的,分类问题输出值是离散的哪些情况下必须停止树的增长()

答案:当前数据子集的标签一致;没有更多可用属性;当前数据子集为空;当前训练误差已经较低分析顾客消费行业,以便有针对性的向其推荐感兴趣的服务,属于()问题。

答案:关联规则挖掘决策树的说法正确的是()。

答案:它易于理解、可解释性强;其可作为分类算法,也可用于回归模型;CART使用的是二叉树决策树模型中建树的基本原则是()。

答案:信息增益大的属性应放在上层决策树模型中如何处理连续型属性()。

答案:根据信息增益选择阈值进行离散化决策树学习是一种逼近离散值目标函数的方法,学习到的函数被表示为一棵决策树。()

答案:对具有较高的支持度的项集具有较高的置信度。()

答案:错关于支持向量机中硬间隔和软间隔的说法错误的是()

答案:硬间隔有利于消除模型的过拟合关于剪枝,以下算法正确的是()。

答案:决策树剪枝的基本策略有预剪枝和后剪枝;ID3算法没有剪枝操作;剪枝是防止过拟合的手段关于决策树剪枝操作正确的描述是()。

答案:可以防止过拟合关于关联规则,正确的是()。

答案:关联规则挖掘的算法主要有:Apriori和FP-Growth;一个项集满足最小支持度,我们称之为频繁项集;支持度是衡量关联规则重要性的一个指标关于PCA和SVD比较错误的是()

答案:PCA无需进行零均值化公司里有一个人穿了运动鞋,推测是男还是女?已知公司里男性30人,女性70人,男性穿运动鞋的有25人,穿拖鞋的有5人,女性穿运动鞋的有40人,穿高跟鞋的有30人。则以下哪项计算错误()

答案:p(运动鞋|男性)=25/30假设你训练SVM后,得到一个线性决策边界,你认为该模型欠拟合。在下次迭代训练模型时,应该考虑()

答案:计算更多变量假设会开车的本科生比例是15%,会开车的研究生比例是23%。若在某大学研究生占学生比例是20%,则会开车的学生是研究生的概率是()

答案:27.7%假设主成分分析的方式是“95%的方差被保留”,与此等价的说法是()

答案:假设主成分分析的方式是“95%的方差被保留”,与此等价的说法是()信息熵是度量样本集合纯度最常用的一种指标。信息熵的值越大,说明样本集合的纯度越高。()

答案:错传统机器学习的应用领域有()。

答案:信用风险检测;销售预测;商品推荐以下选择主成分数量的合理方法是(n是输入数据的维度m是输入示例的数量)()

答案:选择至少保留99%的方差的k的最小值以下说法正确的是()。

答案:logistic回归的样本属性是连续型数据以下说法中错误的是()。

答案:负定矩阵的特征值即为奇异值以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代结束后,样本20的分类为()

答案:原质心22的类以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代结束后,原质心16的类包含()个样本。

答案:3以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代结束后,原质心16更新后的质心是()。

答案:15.33以下是一组用户的年龄数据,将K值定义为2对用户进行聚类。并随机选择16和22作为两个类别的初始质心,回答以下问题:[15,15,16,19,19,20,20,21,22,28,35,40,41,42,43,44,60,61,65]第一次迭代中,样本“15”到质心16的距离是()

答案:1以下对经典K-means聚类算法解释正确的是()

答案:不能自动识别类的个数,随机挑选初始点为中心点计算以下哪种说法是正确的?()

答案:KNN是有监督学习算法以下关于逻辑回归与线性回归问题的描述错误的是()。

答案:逻辑回归一般要求变量服从正态分布,线性回归一般不要求以下关于梯度下降算法说法正确的是()。

答案:学习率的选取会影响梯度下降算法的求解速度以下关于梯度下降法错误的是()。

答案:特征数量较大可以使用以下关于决策树特点分析的说法错误的有()。

答案:算法考虑了数据属性之间的相关性以下关于决策树原理介绍错误的有()。

答案:决策树算法属于无监督学习以下关于SVD说法正确的有()

答案:SVD并不要求分解矩阵必须是方阵以下关于PCA说法正确的是()

答案:PCA各个主成分之间正交;PCA运算时需要进行特征值分解;PCA运算结果受到属性方差的影响以下关于KNN说法正确的是()。

答案:计算复杂度低;对数据没有假设;对异常值不敏感以下关于K-means算法错误的有()

答案:K-means算法不会出现局部极小值的问题以下关于AdaBoost算法说法错误的是()

答案:在投票时,分类误差小的弱分类器权重较小以下关于PCA说法正确的是()

答案:PCA转换后选择的第一个方向是最主要特征从某大学随机选择8名女大学生,其身高x(cm)和体重y(kg)的回归方程是y=0.849x-85.712,则身高172cm的女大学生,预测体重为()。

答案:60.316kg主成分分析是一个线性变化,就是把数据变换到一个新的坐标系统中。()

答案:对下面梯度下降说法错误的是()。

答案:梯度下降算法速度快且可靠下面有关机器学习的认识正确的是()。

答案:高质量的样本对一个机器学习项目是必不可少的下面属于降维常用的技术的有()

答案:主成分分析;奇异值分解下面对集成学习模型中的弱学习器描述错误的是?()

答案:弱学习器通常会过拟合下面哪几种机器学习的分类,完全不需要人工标注数据()。

答案:无监督学习;强化学习下面关于支持向量机(SVM)的描述错误的是()

答案:支持向量机不能处理分界线为曲线的多分类问题下面关于回归分析的描述错误的是()

答案:按照因变量的多少,可分为线性回归分析和非线性回归分析下述哪一个是机器学习的合理定义。()

答案:机器学习能使计算机能够在没有明确编程的情况下学习下列选项中,对于软间隔支持向量机,超平面应该是()。

答案:下列选项中,对于软间隔支持向量机,超平面应该是()。下列选项中,对于硬间隔支持向量机,超平面应该是()。

答案:下列选项中,对于硬间隔支持向量机,超平面应该是()。下列选项中,关于KNN算法说法不正确是()

答案:效率很高下列存在线性回归关系的是()

答案:正三角形的边长与周长下列关于朴素贝叶斯的特点说法错误的是()

答案:朴素贝叶斯模型无需假设特征条件独立下列关于主成分分析法(PCA)说法错误的是?()

答案:要选出方差最小的作为主成分下列关于Apriori算法说法错误的是()。

答案:Apriori算法运算过程中不需要找出所有的频繁项集下列不是SVM核函数的是()

答案:逻辑核函数下列不属于线性回归预测的应用场景的是()

答案:广告点击率下列()中两个变量之间的关系是线性的。

答案:重力和质量一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个属性测试;根结点包含样本全集。()

答案:对SVM的效率依赖于()。

答案:其它选项都对SVD可用于求解矩阵的伪逆。()

答案:对PCA投影方向可从最大化方差和最小化投影误差这两个角度理解。()

答案:对PCA会选取信息量最少的方向进行投影。()

答案:错PCA算法获取的超平面应具有哪些性质()

答案:数据压缩性;最大可分性logistic回归适用于因变量为()。

答案:多分类有序变量;二分类变量;多分类无序变量Logistic回归的因变量是连续型数据。()。

答案:错logistic回归只能用于二分类问题。()

答案:错logistic回归中也可以用正则化方法来防止过拟合。()

答案:对lasso中采用的是L2正则化。()

答案:错K近邻算法认为距离越近的相似度越高。()

答案:对K近邻算法中采用不同的距离公式对于结果没有影响。()

答案:错K近邻算法中数据可以不做归一化,因为是否归一化对结果影响不大。()

答案:错K近邻是一种比较成熟也是比较简单的机器学习算法,主要用于分类问题。()

答案:对K均值聚类时,初始质心不好会导致收敛速度差。()

答案:对K

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论