版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第1题以下对于梯度下降法中学习率lr的阐述,正确的是()。Alr小,收敛速度较快Blr大,收敛速度较慢Clr小,收敛速度较慢且较不易收敛Dlr大,收敛速度较快但可能导致不收敛第2题梯度下降法求函数极值算法步骤正确的是()。(1)给定初始点x0、阈值和学习率(2)计算函数在该点的导数(3)如果插值小于阈值则找到极值点,否则重复前3步(4)根据梯度下降更新公式得到下一个x点(5)计算更新前后两点函数值的差值A(1)(2)(4)(3)(5)B(2)(1)(5)(3)(4)C(1)(2)(4)(5)(3)D(1)(2)(5)(4)(3)第3题使用梯度下降法求y=(x-2.5)^2-1的极值点时,Resulttoolarge报错的主要原因是()。A初始化点没选好B学习率过大C迭代次数过小D梯度下降法不适用于求该类问题极值点第4题下列关于python中plot函数包叙述正确的是()。A用于对函数自动求导B用于绘制函数曲线图像C用于计算复杂函数解D用于求导数第5题下列对最小二乘法和梯度下降法的叙述正确的是()。A当特征变量小于10的四次方时,使用梯度下降法稳妥B对于更复杂的学习算法或更庞大的训练数据集,用最小二乘法较好C从计算的角度出发,梯度下降法比最小二乘法求解难度更大D上述无正确答案:第6题当训练样本数量趋向于无穷大时,在该数据集上训练的模型变化趋势,对于其描述正确的是()。A偏差(bias)变小B偏差变大C偏差不变D不变第7题以下哪种方法不能防止过拟合?()A交叉验证B低维嵌入C剪枝D集成学习第8题非线性机器学习算法有以下什么特性?()A针对难以用准则来描述的复杂模型B能够达到更深层次的抽象C能够进行广泛使用的分类算法D以上都是第9题下列两个变量之间的关系,哪个是函数关系?()。A儿子的身高与父亲的身高B正方形的边长与面积C人的工作环境与健康状况D学生的性别与数学成绩第10题在线性回归方程y=a+bx中,回归系数b表示()。Ax变动一个单位时,y的实际变动量By变动一个单位时,x的实际变动量C当x=0时,y的平均值Dx变动一个单位时,y的平均变动量第11题多次运行,随机化初始点是对存在局部最优点的函数求解的一种方案。第12题学习率是梯度下降法中的超参数。第13题理想情况下,梯度下降法与最小二乘法求解结果十分接近。第14题梯度下降在深度神经网络中被广泛使用。第15题最小二乘法仅当X^TX可逆时才可解。第16题什么是梯度下降的步长?A参数的变化量B目标函数的变化量C迭代次数D学习速率第17题如何确定梯度下降中的步长A通过试错方法B使用启发式算法C参考经验值D使用线性回归得到最优值第18题梯度下降中如何避免优化过程中的局部最优A增加迭代次数B使用随机梯度下降C增加学习速率D使用动量梯度下降第19题梯度下降中如何有效地捕捉到目标函数的全局最优?A调整学习速率B增加模型复杂度C使用梯度下降的变种算法D增加训练样本量第20题什么是梯度下降的收敛性?A算法是否能够找到全局最优解B算法是否能够收敛到最优解C算法如何快速收敛D算法的迭代次数第21题如何判断梯度下降的算法选择是否收敛?A通过可视化结果B通过调整步长C通过迭代执行时间判断D通过目标函数值的变化判断第22题下列______方法不适用于大规模数据集A随机梯度下降B小批量梯度下降C批量梯度下降D小批量随机梯度下降第23题下列关于小批量随机梯度下降算法,说法错误的是______A每次迭代使用一个小批量样本训练模型B每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关C训练大规模数据时,可以减少训练时间D能够实现并行运算第24题假设有3000条样本,使用小批量梯度下降法分10批进行训练,下列说法错误的是______。A每轮训练10个小批量B每个批的批量大小为300C每轮训练的样本总数为3000条D一共需要训练10轮第25题关于梯度下降法中学习率的说法,错误的是______A学习率设置过小,收敛速度会非常慢B学习率设置过大可能无法收敛C学习率在训练过程中必须是一个固定不变的数D为了兼顾模型的收敛速度和精度,在训练过程中可以动态调整学习率第26题下列______算法中,学习率随着迭代次数的增加而单调减小AAdaGradBRMSpropCAdaDeltaDAdam第27题小批量样本的选择、批量大小和学习率都会影响小批量梯度下降法的效率。第28题以下哪种策略不能()防止过拟合。A使用激活函数B加大训练数据量CDropout对网络进行裁剪D调整合适的学习率第29题多层神经网络使用梯度下降法,能够保证一定可以达到全局最小值点。第30题使用小批量随机梯度下降算法训练网络时,为了尽可能减少样本对训练的影响,在每轮训练前最好打乱样本顺序,使样本均匀分布。第31题使用批量梯度下降法时,无需打乱样本数据。第32题在自适应调整学习率算法中,学习率必须是单调递减的。第33题使用越先进的梯度下降法优化算法,神经网络训练结果一定越好。第34题以下关于梯度下降法的描述,错误的是哪些项?A负梯度方向是函数下降最快的方向B梯度下降法一定能够在凸优化问题中取得全局极值点C梯度下降法不一定能够在凸优化问题中取得全局极值点D负梯度方向是函数上升最快的方向正确答案:BD第35题下面有关最小二乘法说法错误的是A最小二乘法是一种数学优化技术B最小二乘法中的最优直线是能够使得实际观测值y与回归值y’之差的绝对值(误差)之和达到最小。C遥感图像的多项式纠正过程中,求解的是x,y组成二维空间的最优平面,只需要满足y的误差平方和Q达到最小值。D最小二乘法中最优解需要满足的条件是误差平方和Q达到最小值。第1题下列对回归问题和分类问题叙述正确的是()。A分类问题旨在实现对连续值的预测,例如股价的价格、房价等B对下午四点共享单车租用量高、中、低的预测问题属于回归问题C对下午四点共享单车租用量值的预测问题属于回归问题第2题下列对python函数叙述正确的是()。Areshape用于对已定义函数重新定义Breshape用于重新初始化Creshape用于将矩阵变为特定维度第3题本章中房价预测问题用了以下哪个数据集?()A纽约房价数据集B北京房价数据集C波士顿房价数据集D亚特兰大房价数据集第4题读入数据集时常用的python库是()。AnumpyBpandasCsklearnDTorch第5题下列哪项误差用于本章房价预测问题中()。AMSElossBCrossentropylossCLoglossD0-1loss第6题下列对于多项式函数叙述正确的是()。Ax^3-2xyz^2+2yz+1是四元多项式B2+x+x^3是3阶多项式Cx+y+z是3阶多项式第7题下列对python函数叙述正确的是()。A调用leastsq时args参数不可省Bnp.linspace(0,80,1000)表示取0-80之间1000个点CSubplot(arg1,arg2)中arg1表示在水平方向画图的数量,arg2表示在垂直方向画图的数量第8题本章实验中训练集与测试集的划分比为()。A3:7B5:5C7:3D8:2第9题本章麻疹疫苗接种率预测实践中用什么方法一次得到3个实验的预测结果?()A通过for循环B通过调用linearregression库C通过调用make_pipeline类第10题本章麻疹疫苗接种率预测实践中,均方误差如何随多项式次数增加变化()。A随着多项式次数的增加下降B随着多项式次数的增加上升C随着多项式次数的增加先上升后下降,次数m=2时MSE最大第11题随机变量X~N(1,2),Y~N(3,5),则X+Y~()。AN(4,7)BN(4,√2+√5)CN(1+√3,7)D不确定第12题下列关于线性回归说法错误的是()。A在现有模型上,加入新的变量,所得到的R^2的值总会增加B线性回归的前提假设之一是残差必须服从独立正态分布C残差的方差无偏估计是SSE/(n-p)D自变量和残差不一定保持相互独立第13题已知变量x与y正相关,且由观测数据算得x的样本平均值为3,y的样本平均值为3.5,则由该观测数据算得的线性回归方程可能是()。Ay=0.4x+2.3By=-2x+9.5Cy=-0.3x+4.4Dy=2x-2.4第14题在两个变量的回归分析中,作散点图是为了()。A根据经验选定回归方程的类型B估计回归方程的参数C直接求出回归直线方程D直接求出回归方程第15题以下哪些函数是凸函数?()Af(x)=xBf(x)=x^3Cf(x)=x^4Df(x)=x^3+x^4正确答案:AC第16题在K近邻算法应用于丁香花数据集的实验中,以下哪一种花的特征分布与其他几种有明显区分度()。AwillowBsyringaCsunflowerDdaphne第17题下面哪一项不属于监督学习任务A聚类B回归C分类D降维第18题哪种方法能建模输入变量和输出变量之间映射的函数A线性分类B线性回归C聚类D主成分分析第19题使用误差的平方和表示样本点的误差是哪种损失函数?AKL散度损失B交叉熵损失函数C平方损失函数DL1损失函数第20题使用哪个python库可以绘制散点图AmatplotlibBtorchCmathDnumpy第21题如果想指定画布的大小,需要调用对应包的哪个函数AfigsizeBscattarCset_titleDplot第22题sklearn中哪个模型时线性回归模型Adiscriminant_analysisBsvmCdecompositionDlinear_model第23题根据历史数据,预测5点中共享单车的租车量,是哪种问题?A分类问题B回归问题C聚类问题D降维问题第24题根据历史数据,预测5点中共享单车的租车量是高、中还是低,属于哪一类问题?A分类问题B回归问题C聚类问题D降维问题第25题最小二乘法需要求解损失函数的一阶偏导数并找到导数为0的点第26题回归是一种监督学习方法第27题训练模型的过程实质上是求解参数的过程第28题回归问题旨在对离散值进行预测第29题一元线性回归是将1个自变量进行线性拟合的过程第30题sklearn是一个涵盖了很多主流机器学习算法的python库第31题最小二乘法是线性回归模型参数的一种求解方法第32题在波士顿房价预测例子中,回归模型不会直接输出房价预测的结果,需要用额外的推导公式进行计算第33题在波士顿房价预测例子中,使用的特征越多,模型输出的效果越好第34题平方误差(MSE)通常会作为回归任务的评价指标第35题多项式只能由变量和常量的有限次加减法得到,不能使用乘除法3.3习题第1题下列关于聚类和分类的说法中,错误的是()。A聚类是一种无监督学习,在聚类中没有表示数据类别的分类或者分组信息B分类需要从训练集中进行学习,从而具备对未知数据的分类能力C聚类使同一类对象的相似度尽可能大;不同类对象之间的相似度尽可能小D分类是一种无监督学习第2题下列属于聚类算法的方法包括()。(1)划分方法(2)层次方法(3)基于密度方法(4)基于网格方法(5)基于模型方法A(1)(2)(4)(5)B(1)(3)C(1)(5)D(1)(2)(3)(4)(5)第3题划分方法包括的典型方法有()。(1)K-means及其变种(2)K-中心点(3)CLARA(4)CLARANSA(1)(2)B(1)(2)(3)C(1)(2)(3)(4)D(2)(3)(4)第4题K-means的算法步骤正确的是()。输入:n个对象的数据集D,簇数目k输出:k个簇(1)将每个对象分配到中心与其最近的簇(2)从D中随机选择k个对象作为初始簇中心(3)重新计算簇的均值,使用新的均值作为每个簇的中心(4)重复迭代,直到所有簇中的对象不再变换A(1)(2)(3)(4)B(2)(1)(3)(4)C(3)(1)(2)(4)D(3)(2)(1)(4)第5题下列关于K-means算法叙述有误的是()。A算法可能终止于局部最优解B算法只有当簇均值可求或者定义可求时才能使用C簇的数目k必须事先给定D算法适合发现非凸形状的簇,或者大小差别很大的簇第6题对于DBSCAN,下列说法错误的是()。A计算复杂度为O(n^2)B使用空间索引的数据库计算复杂度降低为O(nlogn)C对参数较不敏感D真实的高维数据具有非常倾斜的分布,全局密度参数不能刻画其内在的聚类结构第7题下列关于DBSCAN定义叙述错误的是()。A密度可达是直接密度可达的传递闭包,是对称的,核心对象之间互相密度可达B密度相连是一种对称的关系C基于密度的簇,是基于密度可达性的最大的密度相连对象的集合,不包含在任何簇中的对象被认为是噪声第8题下列关于网格的方法中叙述错误的是()。A采用一个多分辨率的网格数据结构,将空间量化为有限数目的单元,这些单元形成了网格结构,所有的聚类操作都在网格上进行B直接聚类的对象是数据对象,而不是空间C处理速度快D经典方法包括STING,WaveCluster第9题下列关于基于模型的方法叙述错误的是()。A假设数据是根据潜在的概率分布生成的B基于模型的方法试图找到其背后的模型,并使用其概率分布进行聚类C经典方法包含:期望最大化方法、概念聚类、基于神经网络D上述选项无误第10题使用k-means算法对红酒数据集进行聚类的实践中,与事实不符的是()。A不提供红酒的标签,需要根据13个特征对红酒进行聚类B数据集通过sklearn.datasets的load_wine()函数加载C自实现的Kmeans模型与调用sklearn包的kmeans模型的准确度相等DKmeans算法对该数据集划分效果较好第11题通过监督学习进行二分类模型训练过程中,可能会遇到正负样本数量不平衡的情况(比如正样本有50万但是负样本有100万),以下哪种方法是不恰当的处理?()A将所有数据加入训练集,充分利用全部数据B从100万负样本中随机抽取50万C正样本的权重设置为2,负样本权重设置为1D复制两份正样本参与到训练中第12题假如你使用EM算法对一个有潜变量的模型进行最大似然估计(Maximumlikelihoodestimate)。这时候要求你将算法进行修改,使得其能找到最大后验分布(MaximumaPosterioriestimation,MAP),你需要修改算法的哪个步骤?()AExpectionBMaxmizationC不需要修改D都需要修改第13题EM算法是()。A有监督B无监督第14题关于数据预处理对聚类分析的影响的错误说法是()。A可能改变数据点之间的位置关系B可能改变簇的个数C有助于提升聚类质量D可能产生不确定影响第15题影响基本K-均值算法的主要因素有()。A样本输入顺序B模式相似性测度C聚类准则D初始类中心的选取正确答案:ABD第16题下列机器学习常用算法中哪个是聚类算法而不属于分类算法AK-meansB最小距离分类器CKNN(K近邻)D逻辑回归第17题在EM算法中,E代表期望,M代表A均值B最大化C最小化D均方误差第18题监督学习的训练集是带有标签的数据第19题以下哪个方法可以确定K-means算法已经收敛?A划分不再改变B聚类中心不再改变C以上两种方法均可D以上两种方法均不可第20题以下哪些选项是K-means聚类面临的问题?A难以选择合适的K值B易陷入局部最优解C不适用于非凸面形状的簇或大小差别较大的簇D以上三种都是第21题DBSCAN算法的优点是A耐噪声能力强B能够处理任意形状与大小的簇C以上两种都是D以上两种都不是第22题下列那种点不是DBSCAN算法中的点的类别?A核心点B离群点C边界点D噪声点第23题在选择DBSCAN的参数时,点到它的K个最近邻的距离中的K,被选作为哪一个参数?AMinPtsBEpsC边界D中心第24题当采用K-means的方法选择DBSCAN的Eps和MinPts参数时,如果设置的K的值太大,则小族(尺寸小于K的族)可能会被标记为A噪声B边界簇C核心簇D中心第25题DBSCAN难以处理高维数据,其主要原因是A簇的大小未知B噪声点过多C数据的形状复杂D开销过大第26题对于DBSCAN算法,在参数Eps固定,MinPts取值较大时,会导致A能很好的区分各类簇B低密度的点的聚集区划为簇,其余的划为噪声C只有高密度的点的聚集区划为簇,其余划为噪声D无显著影响第27题DBSCAN的参数Eps固定时,MinPts的值越大越好。第28题DBSCAN会把所有点划分到各自的族中。第29题在所有核心点的Eps半径邻域内的点数都不少于MinPts值。第30题DBSCAN的空间复杂度始终都是O(n)。第31题以下哪个聚类算法不属于基于网格的聚类算法ABIRCHBWaveClusterCSTINGDCLIQUE第32题基于网格的聚类算法执行效率较高,且可以较好地处理不规则分布的数据第33题层次聚类方法会将被聚类的对象凝聚或分类为一颗聚类树第34题聚类分析可以看作是一种非监督的分类第35题如果有n个对象,DBSCAN算法在最差情况下的时间复杂度是?AO(m^2)BO(m)CO(mlogm)DO(logm)4.4习题第1题下列关于决策树算法,错误的描述是()。AID3算法使用信息增益方法作为属性的选择标准,来帮助确定生成每个节点时所采用的合适属性BC4.5决策树生成算法相对于ID3的改进是使用信息增益率来选择节点属性CCART决策树是一种十分有效的非参数分类和回归方法,通过构建树、修剪树、评估树来构建一个二叉树DID3算法只适用于离散的描述属性,C4.5算法只适用于连续的描述属性第2题下列决策树流程顺序正确的是()。(1)数据准备:通过数据清洗和数据处理,将数据整理为可以直接应用决策树的向量(2)决策分类:根据训练决策树模型,将预测数据进行分类(3)生成分支:划分成两个或多个节点(4)寻找最佳特征:遍历每个特征的每一种划分方式,找到最好的划分特征(5)生成决策树:对分裂后的节点迭代执行,直到每个节点只有一个类别A(1)(2)(3)(4)(5)B(1)(4)(3)(5)(2)C(1)(3)(4)(2)(5)D(1)(2)(4)(3)(5)第3题给定17个样本类别为颜色,其中有8红9绿,则其信息熵为()。A0.995B1C0.9975D0.9875第4题下面关于ID3算法中说法错误的是()。AID3算法要求特征必须离散化B信息增益可以用熵,而不是GINI系数来计算C选取信息增益最大的特征,最为树的根节点DID3算法是一个二叉树模型第5题决策树进行分类时过拟合的原因有()。A训练数据中存在噪音数据,决策树的某些节点有噪音数据作为分割标准,导致决策树无法代表真实数据B训练数据没有包含所有具有代表性的数据,导致某一类数据无法很好的匹配C多重比较,需要在每个变量的每一个值中选取一个作为分割的代表,所以选出一个噪音分割标准的概率很大D以上都属于决策树分类时过拟合的原因第6题对决策树优缺点叙述有误的是()。A决策树能同时处理数据型和常规型属性B可以处理不相关特征数据C决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度D决策树不易出现过拟合第7题下列关于决策树优化的说法中不正确的是()。A决策树过拟合往往是节点过多,所以要剪枝B前置裁剪在构建决策树的国成时,提前停止,切分节点的条件设置的很苛刻C后置裁剪通过级小化决策树整体的损失函数或代价函数来实现D前置裁剪得到的决策树可以达到最优,获得较好的结果第8题ABCDE第9题通常来说,哪个模型被认为更易于解释()。ASVMBLogisticRegressionCDecisionTreeDK-nearestNeighbor第10题在构建决策树时,需要计算每个用来划分数据特征的得分,选择分数最高的特征,以下可以作为得分的是()。A熵B基尼系数C训练误差D以上都是第11题决策树学习过程中,哪些情况可能会导致问题数据(特征相同但是标签不同)?()A数据有噪音B现有的特征不足以区分或决策C数据错误D以上都是第12题在以下哪种情况下,增益比比信息增益更可取()。A当类别变量具有非常打的类别数量的时候B当类别变量具有非常小的类别数量的时候C和类别数量无关第13题如何为基于树的模型选择最佳超参数?()A在训练数据上度量performanceB在验证数据上度量performanceC两个都对D两个都不对第14题决策树能在相对短的时间内对大型数据源做出可行且效果良好的结果。第15题决策树对连续性字段比较难预测。第16题C4.5选择属性用的是()。A信息增益率B交叉熵C信息熵D信息增益第17题ID3算法的缺点不包括()。A没有考虑缺失值B信息增益准则对可取值数目较多的特征有所偏好,类似“编号”的特征其信息增益接近于1CID3没有剪枝策略,容易过拟合D既能用于处理离散分布的特征,也能用于连续分布的特征处理第18题ID3和C4.5和CART都只能用于分类问题,不能用于回归问题。第19题ID3算法的核心思想就是以信息增益来度量特征选择,选择信息增益最大的特征进行分裂。第20题ID3选择属性用的是()。A信息增益率B信息增益C信息熵D交叉熵第21题关于C4.5算法,错误的是()。AC4.5算法采用基尼系数的大小来度量特征的各个划分点BC4.5算法引入悲观剪枝策略进行后剪枝CC4.5算法可以处理非离散的数据DC4.5算法最大的特点是克服了ID3对特征数目的偏重这一缺点第22题关于CART算法,错误的是()。ACART算法既可以处理分类问题,也可以处理回归问题B可以处理样本不平衡问题CCART算法采用信息增益率的大小来度量特征的各个划分点DCART分类树采用基尼系数的大小来度量特征的各个划分点第23题决策树的生成只考虑局部最优,相对地,决策树的剪枝则考虑全部最优。第24题决策树的说法正确的是()。ACART使用的是二叉树B其可作为分类算法,也可用于回归模型C不能处理连续型特征D它易于理解、可解释性强正确答案:ABD第25题决策树可能会产生过度匹配的问题第26题决策树可以处理连续型数据,不需要将其离散化。第27题决策树算法对异常值不敏感。第28题决策树算法属于()学习。A监督学习B无监督学习C半监督学习D强化学习第29题决策树有哪些代表算法()。AID3BC4.5CCARTDCNN正确答案:ABC第30题我们想要在大数据集上训练决策树模型,为了使用较少的时间,可以:()。A增大学习率B减少树的数量C减少树的深度D增加树的深度第31题以下关于决策树算法说法错误的是()。AC4.5算法不能用于处理不完整数据BC4.5算法选择信息增益率来选择属性CCART算法选择基尼系数来选择属性DID3算法选择信息增益最大的特征作为当前决策节点第32题以下关于决策树特点分析的说法错误的有()。A推理过程容易理解,计算简单B算法容易造成过拟合C算法自动忽略了对模型没有贡献的属性变量D算法考虑了数据属性之间的相关性第33题以下关于决策树原理介绍错误的有()。A决策树算法本质上是贪心算法B决策树算法属于无监督学习C决策树生成过程中需要用到分割法D决策树决策过程从根节点开始第34题以下那种说法是错误的()。A一个系统越是有序,信息熵就越低B中国足球队战胜巴西足球队的信息熵要小于中国乒乓球队战胜巴西乒乓球队的信息熵C信息增益=信息熵-条件熵D一个系统越是混乱,随机变量的不确定性就越大,信息熵就越高第35题在决策树的训练过程中,选择划分特征的准则通常是()。A最大化信息增益B最小化基尼指数C最小化均方差D最小化损失函数5.2习题第1题K近邻算法中,①计算距离②决策分类③寻找邻居④数据准备,算法的正确流程为()。A①②③④B④③①②C④②①③D④①③②第2题下列哪一项不是邻近算法的优点?()A支持多分类B每一个点都进行一次全局运算C算法简单易实现D对异常噪声容忍度较高第3题ABCD第4题在KNN算法的输入中,除了训练数据、测试数据、标签之外还必须要输入()。A距离度量方式B数据集名称C数据集大小D聚类数K第5题在试验中,knn_classify的返回之中r指的是()。A聚类数B第K和K+1个训练点的中心到测试点的距离C聚类标签D准确率第6题丁香花数据集有几种特征?()A2B3C4D5第7题在实验中可用来读取文件的python库为()。AnumpyBpyplotCtorchDpandas第8题丁香花特征两两可视化比较时,需要绘制()个子图。A5B3C6D10第9题训练集测试集的比重关系通常是()。A训练集大于测试集B训练集等于测试集C训练集小于测试集D三种情况都有可能第10题随着K值由小到大测试,模型的准确率的变化趋势为()。A由小到大B由大到小C先逐渐变小后逐渐变大D先逐渐变大后逐渐变小第11题丁香花数据集的缺点主要体现在()。A数据量B数据的标签分布C数据的平均质量D数据的特征分布第12题在K近邻算法应用于丁香花数据集的实验中,以下哪一种花的特征分布与其他几种有明显区分度()。AwillowBsyringaCsunflowerDdaphne第13题为什么K近邻算法中,当K值较大时随着K值增大,模型表现会下降()。A因为此时模型偏差大,模型欠拟合B因为此时模型方差大,模型过拟合C因为K值越大,模型决策时参考的点越多D因为K值越大,模型对噪声越敏感第14题下列哪一项不是丁香花数据集的数据特征()。Asepal_lengthBsepal_widthCsepal_weightDpetal_length第15题较常用的决策规则包括()。A多数表决法B加权表决法C随机表决法D中位数表决法正确答案:AB第16题k近邻算法的基本思想是什么?A给定一个训练数据集,对新的输入实例,找到与该实例最相似的K个实例,然后根据这些实例的类别进行投票,多数类别即为预测类别。B给定一个训练数据集,对新的输入实例,找到与该实例最远离的K个实例,然后根据这些实例的类别进行投票,少数类别即为预测类别。C给定一个训练数据集,对新的输入实例,找到与该实例最相似的K个实例,然后根据这些实例的类别进行加权平均,权重为相似度的倒数。D给定一个训练数据集,对新的输入实例,找到与该实例最远离的K个实例,然后根据这些实例的类别进行加权平均,权重为距离的倒数。第17题k近邻算法中k值的选择会影响什么?A模型的复杂度和泛化能力B模型的运行速度和内存消耗C模型的稳定性和鲁棒性D模型的可解释性和可视化效果第18题k近邻算法中距离度量的常用方法是什么?A余弦相似度B欧式距离C曼哈顿距离D所有以上第19题k近邻算法是一种什么类型的机器学习方法?A监督学习B无监督学习C半监督学习D强化学习第20题k近邻算法中,如果k值等于训练样本的个数,那么对于任意的输入实例,预测的结果是什么?A训练集中最近的一个实例的类别B训练集中最远的一个实例的类别C训练集中类别最多的那一类D训练集中类别最少的那一类第21题k近邻算法中,为了消除不同特征之间量纲和取值范围的影响,通常需要对特征进行什么操作?A归一化B标准化C正则化D归一化和标准化第22题k近邻算法中,如果有多个类别的样本数相同,都是最多的,那么对于新的输入实例,应该如何判断其类别?A随机选取一个类别B选取距离最近的一个类别C选取距离最远的一个类别D重新选取一个较小的k值第23题k近邻算法中,为了提高查找效率,通常使用什么数据结构来存储训练数据集?A数组B链表C堆D树第24题k近邻算法中,如果训练数据集中有很多噪声或异常值,会对预测结果产生什么影响?A没有影响B降低预测准确率C提高预测准确率D降低预测效率第25题k近邻算法中,如果使用欧式距离作为距离度量,那么下列哪个点与点(3,4)的距离最近?A(1,2)B(4,5)C(5,3)D(2,6)第26题k近邻算法中,如果使用余弦相似度作为相似度度量,那么下列哪个点与点(3,4)的相似度最高?A(1,2)B(5,3)C(4,5)D(2,6)第27题k近邻算法中,如果使用欧式距离作为距离度量,并且k=3,那么对于新输入实例(4,6),它应该被分类为哪一类?已知训练数据集如下:|x|y|类别||—|—|----||1|1|A|,|2|3|A|,|3|5|B|,|4|4|B|,|5|7|C|,|6|8|C|AABBCCDD第28题k近邻算法中,如果两个实例的距离相等,那么在选择最近邻时应该如何处理?A随机选择一个B选择类别较多的一个C选择类别较少的一个D两个都选择第29题k近邻算法中,如果训练数据集中有大量的噪声或异常值,那么对预测结果的影响是什么?A没有影响B有利于提高准确率C有害于提高准确率和鲁棒性D有利于提高鲁棒性第30题k近邻算法中,如果训练数据集中有大量的冗余特征或无关特征,那么对预测结果的影响是什么?A没有影响B有利于提高准确率C有利于提高鲁棒性D有害于提高准确率和鲁棒性第31题k近邻算法中,如果训练数据集中各个特征的尺度或量纲不一致,那么对预测结果的影响是什么?A没有影响B有利于提高准确率C有利于提高鲁棒性D有害于提高准确率和鲁棒性第32题KNN算法中,K值的选择对分类结果有很大影响。K值过小会导致(),K值过大会导致()。A.欠拟合,过拟合B.过拟合,欠拟合C.欠拟合,欠拟合D.过拟合,过拟合A欠拟合,过拟合B过拟合,欠拟合C欠拟合,欠拟合D过拟合,过拟合第33题KNN算法的核心思想是()。A找到最近的K个样本点B找到最远的K个样本点C找到距离最近的样本点D找到距离最远的样本点第34题KNN算法是一种基于实例的学习方法,它是一种()算法。A分类B回归C聚类D关联第35题在k近邻算法中,以下哪个选项描述了正确的特征选择方法?A选择与目标变量相关性最高的特征。B选择与目标变量相关性最低的特征。C选择与目标变量相关性最高和最低的特征。D随机选择一些特征。6.4习题第1题SVM训练好后,我们可抛弃非支持向量的样本点,仍然可以对新样本进行分类。第2题SVM对来自其他分布的噪声样本鲁棒。第3题ABCD第4题假设有一个数据集,其中n=10个特征,m=5000个示例。使用梯度下降法训练logistic回归分类器后,您会发现它对训练集拟合不足,并且在训练集或交叉验证集上没有达到预期的性能。以下哪项可能是有希望采取的步骤?()A减少训练集中的样本数量B用其他的优化方法替代梯度下降方法,因为通过梯度下降可能会得到一个局部最小值C增大学习率D尝试用一个包含更多隐藏单元的神经网络第5题SVM如何解决线性不可分问题?()A无法解决B通过去除部分点使得空间线性可划分C通过核函数将特征映射到高维空间D添加超参数项第6题下列关于SVM优缺点总结,错误的是()。ASVM的最终决策函数只由少数支持向量所确定,计算的复杂性取决于支持向量的数,而不是样本空间的维数,避免了维数灾难BSVM基于结构风险最小化原则,避免了过学习问题,泛化能力强C是一个非凸的优化问题,局部最优解不一定是全局最优解DSVM算法简单,且具有较好的鲁棒性第7题下列关于SVM的叙述中,有误的一项是()。ASVM对大规模训练样本难以实施:由于SVM通过二次规划来求解支持向量,涉及m阶矩阵的计算(m为样本的个数),当m数目很大时矩阵存储和计算耗费大量的机器内存和运算时间B解决多分类问题存在一定困难。经典的SVM算法只给出了二分类算法,需通过多个二类SVM组合解决C对于每个高维空间在此空间的映射F,SVM只是将高维空间的复杂性困难转化为求核函数的困难D增删非支持向量样本对SVM有一定影响第8题关于sklearn库中的svm叙述有误的是()。Asklearn包含两个SVM的包:SVC和LinearSVCBLinearSVC有多种惩罚参数和损失函数可供选择。训练集实例数量大时也可以很好的归一化CLinearSVC支持稠密和稀疏输入矩阵DSVC训练时间复杂度为O(nlogn),训练集实例数量大时很难进行归一化第9题关于LinearSVC叙述有误的是()。A惩罚参数C,C越大对误分类的惩罚越大,测试集准确率高,但是容易过拟合BPenalty参数可指定L1和L2范数用于惩罚C参数Max_iter为运行的最大迭代次数D以上答案无误第10题SVM的核函数包含()。ArbfBpolyCsigmoidD以上都是第11题支持向量机与逻辑回归的数学本质上的区别是什么?()A损失函数B是否有核技巧C是否支持多分类D其余选项皆错第12题SVM为什么会使用替代损失函数(如hinge损失,指数损失等)?()A替代损失函数可以扩大SVM的应用场景B0/1损失函数非凸、不连续C替代损失函数可以减少过拟合D其余选项皆错第13题如果一个样本空间线性可分,那么,我们能找到()个平面来划分样本。A不确定B1C无数DK第14题SVM算法的最小时间复杂度是O(n*n),基于这一点,以下哪种规格的数据集并不适用于该算法?()A大数据集B小数据集C中数据集D不受数据集大小的影响第15题在SVM领域种,margin的含义是()。A盈利率B损失误差C间隔D保证金第16题SVM中的泛化误差代表什么?A分类超平面与支持向量的距离BSVM对新数据的预测准确度CSVM中的误差阈值第17题怎样理解“硬间隔”?ASVM只允许极小误差BSVM允许分类时出现一定范围的误差C二者都不对第18题SVM算法的最小时间复杂度是O(n²),基于此,以下哪种规格的数据集并不适该算法?A大数据集B小数据集C中等数据集D不受数据集大小影响第19题SVM算法的性能取决于:A核函数的选择B核函数的参数C软间隔参数CD以上所有第20题支持向量是最靠近决策表面的数据点第21题以下哪种情况会导致SVM算法性能下降?A数据线性可分B数据干净、格式整齐C数据有噪声,有重复值第22题假设你选取了高Gamma值的径向基核(RBF),这表示:A建模时,模型会考虑到离超平面更远的点B建模时,模型只考虑离超平面近的点C模型不会被数据点与超平面的距离影响第23题若参数C(costparameter)被设为无穷,下面哪种说法是正确的?A只要最佳分类超平面存在,它就能将所有数据全部正确分类B软间隔SVM分类器将正确分类数据C二者都不对第24题SVM中的代价参数C表示什么?A交叉验证的次数B用到的核函数C在分类准确性和模型复杂度之间的权衡D以上都不对第25题假定有一个数据集S,但该数据集有很多误差(这意味着不能太过依赖任何特定的数据点)。若要建立一个SVM模型,它的核函数是二次多项式核,同时,该函数使用变量C(costparameter)作为一个参数。若C趋于无穷,以下哪种说法正确?A数据仍可正确分类B数据无法正确分类C不确定D以上都不对第26题假定有一个数据集S,但该数据集有很多误差(这意味着不能太过依赖任何特定的数据点)。若要建立一个SVM模型,它的核函数是二次多项式核,同时,该函数使用变量C(costparameter)作为一个参数。若C的值很小,以下哪种说法正确?A会发生误分类现象B数据将被正确分类C不确定D以上都不对第27题若训练时使用了数据集的全部特征,模型在训练集上的准确率为100%,验证集上准确率为70%。出现的问题是?A欠拟合B过拟合C模型很完美第28题下面哪个是SVM在实际生活中的应用?A文本分类B图片分类C新闻聚类D以上都对第29题在应用高斯核SVM之前,通常都会对数据做正态化(normalization),下面对特征正态化的说法哪个是正确的?1对特征做正态化处理后,新的特征将主导输出结果2正态化不适用于类别特征3对于高斯核SVM,正态化总是有用A1B1和2C1和3D2和3第30题下面关于SVM中核函数的说法正确的是?1核函数将低维空间中的数据映射到高维空间2它是一个相似度函数A1B2C1和2D以上都不对第31题假定现在有一个四分类问题,你要用One-vs-all策略训练一个SVM的模型。你需要训练几个SVM模型?A1B2C3D4第32题假定现在有一个四分类问题,你要用One-vs-all策略训练一个SVM的模型。假定数据集中每一类的分布相同,且训练一次SVM模型需要10秒,若完成上面的任务,共花费多少秒?A20B40C60D80第33题假定现在有一个二分类问题,你要用One-vs-all策略训练一个SVM的模型。你需要训练几个SVM模型?A1B2C3D4第34题假定你使用阶数为2的线性核SVM,将模型应用到实际数据集上后,其训练确率和测试准确率均为100%。假定现在增加模型复杂度(增加核函数阶),会发生以下哪种情况?A过拟合B欠拟合C什么都不会发生,因为模型准确率已经到达极限D以上都不对第35题假定你使用阶数为2的线性核SVM,将模型应用到实际数据集上后,其训练确率和测试准确率均为100%。在增加了模型复杂度之后,你发现训练准确率仍是100%,原因可能是?1数据是固定的,但我们在不断拟合更多的多项式或参数,这会导致算法开始记忆数据中的所有内容2由于数据是固定的,SVM不需要在很大的假设空间中搜索A1B2C1和2D二者都不对7.3习题第1题天文数据挖掘对应机器学习中的哪一类问题?()A分类问题B回归问题第2题实验数据包括索引文件和()文件。A波长B波段第3题索引文件对应记录波段文件id号和()信息?A回归B分类第4题数据集中带rank的是第()阶段测试集?A一B二第5题本实验采用哪一种的分类方法?()ASVMB集成学习方法C神经网络方法第6题PCA思想是将n维特征映射到k维特征上,这里的n和k之间的关系为()。An=kBnCn>k第7题NMF方法中对于任意给定的非负矩阵V,得到两个非负矩阵W和H,满足V=W*H,其中W矩阵称为()。A基矩阵B系数矩阵C权重矩阵第8题NMF中哪个矩阵可以用来代替原始矩阵,从而对原始矩阵进行降维()。A基矩阵B系数矩阵第9题python中tqdm包的作用是()。A科学计算B大数据分析C在长循环中进度提示第10题本章实验具体的实现方法是()。ALGBBSVMCPCA第11题非负矩阵分解的简称是()。ANMFBFCACICA第12题独立主成分分析的本质是()。A线性变换B非线性变换第13题因子分析技术的作用是()。A数据增强B数据简化第14题LAMOST数据集中unknown类别表示()。A人类未知星体B由于光谱质量,未给出确切分类的天体第15题波段文件中的采样点个数为()。A2500B2600C2700第16题波段文件中的采样点个数为()。A2500B2600C2700第17题实验数据包括()文件和()文件A索引,波段B索引,波长C顺序,波长D顺序,波段第18题LAMOST光谱分类中QSO表示什么类别?A恒星B星系C类星体D未知天体第19题数据集中带test的是第()阶段测试集?A一B二第20题评价函数marcoF1score计算F1score的()平均A几何B加权C调和D算数第21题本实验首先要做的工作是A特征提取B分类第22题PCA基于()对数据进行压缩降维、去噪A相关矩阵B对角矩阵C变量协方差矩阵D正交矩阵第23题NMF方法中对于任意给定的非负矩阵V,得到两个非负矩阵W和H,满足V=W*H,其中H矩阵称为()。A基矩阵B系数矩阵第24题NMF方法中的V矩阵每一列代表一个()A观测B特征第25题因子分析通过研究众多变量之间的内部依赖关系,探求观测数据中的基本结构,并用少数几个()来表示其基本的数据结构A假想变量B显在变量第26题独立成分分析把数据或信号分离成()的非高斯信号源的线性组合A互相关B互信息C相关系数D统计独立第27题ICA又称为()A主成分分析B因子分析C盲源分离D非线性降维第28题ICA观察的随机信号x服从模型x=As,其中s为()A未知源信号B未知混合矩阵第29题ICA观察的随机信号x服从模型x=As,其中A为()A未知源信号B未知混合矩阵第30题functools的作用是?()A函数装饰器B高阶函数操作C偏函数应用D缓存机制第31题mutiprocessing包是python中的()管理包A并行计算B进程管理C线程管理D分布式计算第32题seaborn是python中的一个()库。A数据可视化B机器学习C数据处理D数据科学第33题NMF方法中的V矩阵每一行代表一个()A观测B特征第34题PCA思想是将n维特征映射到k维特征上,这k维特征称为()A特征向量B投影向量C降维特征D主元第35题LAMOST光谱分类中GALAXY表示什么类别?A恒星B星系C类星体D未知天体第36题所有波段文件的波段区间和采样点都()A相同B不同8.5习题第1题以下哪一项不是实验中的道路属性?()AIDB长度C宽度D车流量第2题本实验采取的模型不包含()。ACNNBDNNCXGBDLGB第3题对于数据的预处理不包括()。A补充缺失值B主成分分析提取C改变数据分布D删除质量不好的数据第4题以下不属于实验介绍的缺失值填充方法的一项是()。A中值填充B差值填充C随机填充D不填充第5题以下哪一项不应该被考虑为特征工程中的分类标准?()A是否是节假日B是否是周末C是清晨还是傍晚D是否是奇数日期第6题以下属于集成算法的是()。ADNNBXGBCLSTMDRNN第7题以下不属于集成算法类别的是()。ABaggingBBoostingCLSTMDStacking第8题以下哪一项不属于xgb模型的参数?()AetaBmax_depthCmomentumDobjective第9题DNN的定义为()。A一个输入层,一个或多个隐藏层,多个输出层B多个输入层,一个或多个隐藏层,一个输出层C一个输入层,一个或多个隐藏层,一个输出层D多个输入层,一个或多个隐藏层,多个输出层第10题本章实验中被用来搭建网络模型的python数据包为()。ApandasBpytorchCkerasDnumpy第11题在智慧交通实验中,处理无效值的方法是()。A设为NULLB设为0C直接删除D取平均值填充第12题在智慧交通实验中,取得了最佳表现的模型是()。ALSTMBDNNCseq2seqDxgboost第13题在智慧交通实验中,构建DNN模型时,没有使用以下哪一模块?()AtransformerBreluCdense第14题在智慧交通实验中,构建LSTM模型时,没有使用以下哪一模块?()AdenseBPCACLSTM第15题在智慧交通实验的数据分析环节中,以下哪一因素对通行时间的影响不大?()A节假日B月份C时刻D是否早高峰第16题数据集中每条link的直接上游由属性()表示。Alink_IDBin_linksCout_links第17题link历史通行时间表中time_interval字段的类型为()。AstringBdateCdouble第18题实验中没有用到的模型或方法为()。AXgboostBLSTMCDNNDSVM第19题数据集中link_class属性取值都为1,此实验中为无用信息。第20题实验中travel_time分布跨度比较大,采用的处理措施为()。A最小-最大规范化B零均值归一化Clog1P变换D无需处理第21题实验中travel_time_1p字段与holiday字段呈正相关。第22题实验中与travel_time相关性不大的字段为()。AdayBhourCholidayDmonth第23题特征工程是将原始数据转化为可由算法中训练与预测所使用的矢量的过程。第24题特征工程的预处理过程不包括()。A缺失值处理B低质量数据删除C数据类型变换D分布变换正确答案:ABCD第25题Xgboost属于常用集成方法中的()类。AbaggingBstackingCboosting第26题Xgboost算法的优点有()。A扩展性强B支持并行C适合工业应用正确答案:ABC第27题seq2seq模型属于encoder-decoder结构的一种。第28题seq2seq模型中,将输入序列压缩成指定长度的向量,这个过程称为()。A编码B解码C量化D池化第29题seq2seq模型中获取语义向量的方法不包括()。A将第一个输入的隐状态做变换的到语义向量B将最后一个输入的隐状态作为语义向量C对最后一个隐状态做变换的到语义向量D对输入序列所有因状态做变换的到语义向量第30题seq2seq模型中decoder负责根据语义向量生成指定的序列,这个过程也称为()。A编码B解码C量化D池化第31题seq2seq模型的解码过程中语义向量C(encoder输出)参与每一个时间步的运算。第32题seq2seq模型可以并行处理多个时间步的输入。第33题实验数据中路段(link)属性表没有提供的属性为()。Alink_classBlengthCwidthDin_links第34题下列特征中不属于宏观特征的为()。A前两小时同样时刻各种路段通行时间B天气C日期D节假日第35题下列不属于深度模型的是()。ADNNBLSTMCLightgbmDSeq2Seq9.11习题第1题本实验中数据预处理小节中介绍的内容不包括()。A缺失值处理B样本不平衡C常见分布类型D主成分分析第2题下列哪一项属于one-hot编码?()A(0,0,1,1)B(1,0,0,0)C(1,0,1,1)D(0,0,0,0)第3题以下哪一项不是LightBGM的优点?()A更快的训练速度B支持分布式处理C更低的内存消耗D更大的参数量第4题对于查准率、查全率、ROC曲线下面积、准确度,对应顺序正确的是()。Aprecision、recall、AUC、accuracyBaccuracy、precision、recall、AUCCprecision、recall、AUC、accuracyDAUC、recall、precision、accuracy第5题ROC曲线接近哪一个点的时候说明模型效果比较好?()A(0,0)B(0,1)C(1,0)D(1,1)第6题特征选择的一般流程为()。A产生过程、评估过程、验证过程、停止条件B评估过程、验证过程、停止条件、产生过程C产生过程、评估过程、停止条件、验证过程D评估过程、产生过程、停止条件、验证过程第7题特征选择方法Filter的缺点为()。A搜索空间庞大,需要启发式策略B需要调整结构和参数配置C特征之间的组合效应难以挖掘D直接面向优化算法第8题ABC
D
第9题在天猫重复购买预测实验中,以下哪一项不是商铺的基本特征?()A某一用户的浏览次数B不同品牌个数C不同商品数量D活跃天数第10题在天猫重复购买预测实验中,分类预测效果最好的单模型是()。AxgbBlgbC随机森林DKNN第11题以下哪一项不是使用特征选择技术的原因?()A简化模型,使之更易于被研究人员或用户理解B缩短训练时间C改善通用性、降低过拟合(即降低方差)D提高模型的性能表现第12题特征选择技术常用于()的情形。A特征数量少,样本数量少B特征数量多,样本数量少C特征数量少,样本数量多D特征数量多,样本数量多第13题在天猫重复购买预测实验中,特征选择后的特征数量约占选择前的特征数量的比例为()。A0.5B0.7C0.12D0.05第14题当引入ID类型特征时为什么需要降维?()A参数量增多B无用信息增多C容易发生过拟合D模型不支持多维ID类型特征正确答案:AC第15题以下属于文本表示模型的一项是()。A词袋模型BN-gram模型C主题模型D词嵌入正确答案:ABCD第16题数据集包含在“双十一”之前和之后几个月中的匿名用户的购物日志?A1B2C3D6第17题以下哪个属于本实验的评测指标?AAUCBABCCARCDAGC第18题pandas如何丢弃缺失值?AdropnaBtakenaChavenaDgivena第19题Borderline-SMOTE是在哪个算法基础上改进的过采样算法?ADijkstraBSMOTECKMPDBellman-ford第20题线性函数归一化后,数据被映射到什么范围内?A(-inf,inf)B(-inf,0]C[0,1]D[0,inf)第21题零均值归一化后,数据的标准差是多少?A114B514C1919810D1第22题本课程中的逻辑回归模型算法是从哪个包中调用的?AosBpathlibCsklearnDmath第23题本课程中的高斯贝叶斯模型算法是从哪个包中调用的?AsklearnBosCpathlibDmath第24题以下哪个不属于本实验的评测指标?AprecisionBAUCCF1DBLEU第25题AUC指标代表了什么含义?AROC曲线下方面积B准确率C精确度D召回率第26题本实验可以使用什么概率检验方法?A平方检验B卡方检验C立方检验D卡伦检验第27题互信息直接用于特征选择属于度量方式吗?可以归一化吗?A属于;可以B不属于;可以C不属于;不可以;D属于;不可以第28题本实验中处理插值、积分、优化、图像处理、常微分方程数值解求解的包是哪个?AosBscipyCpathlibDmath第29题本实验中用于绘图的包是哪个?AosBpathlibCmatplotlibDmath第30题本实验如何进行数据内存压缩?A修改整数与浮点数数据类型B使用压缩包C使用winrarD压缩成zip格式第31题本实验中可以利用什么方法提取特征?ABF算法BEuler算法CcountvectorDtfidf正确答案:CD第32题本实验的boosting分类预测使用了哪两种boosting方法?AAdaBoostingBGradientBoostingCKMBoostingDDinicBoosting正确答案:AB第33题本实验中混淆矩
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年韶关学院单招职业技能测试题库含答案详解(b卷)
- 2026年陕西省铜川市单招职业适应性考试题库附答案详解(预热题)
- 2026年阿克苏职业技术学院单招职业倾向性测试题库附参考答案详解(完整版)
- 《第一单元 认识几何画板 第2课 画基本几何图形 画圆》教学设计教学反思-2023-2024学年初中信息技术人教版八年级下册
- 2026年陕西电子信息职业技术学院单招综合素质考试题库附答案详解(黄金题型)
- 2026年阳泉职业技术学院单招职业技能考试题库及答案详解(考点梳理)
- 2026年黄河交通学院单招职业适应性测试题库带答案详解(a卷)
- 2026年阜阳科技职业学院单招职业倾向性考试题库附答案详解(预热题)
- 2025-2026学年老爷爷赶鹅音乐教案
- 2026年阜阳职业技术学院单招综合素质考试题库附答案详解(轻巧夺冠)
- 拜仁慕尼黑足球俱乐部
- 自制中外对比旧约历史年代对照表
- 晚归检讨书阅读
- 结构化面试答题套路90结构化面试题型及答题套路
- GB/T 24218.1-2009纺织品非织造布试验方法第1部分:单位面积质量的测定
- GB 20922-2007城市污水再生利用农田灌溉用水水质
- FZ/T 43008-2012和服绸
- 浓密池专项施工方案
- 基于性能导航之飞行学院-pbn运行介绍
- 2022年高考物理广东卷真题及答案
- 管理学基础(第二版) 章节习题及答案
评论
0/150
提交评论