人工智能机器学习技术练习(习题卷6)_第1页
人工智能机器学习技术练习(习题卷6)_第2页
人工智能机器学习技术练习(习题卷6)_第3页
人工智能机器学习技术练习(习题卷6)_第4页
人工智能机器学习技术练习(习题卷6)_第5页
已阅读5页,还剩60页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

试卷科目:人工智能机器学习技术练习人工智能机器学习技术练习(习题卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能机器学习技术练习第1部分:单项选择题,共155题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.SVM在()情况下表现糟糕。A)线性可分数据B)清洗过的数据C)含噪声数据与重叠数据点答案:C解析:[单选题]2.我们常用()版。A)apache版B)cdh版C)Hortonworks版本答案:B解析:[单选题]3.最佳分类是曲线下区域面积最大者,而黄线在曲线下面积最大.2、假设你在测试逻辑回归分类器,设函数H为style="width:211px;"class="fr-ficfr-filfr-dibcursor-hover">下图中的哪一个代表上述分类器给出的决策边界?A)style="width:auto;"class="fr-ficfr-filfr-dib">B)style="width:auto;"class="fr-ficfr-filfr-dib">C)style="width:auto;"class="fr-ficfr-filfr-dib">答案:B解析:选项B正确。虽然我们的式子由选项A和选项B所示的y=g(-6+x2)表示,但是选项B才是正确的答案,因为当将x2=6的值放在等式中时,要使y=g(0)就意味着y=0.5将在线上,如果你将x2的值增加到大于6,你会得到负值,所以输出将是区域y=0。[单选题]4.基于二次准则函数的H-K算法较之于感知器算法的优点是()?A)计算量小B)可以判别问题是否线性可分C)其解完全适用于非线性可分的情况答案:B解析:[单选题]5.属于常见问题解答模块的主要技术的是()。[]*A问句相似度计算A)语料库的构建B)查询扩展C)模式匹配答案:A解析:[单选题]6.已知表test(name)的记录如下,TomTom_greenTomlyLily代码select*fromtestwherenamerlike'tom.*'的结果有几条记录A)1B)2C)3D)0答案:C解析:[单选题]7.假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数?A)ReLUB)tanhC)SigmoidD)以上都有可能答案:B解析:ReLU的输出范围是[0,+∞),tanh的输出范围是(-1,+1),Sigmoid的输出范围是(0,+1)。[单选题]8.代码selectbin(17)与下面结果一致:A)selectconv(17,10,2)B)selectconv(17,2,10)C)selectconv(17,2,16)D)selectconv(17,10,16)答案:A解析:[单选题]9.K-摇臂赌博机属于(__)算法。A)机器学习B)深度学习C)强化学习D)有监督学习答案:C解析:[单选题]10.梯度下降算法的正确步骤是(1计算预测值和真实值之间的误差2迭代更新,直到找到最佳权重参数3把输入传入网络,得到输出值4初始化权重和偏差⑤对每个产生误差的神经元,改变对应的权重值以减小误差A)1234⑤B)54321C)431⑤②D)321⑤4答案:C解析:[单选题]11.有如下数据集,则频繁3-项集为:class="fr-ficfr-dibcursor-hover"A){O,K,E}B){M,U,E}C){N,K,O}D){Y,U,E}答案:A解析:[单选题]12.如右图所示无向图,节点G的马尔可夫毯为()A){D,E}B){I,J}C){D,E,I,J}D){D,E,F,H,I,J}答案:C解析:[单选题]13.下面不属于脏数据的是(__)。A)有缺失值B)冗余数据C)噪声数据D)无序数据答案:D解析:[单选题]14.对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,二是都设成0,下面哪个叙述是正确的?A)其他选项都不对B)没啥问题,神经网络会正常开始训练C)神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西D)神经网络不会开始训练,因为没有梯度改变答案:C解析:令所有权重都初始化为0这个一个听起来还蛮合理的想法也许是一个我们假设中最好的一个假设了,但结果是错误的,因为如果神经网络计算出来的输出值都一个样,那么反向传播算法计算出来的梯度值一样,并且参数更新值也一样(w=w−α∗dw)。更一般地说,如果权重初始化为同一个值,网络即是对称的,最终所有的神经元最后都会变成识别同样的东西。[单选题]15.极大似然估计中参数是()A)确定且已知的量B)确定且未知的量C)已知的随机变量D)未知的随机变量答案:B解析:[单选题]16.下列说法错误的是?A)当目标函数是凸函数时,梯度下降算法的解一般就是全局最优解B)进行PCA降维时,需要计算协方差矩阵C)沿负梯度的方向一定是最优的方向D)利用拉格朗日函数能解带约束的优化问题答案:C解析:沿负梯度的方向是函数值减少最快的方向但不一定就是最优方向。[单选题]17.定义域为{飞机,火车,轮船}的离散属性也可称为称为(__)。A)无序属性B)有序属性C)连续属性D)离散属性答案:A解析:[单选题]18.分词中的正向最大匹配算法是(__)扫描字符串。A)从左到右B)从右到左C)两边同时进行D)从一个指定的字符发散答案:A解析:[单选题]19.将源程序(高级语言编写)翻译成计算机可执行的目标程序,其处理方法是()A)编译B)连接C)汇编D)扫描答案:A解析:[单选题]20.以下哪些不属于数据产品的特点A)具有概率的准确性B)自适应性C)严格性D)闭环性答案:C解析:[单选题]21.高频增强滤波器由于相对削弱了低频成分,因而滤波所得的图像往往偏暗,对比度差,所以常常需要在滤波后进行?A)直方图均衡化;B)低频加强;C)图像均匀加亮;D)中值滤波;答案:A解析:[单选题]22.以下表达式书写错误的是A)year('2015-12-3112:21')B)month(2015-10-31)C)day('2015-12-11')D)date_sub('2015-12-01',3)答案:B解析:[单选题]23.tensorflow中的tf.nn.conv2d()的函数,其作用是()。A)图像输入B)进行卷积C)进行池化D)图像输出答案:B解析:[单选题]24.()和假设检验又可归结为统计推断的范畴,即对总体的数量特征做出具有一定可靠程度的估计和判断。A)参数估计B)逻辑分析C)方差分析D)回归分析答案:A解析:推断统计包括参数估计和假设检验两方面的内容。[单选题]25.关于创建ndarray对象。下列描述错误的是()。A)使用list()函数可以创建一个ndarray对象B)通过ones()函数创建元素值都为1的数组C)ndarray对象可以使用array()函数创建D)通过zeros()函数创建元素值都是0的数组答案:A解析:list()函数不可以创建一个ndarry对象,不过可以将一个列表做为参数传入array()函数中创建一个ndarray对象[单选题]26.抖动技术可以?A)改善图像的空间分辨率;B)改善图像的幅度分辨率;C)利用半输出技术实现;D)消除虚假轮廓现象;答案:D解析:[单选题]27.Relief是为(__)问题设计的。A)二分类B)多分类C)回归D)降维答案:A解析:[单选题]28.下列关于Boosting和Bagging的描述正确的是:A)Boosting主要关注降低方差B)Boosting的代表算法有随机森林C)Bagging基于自助采样法D)Bagging主要关注降低偏差答案:C解析:[单选题]29.朴素贝叶斯分类器的朴素之处在于()A)只能处理低维属性B)只能处理离散型属性C)分类效果一般D)属性之间的条件独立性假设答案:D解析:[单选题]30.利用平滑滤波器可对图像进行低通滤波,消除噪声,但同时模糊了细节。一下哪项措施不能减小图像的模糊程度?A)增加对平滑滤波器输出的或值处理(即仅保留大于或值的输出);B)采用中值滤波的方法;C)采用领域平均处理;D)适当减小平滑滤波器的领域操作模板;答案:C解析:[单选题]31.已知数组trans_cnt[1,2,3,4],以下哪一个表达式是求数组的元素数量:A)type(trans_cnt)B)length(trans_cnt)C)coalesce(trans_cnt)D)size(trans_cnt)答案:D解析:[单选题]32.以下哪一个不是长短时记忆神经网络三个门中中的一个门?()A)输入门B)输出门C)遗忘门D)进化门答案:D解析:[单选题]33.下列属于非线性分类方法的是()A)最小距离分类器B)线性鉴别分析C)感知机D)核SVM答案:D解析:[单选题]34.关于降维算法中的主成分分析,()是错误的。A)有监督算法B)可以指定降维的维度C)基于方差来计算D)根据特征值大小来筛选特征答案:A解析:主成分分析法属于无监督算法。[单选题]35.有两个样本点,第一个点为正样本,它的特征向量是(0,-1);第二个点为负样本,它的特征向量是(2,3),从这两个样本点组成的训练集构建一个线性SVM分类器的分类面方程是()A)2x+y=4B)x+2y=5C)x+2y=3D)以上都不对答案:C解析:[单选题]36.对一幅100'100像元的图象,若每像元用8bit表示其灰度值,经霍夫曼编码后压缩图象的数据量为40000bit,则图象的压缩比为?A)2:1B)3:1C)4:1D)1:2答案:A解析:[单选题]37.为了允许支持向量机在一些样本上出错,引入()的概念。A)软间隔B)硬间隔C)间隔D)误差答案:A解析:[单选题]38.关于广播变量,下面哪个是错误的()。A)任何函数调用B)是只读的C)存储在各个节点D)存储在磁盘或HDFS答案:D解析:[单选题]39.pandas中,Series使用切片查询代码如下:data=[1,2,3,4,5]res=pd.Series(data,index=["a","b","c","d","e"])print(res[3])输出结果为:()A)4B)3C)cD)d答案:A解析:[单选题]40.()是一种处理时序数据的神经网络,常用于语音识别,机器翻译等领域。A)前馈神经网络B)卷积神经网络C)循环神经网络D)对抗神经网络答案:C解析:[单选题]41.下列关于TF-IDF说法正确的是?A)该值与特征项在文档中出现的频率成反比B)该值与特征项在文档中出现的频率成正比C)该值与在整个语料库中出现该特征项的文档库成正比D)该值与特征项在文档中出现的频率无关答案:B解析:[单选题]42.Python的基本语法仅支持整型、浮点型和复数类型,而NumPy和Pandas包支持int64/int32/int16/int8等20余种数字类型,下列选项中,()说法是不正确的。A)科学计算可能涉及很多数据,对存储和性能有较高要求,因此支持多种数字类型B)NumPy包底层是采用C语言实现的,因此,天然支持了多种数字类型C)程序员必须精确指定数字类型,因此,会给编程带来一定负担D)对元素类型进行精确定义,有助于NumPy和Pandas包更合理地优化存储空间答案:C解析:[单选题]43.在一个线性回归问题中,我们使用R平方(R-Squared)来判断拟合度。此时,如果增加一个特征,模型不变,则下面说法正确的是?A)如果R-Squared增加,则这个特征有意义B)如果R-Squared减小,则这个特征没有意义C)仅看R-Squared单一变量,无法确定这个特征是否有意义。D)以上说法都不对答案:C解析:[单选题]44.假设你有以下数据:输入和输出都只有一个变量。使用线性回归模型(y=wx+b)来拟合数据。那么使用留一法(Leave-OneOut)交叉验证得到的均方误差是多少?X(independentvariable)023Y(dependentvariable)221A)10/27B)39/27C)49/27D)55/27答案:C解析:[单选题]45.软间隔SVM的阈值趋于无穷,下面哪种说法正确()A)只要最佳分类超平面存在,它就能将所有数据全部正确分类B)软间隔SVM分类器将正确分类数据C)会发生误分类现象D)以上都不对答案:A解析:[单选题]46.KNN算法属于一种典型的()算法A)监督学习B)无监督学习C)半监督学习D)弱监督学习答案:A解析:[单选题]47.下列不是距离度量需要满足的基本性质的是(__)。A)非负性B)同一性C)对称性D)传递性答案:D解析:[单选题]48.在t-SNE算法中,可以调整以下哪些超参数?A)维度数量B)平稳测量有效数量的邻居C)最大迭代次数D)以上所有答案:D解析:[单选题]49.在一个神经网络里,确定每一个神经元的权重和偏差是模型拟合训练样本的目标,比较有效的办法是什么()A)根据人工经验随机赋值B)搜索所有权重和偏差的组合,直到得到最佳值C)赋予一个初始值,然后迭代更新权重,直至代价函数取得极小D)以上都不正确答案:C解析:[单选题]50.Spark的四大组件下面哪个不是A)SparkStreamingB)MlibC)GraphxD)SparkR答案:D解析:[单选题]51.进行主成分分析的前提条件是各变量间()。A)高度相关B)低度相关C)相互独立D)完全相关答案:B解析:[单选题]52.以下描述中,属于决策树策略的是()A)最优投影方向B)梯度下降方法C)最大特征值D)最大信息增益答案:D解析:[单选题]53.假设我们对西瓜的色泽、根蒂和纹理等特征一无所知,按照常理来说,西瓜是好瓜的概率是60%。那么这个好瓜的概率P就被称为()A)先验概率B)后验概率C)条件概率D)联合概率答案:A解析:[单选题]54.关于?回归(Regression)?和?相关(Correlation)?,下列说法正确的是?注意:x是自变量,y是因变量。A)回归和相关在x和y之间都是互为对称的B)回归和相关在x和y之间都是非对称的C)回归在x和y之间是非对称的,相关在x和y之间是互为对称的D)回归在x和y之间是对称的,相关在x和y之间是非对称的答案:C解析:相关(Correlation)是计算两个变量的线性相关程度,是对称的。也就是说,x与y的相关系数和y与x的相关系数是一样的,没有差别。回归(Regression)一般是利用特征x预测输出y,是单向的、非对称的。[单选题]55.关于机器学习算法正确的是()A)LR模型在加入正则化项后Variance将增大B)线性SVM是寻找最小边缘的超平面的一个分类器C)xgboost和GDBT都是属于boosting算法D)xgboost和随机森林都是属于bagging算法答案:C解析:[单选题]56.无人超市采用了()等多种智能技术,消费者在购物流程中将依次体验自动身份识别、自助导购服务、互动式营销、商品位置侦测、线上购物车清单自动生成和移动支付A)计算机视觉、深度学习算法、传感器定位、图像分析B)虚拟技术,传感器定位、图像分析C)声纹识别技术、计算机视觉、深度学习算法D)图像识别、人脸识别、物体检测、图像分析答案:A解析:[单选题]57.()选择成为支持向量机的最大变数。A)核函数B)样本空间C)模型D)算法答案:A解析:在不知道特征映射的形式时,我们并不知道什么样的核函数是合适的,而核函数也仅是隐式地定义了这个特征空间。于是,核函数选择成为支持向量机的最大变数。[单选题]58.以下属于生成式模型的是:()A)SVMB)随机森林C)隐马尔可夫模型HMMD)逻辑回归答案:C解析:[单选题]59.设X={1,2,3}是频繁项集,则可由X产生()个关联规则A)4B)5C)6D)7答案:C解析:[单选题]60.有关机器学习工程师下面说法正确的是()。A)不需要了解一定的相关业务知识B)不需要熟悉数据的提取和预处理C)需要一定的数据分析实际项目训练D)培训后就能胜任实际数据分析答案:C解析:[单选题]61.BP神经网络的学习规则是()A)梯度上升法B)梯度下降法C)梯度提升法D)梯度曲线法答案:B解析:[单选题]62.对于线性回归模型,包括附加变量在内,以下可能正确的是()。1)R-Squared和AdjustedR-squared都是递增的2)R-Squared是常量的,AdjustedR-squared是递增的3)R-Squared是递减的,AdjustedR-squared也是递减的4)R-Squared是递减的,AdjustedR-squared是递增的A)1和2B)1和3C)2和4D)以上都不是答案:D解析:R-squared不能决定系数估计和预测偏差。每次在模型中加入预测器,R-squared递增或不变。[单选题]63.如右图所示有向图,以下陈述正确的有()A)B和G关于{C,F}条件独立B)B和C关于F条件独立C)B和G关于F条件独立D)B和G关于{C,F,H}条件独立答案:A解析:[单选题]64.现在有一个tcp服务端监听了80端口,问最多同时能建立多少连接A)1023B)65534C)64511D)非常多基本和内存大小相关答案:D解析:[单选题]65.SVM的原理的简单描述,可概括为()A)最小均方误差分类B)最小距离分类C)最大间隔分类D)最近邻分类答案:C解析:[单选题]66.关于引入模块的方式,错误的是()。A)importmathB)fromfibimportFibonacciC)frommathimport*D)from*importfib答案:D解析:[单选题]67.FOIL是()的学习算法A)命题规则B)剪枝优化C)一阶规则D)序贯覆盖答案:C解析:[单选题]68.()的系数没有封闭形式(closed-form)的解。A)Ridge回归B)LassoC)Ridge回归和LassoD)以上答案都不正确答案:B解析:Ridge回归是一般的线性回归再加上L2正则项,它具有封闭形式的解,可以基于最小二乘法求解。[单选题]69.Zookeeper-Stat结构体中numChildren是()A)znode数据变化号B)znode访问控制列表的变化号C)znode子节点数量D)znode的数据长度答案:C解析:[单选题]70.下列选项中,关于Zookeeper可靠性含义说法正确的是?()A)可靠性通过主备部署模式实现B)可靠性是指更新更新只能成功或者失败,没有中间状态C)可靠性是指无论哪个server,对外展示的均是同一个视图D)可靠性是指一个消息被一个Server接收,它将被所有的Server接受答案:D解析:[单选题]71.下面不属于位置智能的有(__)。A)foursquareB)placeIQC)MapillaryD)bloomberg答案:D解析:[单选题]72.控制论学派属于()。[]*A)符号主义B)认知主义C)联结主义D)行为主义答案:D解析:[单选题]73.采样分析的精确性随着采样随机性的增加而(),但与样本数量的增加关系不大。A)降低B)不变C)提高D)无关答案:C解析:采样分析的精确性随着采样随机性的增加而提高,但与样本数量的增加关系不大。当样本数量达到某个值后,我们从新个体上得到的信息会越来越少。[单选题]74.正常建立一条TCP连接需要()个步骤,正常关闭一个TCP连接需要()个步骤A)3,3B)3,4C)4,4D)4,3答案:B解析:[单选题]75.(__)试图学得一个线性模型以尽可能准确地预测实值输出标记。A)决策树B)线性回归C)贝叶斯分类器D)神经网络答案:B解析:[单选题]76.下面属于Bagging方法的特点是()A)构造训练集时采用Bootstraping的方式B)每一轮训练时样本权重不同C)分类器必须按顺序训练D)预测结果时,分类器的比重不同答案:A解析:[单选题]77.设q(n,m)是将正整数n划分成最大加数不大于m的若干不同正整数之和的划分数,则q(n,m)为()。class="fr-ficfr-dibcursor-hover"A)①B)②C)③D)④答案:B解析:[单选题]78.以下几种优化算法中,哪一种最快()A)梯度下降法B)牛顿法C)BFGSD)Adam答案:C解析:[单选题]79.下图是一个利用sigmoid函数作为激活函数的含四个隐藏层的神经网络训练的梯度下降图。这个神经网络遇到了梯度消失的问题。下面哪个叙述是正确的?class="fr-ficfr-dibcursor-hover"A)第一隐藏层对应D,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应AB)第一隐藏层对应A,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应DC)第一隐藏层对应A,第二隐藏层对应B,第三隐藏层对应C,第四隐藏层对应DD)第一隐藏层对应B,第二隐藏层对应D,第三隐藏层对应C,第四隐藏层对应A答案:A解析:[单选题]80.以下哪些方法不可以直接来对文本分类?A)K-MeansB)决策树C)支持向量机D)kNN答案:A解析:K-Means是无监督算法,它之所以不能称为分类是因为它之前并没有类别标签,因此只能聚类。[单选题]81.有两个样本点,第一个点为正样本,它的特征向量是(0,-1);第二个点为负样本,它的特征向量是(2,3),从这两个样本点组成的训练集构建一个线性SVM分类器的分类面方程是()A)2x+y=4B)x+2y=5C)x+2y=3D)以上都不对答案:C解析:[单选题]82.当图像通过信道传输时,噪声一般与()无关。A)信道传输的质量B)出现的图像信号C)是否有中转信道的过程D)图像在信道前后的处理答案:B解析:[单选题]83.如下逻辑回归图显示了3种不同学习速率值的代价函数和迭代次数之间的关系(不同的颜色在不同的学习速率下显示不同的曲线)。为了参考而保存图表后,忘记其中不同学习速率的值。现在需要曲线的倾斜率值之间的关系。以下哪一个是正确的?注:1蓝色的学习率是L12红色的学习率是L23绿色学习率为lL3alt="">A)L1>L2>L3B)L1=L2=L3C)L1D)都不是答案:C解析:如果学习速率低下,代价函数将缓慢下降,学习速度过高,则其代价函数会迅速下降。[单选题]84.下列表示设置绘制图像大小正确的是()。A)plt.figure(figsize=(10,6))B)plt.figure(figsize={10,6})C)plt.figure(10,6)D)plt.figure(figsize=[10,6])答案:A解析:[单选题]85.下面关于数据科学与统计学的关系描述不正确的有(__)。A)数据科学是统计学的主要基础理论之一B)数据科学的工具往往来自于统计学C)统计学家在数据科学的发展中做出过突出贡献D)第一篇以?数据科学?为标题的论文是由统计学家完成的答案:A解析:[单选题]86.决策树的基本流程遵循()的策略。A)贪心B)最优化C)分而治之D)顺序答案:C解析:[单选题]87.关于支持向量机SVM,下列说法错误的是()A)L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力B)Hinge损失函数,作用是最小化经验分类错误C)分类间隔为1/||w||,||w||代表向量的模D)当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习答案:C解析:A正确。考虑加入正则化项的原因:想象一个完美的数据集,y>1是正类,y<-1是负类,决策面y=0,加入一个y=-30的正类噪声样本,那么决策面将会变?歪?很多,分类间隔变小,泛化能力减小。加入正则项之后,对噪声样本的容错能力增强,前面提到的例子里面,决策面就会没那么?歪?了,使得分类间隔变大,提高了泛化能力。B正确。C错误。间隔应该是2/||w||才对,后半句应该没错,向量的模通常指的就是其二范数。D正确。考虑软间隔的时候,C对优化问题的影响就在于把a的范围从[0,+inf]限制到了[0,C]。C越小,那么a就会越小,目标函数拉格朗日函数导数为0可以求出w=求和,a变小使得w变小,因此间隔2/||w||变大[单选题]88.字符串"//^▽^//\n"的长度是A)6B)7C)8D)9答案:C解析:[单选题]89.假设一个线性回归模型完美适合训练数据(训练误差为0),下面那个说法是正确的()。A)测试集误差一直为0B)测试集误差可能为0C)测试集误差不会为0D)以上都不对答案:B解析:测试误差有可能为0,假如测试数据里面没有噪声数据。或者说,如果测试数据能够完美表征训练数据集,测试误差即可为0,但测试数据不会总这样。[单选题]90.在线性模型y=w1x1+w2x2+…+wnxn中,[w1,w2,…,wn]值代表()A)预测值B)特征值C)输入值D)模型参数答案:D解析:[单选题]91.下图中,主成分的最佳数目是多少?A)10B)20C)30D)无法确定答案:C解析:本题考查的是PCA的基本概念。显然,当主成分数目为30的时候,积累的方差比例最大。[单选题]92.决策树依据切分特征来切分数据集。选择切分特征时,我们可以以每个特征的信息增益作为判断标准。A)选择信息增益最大的特征作为切分特征。B)选择信息增益最小的特征作为切分特征。C)选择信息增益不大不小、即适中的特征作为切分特征。D)选择信息增益较大的多个特征同时作为切分特征。答案:A解析:[单选题]93.(__)是常用的估计参数隐变量的利器,它是一种迭代的方法。A)边际似然B)EM算法C)贝叶斯决策D)贝叶斯分类器答案:B解析:[单选题]94.一般,k-NN最近邻方法在()的情况下效果较好A)样本较多但典型性不好B)样本较少但典型性好C)样本呈团状分布D)样本呈链状分布答案:B解析:[单选题]95.数据科学家可能会同时使用多个算法(模型)进行预测,并且最后把这些算法的结果集成起来进行最后的预测(集成学习),以下对集成学习说法正确的是:A)单个模型之间有高相关性B)单个模型之间有低相关性C)在集成学习中使用?平均权重?而不是?投票?会比较好D)单个模型都是用的一个算法答案:B解析:[单选题]96.交叉验证法将数据集划分为k个大小相似的互斥子集,进行__次训练和测试。A)k+1B)kC)k-1D)k-2答案:B解析:[单选题]97.以下开源软件中经常被用作消息队列的是哪个A)KafkaB)MongoDBC)HadoopD)Spark答案:A解析:[单选题]98.()表达了在当前任务上任何学习算法所能达到的期望泛化误差的下界,即刻画了学习问题本身的难度。A)偏差B)方差C)噪声D)泛化误差答案:C解析:泛化误差可分解为偏差、方差与噪声之和。偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声则表达了在当前任务上任何学习算法所能达到的期望泛化误差的F界,即刻画了学习问题本身的难度。[单选题]99.以下两种描述分别对应哪两种对分类算法的评价标准?(a)警察抓小偷,描述警察抓的人中有多少个是小偷的标准。(b)描述有多少比例的小偷给警察抓了的标准。A)Precision,RecallB)Recall,PrecisionC)Precision,ROCD)Recall,ROC答案:A解析:[单选题]100.归纳推理是()推理。[]*A)从一般到个别B)从个别到一般C)从个别到个别D)从一般到一般答案:B解析:[单选题]101.下列方法不受数据归一化影响的是()A)SVMB)神经网络C)Logistic回归D)决策树答案:D解析:[单选题]102.下列函数中,用于沿着轴方向堆叠Pandas对象的是()。A)concat()B)join()C)merge()D)combine_first()答案:A解析:[单选题]103.下方法中属于无监督学习算法的是()A)线性回归B)支持向量机C)决策树D)K-Means聚类答案:D解析:[单选题]104.以下哪种激活函数可以导致梯度消失()A)ReLUB)TanhC)LeakyReLUD)其他都不是答案:B解析:[单选题]105.关于Boltzmann描述错误的是A)基于能量的模型;B)优化目标函数为最小化能力函数;C)分为显层和隐层;D)神经元都是数值型;答案:D解析:[单选题]106.在移动设备息屏时,以下哪种情况不一定导致大量耗电A)使用gps导航B)信号特别弱C)电话通话中D)打开过大量应用答案:D解析:[单选题]107.对决策树进行剪枝处理的主要目的是什么A)避免欠拟合B)提高对训练集的学习能力C)避免过拟合,降低泛化能力D)避免过拟合,提升泛化能力答案:D解析:[单选题]108.已知均值和方差,下面哪种分布的熵最大()A)几何分布B)指数分布C)高斯分布D)均匀分布答案:C解析:[单选题]109.从宏观角度来看,数据可视化的功能不包括()。A)信息记录B)信息的推理分析C)信息清洗D)信息传播答案:C解析:[单选题]110.Spark支持的分布式部署方式中哪个是错误的()。A)standaloneB)sparkonmesosC)sparkonYARND)Sparkonlocal答案:D解析:[单选题]111.一个栈的入栈序列为ABCDE,则栈的不可能的输出序列为A)DCBEAB)ACBEDC)DCEBAD)DEBCA答案:D解析:[单选题]112.OpenCV提供图像文件读写的模块是()。A)coreB)imgcodecsC)imgprocD)highgui答案:B解析:[单选题]113.影响深度卷积神经网络算法的关键参数是()A)网站数量B)网络深度C)网络结构D)网络主体答案:B解析:[单选题]114.下列哪项不是目前深度学习的必备技术()A)卷积可视化解释B)反向传播算法C)非线性激活函数D)深度神经网络答案:A解析:[单选题]115.(___)是对象的性质或特性。A)变量B)维度C)样本D)属性答案:D解析:[单选题]116.(__)不属于基于实例学习方法。A)KNNB)局部加权回归算法C)基于案例的推理D)决策树算法答案:D解析:[单选题]117.在训练集上每学到一条规则,就将该规则覆盖的训练样例去除,然后以剩下的训练样例组成训练集重复上述过程的方法称为A)缺省规则B)序贯覆盖C)不放回学习D)一阶规则答案:B解析:[单选题]118.计算Numpy中元素个数的方法是()。A)np.sqrt()B)np.size()C)np.identity()D)np.nid()答案:B解析:[单选题]119.决策树除了ID3算法,还有另一个著名算法CART。关于这两种算法,正确的说法是:A)ID3算法能用于回归问题,不能用于分类问题B)ID3算法既能用于分类问题,又能用于回归问题C)CART算法既能用于分类问题,又能用于回归问题D)CART算法能用于回归问题,不能用于分类问题答案:C解析:[单选题]120.下面不属于数据转换的有(__)。A)talendB)alteryxC)streamsetsD)stitch答案:D解析:[单选题]121.关于累加器,下面哪个是错误的()。A)支持加法B)支持数值类型C)可并行D)不支持自定义类型答案:D解析:[单选题]122.池化层的作用是()。A)标准化处理输入特征B)对特征图进行特征选择和信息过滤C)对提取的特征进行非线性组合以得到输出D)直接输出每个像素的分类结果答案:B解析:[单选题]123.下列关于线性回归分析中的残差(Residuals)说法正确的是?A)残差均值总是为零B)残差均值总是小于零C)残差均值总是大于零D)以上说法都不对答案:A解析:线性回归分析中,目标是残差最小化。残差平方和是关于参数的函数,为了求残差极小值,令残差关于参数的偏导数为零,会得到残差和为零,即残差均值为零。[单选题]124.以下场景中,属于机器学习的是?A)让机器检测地震活动B)电脑运行仿生程序C)电脑作为计算器使用D)通过对不同阶段的西瓜照片进行识别,让机器能辨别熟西瓜答案:D解析:[单选题]125.(__)不属于机器学习理论基础。A)数据科学B)哲学C)心理学D)人工智能答案:A解析:[单选题]126.排列语言模型(PermutationLanguageModels)是下列哪项的特点?A)BERTB)EMMoC)GPTD)XLNET答案:D解析:[单选题]127.未来房价的预测,这种属于数据挖掘的哪类问题?()A)分类B)聚类C)关联规则D)回归分析答案:D解析:[单选题]128.与PCA相比,t-SNE的以下说明哪个正确?A)数据巨大(大小)时,t-SNE可能无法产生更好的结果。B)无论数据的大小如何,T-NSE总是产生更好的结果。C)对于较小尺寸的数据,PCA总是比t-SNE更好。D)都不是答案:A解析:[单选题]129.下面能实现人工智能算法的开发环境有A)C语言B)Java语言C)Python语言D)以上都可以答案:D解析:[单选题]130.你在20K文档的输入数据上为机器学习模型创建了文档-词矩阵(document-termmatrix)。以下哪项可用于减少数据维度?(1)关键词归一化(KeywordNormalization);(2)潜在语义索引(LatentSemanticIndexing);(3)隐狄利克雷分布(LatentDirichletAllocation).A)只有(1)B)(2)(3)C)(1)(3)D)(1)(2)(3)答案:D解析:[单选题]131.由于不同类别的关键词对排序的贡献不同,检索算法一般把查询关键词分为几类,以下哪一类不属于此关键词类型的是()。A)引用词B)普通关键词C)高频词汇D)扩展关键词答案:C解析:[单选题]132.关于sklearn中的LabelEncoder函数的功能,下面说法正确的是:A)LabelEncoder可将原为0到n-1之间的数字(int)值转换为字符串(str)B)LabelEncoder是将原字符串(str)值转换为0或1的布尔值C)LabelEncoder可将原字符串(str)值转换为0到n-1之间的数字(int)D)LabelEncoder是将原为0或1的布尔值转换为字符串(str)答案:C解析:[单选题]133.已知一个数据集,n为特征数,m为训练样本数,如果n较小,而且m大小中等(例如n为1~1000,而m为10~10000),则一般选择()。A)逻辑回归模型B)不带核的支持向量机C)高斯核的支持向量机D)多项式核的支持向量机答案:C解析:高斯核函数需要选择合适的sigma²参数,适用于少量特征,大量样本的情况,可以拟合出非常复杂的非线性决策边界。[单选题]134.下列说法错误的是()A)kNN算法的训练阶段需要构建模型B)kNN算法中k这个参数可以根据实际情况来调整C)kNN算法支持多分类D)kNN算法不属于无监督学习答案:A解析:[单选题]135.()不属于特征选择的标准方法。A)散入B)过滤C)包裹D)抽样答案:D解析:特征选择的三种方法分别是过滤式(filter)、包裹式(wrapper)和嵌入式(embedded)。[单选题]136.下列对于错误率的公式,解释正确的是(__)。A)统计分类器预测出来的结果与真实结果不相同的个数,然后除以总的样例集D的个数。B)先统计分类正确的样本数,然后除以总的样例集D的个数。C)预测为正的样例中有多少是真正的正样例D)样本中的正例有多少被预测正确答案:A解析:[单选题]137.Zookeeper在config命名空间下,每个znode最多能存储()数据?A)1MB)16MC)512KD)64K答案:A解析:[单选题]138.关于随机森林,说法错误的是:A)相对于Boosting系列的Adaboost和GBDT,RF实现比较简单。B)在训练后,可以给出各个特征对于输出的重要性C)训练高度串行化D)随机采样,训练出的模型的方差小,泛化能力强答案:C解析:[单选题]139.(__)采用概率模型来表达聚类原型。A)k均值算法B)学习向量量化C)高斯混合聚类密度聚类D)密度聚类答案:C解析:[单选题]140.机器学习的简称是(A)AlB)MLC)DLD)NN答案:B解析:[单选题]141.在支持向量机中,()允许支持向量机在一些样本上出错。A)硬间隔B)软间隔C)核函数D)拉格朗日乘子法答案:B解析:在支持向量机中,软间隔允许支持向量机在一些样本上出错。[单选题]142.以下()是Python中的二维图形包。A)MatplotlibB)PandasC)NumPyD)BoKeh答案:A解析:[单选题]143.以下不属于数据科学的研究目的的是()。A)大数据及其运动规律的揭示B)从数据到智慧的转化C)数据解释D)数据驱动型决策支持答案:C解析:[单选题]144.下列关于主成分分析的表述错误的是A)主成分分析方法一种数据降维的方法B)通过主成分分析,可以将多个变量缩减为少数几个新的变量,而信息并没有损失,或者说信息损失很少C)通过主成分分析,可以用较少的新的指标来代替原来较多的指标反映的信息,并且新的指标之间是相互独立的D)主成分分析是数据增维的方法答案:D解析:[单选题]145.点击率预测是一个正负样本不平衡问题(例如99%的没有点击,只有1%点击)。假如在这个非平衡的数据集上建立一个模型,得到训练样本的正确率是99%,则下列说法正确的是?A)模型正确率很高,不需要优化模型了B)模型正确率并不高,应该建立更好的模型C)无法对模型做出好坏评价D)以上说法都不对答案:B解析:这一题延续了上题中准确率和召回率的知识点,考查了正负样本分布不均问题。模型训练过程中正负样本分布不均是常见的问题。这时候不能单独只看预测正确率。对于此题来说,如果我们预测的结果是100%没有点击,0%点击,那么可以说正确率是99%,因为只有1%的点击预测错误。但是,我们其实更关心的那1%的点击率并没有预测出来。可以说这样的模型是没有任何意义的。对应正负样本不平衡的情况需要做一些数据处理,主要包括:采样、数据合成、惩罚因子加权、一分类。其中,一分类即是在正负样本分布极不平衡的时候,把它看做一分类(OneClassLearning)或异常检测(NoveltyDetection)问题。这类方法的重点不在于捕捉类间的差别,而是为其中一类进行建模,经典的工作包括One-classSVM等。[单选题]146.从sd卡加载一张图片为bitmap并显示到屏幕上的一个view,该view占用的内存主要和什么因素有关。A)图片文件大小及压缩格式B)图片原始分辨率C)view的尺寸D)bitmap分辨率和颜色位数答案:D解析:[单选题]147.以下哪项关于决策树的说法是错误的()。A)冗余属性不会对决策树的准确率造成不利的影响B)子树可能在决策树中重复多次C)决策树算法对于噪声的干扰非常敏感D)寻找最佳决策树是NP完全问题答案:C解析:决策树算法对于噪声的干扰具有相当好的鲁棒性。[单选题]148.留出法直接将数据集划分为()个互斥的集合。A)一B)二C)三D)四答案:B解析:留出法(hold-out)直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集,另一个作为测试集T。[单选题]149.以下描述正确的是(__)。A)描述性分析等价于探索性数据分析B)相关关系等价于因果关系C)描述性分析是数据分析的第一步D)描述性分析是诊断性分析的进一步理解答案:C解析:[单选题]150.()可以用衡量真来实值与预测值之间的差异A)权重值B)损失函数C)特征值D)输出值答案:B解析:[单选题]151.下面的颜色空间表示中,能较好的分离图像亮度和色度信息的是()?A)LabB)RGBC)HSVD)CMY答案:A解析:[单选题]152.(假设precision=TP/(TP+FP),recall=TP/(TP+FN)。)在二分类问题中,当测试集的正例和负例数量不均衡时,以下评价方案哪个是相对不合理的()A)Accuracy:(TP+TN)/allB)F-value:2recallprecision/(recall+precision)C)G-mean:sqrt(precision*recall)D)AUC:曲线下面积答案:A解析:题目提到测试集正例和负例数量不均衡,那么假设正例数量很少占10%,负例数量占大部分90%。而且算法能正确识别所有负例,但正例只有一半能正确判别。那么TP=0.05×all,TN=0.9×all,Accuracy=95%。虽然Accuracy很高,precision是100%,但正例recall只有50%[单选题]153.行业应用解决的是行业()问题,并为企业应用提供基础平台。A)单一B)共性C)基础D)根本答案:B解析:[单选题]154.RGB色彩空间转到GRAY色彩空间的方法为()A)cv2.cvtColor()B)cv2.CvtColor()C)cv2.CVTColor()D)cv2.cvtcolor()答案:A解析:[单选题]155.机器学习中做特征选择时,可能用到的方法有()。A)卡方B)信息增益C)平均互信息D)期望交叉熵E)以上答案都正确答案:E解析:第2部分:多项选择题,共49题,每题至少两个正确答案,多选或少选均不得分。[多选题]156.在统计模式识分类问题中,当先验概率未知时,可以使用()?A)最小损失准则B)N-P判决C)最小最大损失准则D)最小误判概率准则答案:BC解析:[多选题]157.下列属于无监督学习的有()A)聚类B)分类C)回归D)降维答案:AD解析:[多选题]158.聚类性能度量大致有两类,一类是(__),另一类是(__)。A)外部指标B)内部指标C)簇内相似度D)簇间相似度答案:AB解析:[多选题]159.支持向量机是一类模型的统称,通常包括A)线性支持向量机B)线性非可分向量机C)线性可分支持向量机D)非线性支持向量机答案:ACD解析:[多选题]160.以下哪些滤波器能在卷积窗口的边界上使卷积掩膜中心像素和它的4-邻接点的系数降至0附近。A)同态滤波B)高斯滤波C)巴特沃斯滤波D)中值滤波答案:BC解析:[多选题]161.某服务请求经负载均衡设备分配到集群A、B、C、D进行处理响应的概率分别是10%、20%、30%和40%。已知测试集群所得的稳定性指标分别是90%、95%、99%和99.9%。现在该服务器请求处理失败,且已排除稳定性以外的问题,那么最有可能在处理该服务请求的集群是________。A)AB)BC)CD)D答案:AB解析:[多选题]162.下列方法中,可以用于特征降维的方法包括()。A)主成分分析PCAB)线性判别分析LDAC)深度学习SparseAutoEncoderD)矩阵奇异值分解SVD答案:ABD解析:[多选题]163.下面关于集成学习的描述,正确的是()A)Bagging方法可以并行训练B)Bagging方法基学习器的比重不同C)Boosting方法可以并行训练D)Boosting方法基学习器的比重不同答案:AD解析:[多选题]164.下面属于数据分析基本类型的是(__)。A)描述性分析B)预测性分析C)总结性分析D)规范性分析答案:ABD解析:[多选题]165.下列关于交叉验证法描述正确的是(__)。A)交叉验证法先将数据集划分为k个大小相似的互斥子集B)交叉验证法将数据集划分成的k个子集应尽可能保持数据分布的一致性C)通常把交叉验证法称为k折交叉验证D)假定数据集D中包含m个样本,若令交叉验证法中的系数k=m,则得到了交叉验证法的一个特例:自助法答案:ABC解析:[多选题]166.下列关于支持向量机的说法正确的是(__)。A)支持向量机的学习策略是间隔最大化B)支持向量机的基本模型是特征空间上间隔最大的线性分类器C)支持向量机只能对线性可分的样本进行分类D)传统支持向量机只能求解二分类问题答案:ABD解析:[多选题]167.下列名称中,哪些属于同一种方法(__)。A)可重复采样B)自助采样C)有放回采样D)顺序采样答案:ABC解析:[多选题]168.下列关于支持向量回归机说法正确的是(__)。A)支持向量回归机希望学得一个回归模型,使得预测值f(x)与真实值x尽可能接近B)在传统回归模型中,当且仅当预测值f(x)与真实值x完全相同时,损失才为0C)支持向量回归假设我们能够容忍预测值f(x)与真实值x之间最多有特定值的误差D)支持向量回归以决策函数为中心,构建了一个特定宽度的间隔带,若训练样本落入此间隔带,则认为是被预测正确的答案:ABCD解析:[多选题]169.基因遗传算法的组成部分包括()**A)初始化编码B)适应度函数C)选择D)交叉和变异答案:ABCD解析:[多选题]170.对聚类问题描述不正确的()A)监督学习B)无监督学习C)线性决策D)增量学习答案:ACD解析:[多选题]171.做一个二分类预测问题,先设定阈值为0.5,概率不小于0.5的样本归入正例类(即1),小于0.5的样本归入反例类(即0)。然后,用阈值n(n>0.5)重新划分样本到正例类和反例类,下面说法正确的是()。A)增加阈值不会提高召回率B)增加阈值会提高召回率C)增加阈值不会降低查准率D)增加阈值会降低查准率答案:AC解析:召回率=TP/TP+FN,查准率=TP/TP+FP。当概率阈值增加时,TP、FP减少或者持平,TP+FN不变,所以召回率不会增加。[多选题]172.回归树构建过程是()A)考虑数据集R上的所有特征j,遍历每一个特征下所有可能的取值或者切分点s,将数据集R划分成两部分R_1和R_2B)分别计算多个子集划分的平方误差和,选择最小的平方误差对应的特征与分割点,生成两个子节点C)在每个子节点再次进行划分计算D)叶结点的最大值视为叶结点的表征值答案:ABC解析:[多选题]173.关于Zookeeper可用性的说法,正确的有()A)Follower宕机:还有2台服务器提供访问,因为Zookeeper上的数据是有多个副本的,数据并不会丢失B)Leader宕机:Zookeeper会选举出新的LeaderC)ZK集群的机制是只要超过半数的节点正常,集群就能正常提供服务D)Leader宕机:Zookeeper无法使用答案:ABC解析:[多选题]174.大数据?涌现?现象有()。A)价值涌现B)质量涌现C)隐私涌现D)数量涌现答案:ABC解析:[多选题]175.分析工具包括(__)和商务智能可视化、垂直分析、统计计算、数据服务、语音与自然语言理解、搜索等。A)数据分析平台B)数据科学平台C)机器学习D)人工智能答案:ABCD解析:[多选题]176.如右图所示无向图,它的团包括()A){A}B){A,B}C){A,B,C}D){A,B,C,D}答案:ABC解析:[多选题]177.Spark组成部件包括()A)ResourceManagerB)ExecutorC)DriverD)RDD答案:BC解析:[多选题]178.在决策树基本算法中,有三种情形会导致递归返回,这三种情形分别是(__)。A)当前结点包含的样本全属于同一类别,无需划分B)当前属性集为空,或是所有样本在所有属性上取值相同,无法划分C)当前结点包含的样本集合为空,不能划分D)当前结点包含的样本不属于同一类别,不可划分答案:ABC解析:[多选题]179.目前LSTM已经应用到()领域。A)自然语言处理B)语音识别C)图像标注D)发动机答案:ABC解析:[多选题]180.Zookeeper的特性有()。A)实时性B)可靠性C)顺序性D)原子性答案:ABCD解析:[多选题]181.根据边的性质不同,概率图模型可大致分为两类:第一类是使用有向无环图表示变量间的依赖关系,称为();第二类是使用无向图表示变量间的相关关系,称为()。A)有向图模型B)贝叶斯网C)无向图模型D)马尔可夫网答案:ABCD解析:[多选题]182.机器学习按照功能大致可以分为以下哪几类()A)聚类B)分类C)回归D)预测答案:ABC解析:[多选题]183.数据科学的(__)往往来自于统计学。A)理论B)方法C)技术D)工具答案:ABCD解析:[多选题]184.广义不确定性可分为()**A)粗糙性B)模糊性C)不完全性D)时变性答案:BC解析:[多选题]185.在模型评估与度量的方法中,下列描述正确的是(__)。A)在留出法中,如果从采样的角度来看待数据集划分的过程,则保留类别比例的采样方式通常称为分层采样B)通常,我们可通过实验测试来对学习器的泛化误差进行评估并进而做出选择。C)我们需要一个测试集来测试学习器对新样本的判别能力D)测试样本不可从样本真实分布中独立同分布采样而得答案:ABC解析:[多选题]186.数据战略等于(__)之?和?。A)数据管理目标B)行动方案C)目标管理D)动态机制答案:ABC解析:[多选题]187.基于二次准则函数的H-K算法较之于感知器算法的优点是()?A)计算量小B)可以判别问题是否线性可分C)其解完全适用于非线性可分的情况D)其解的适应性更好答案:BD解析:[多选题]188.下列描述正确的为A)贝叶斯分类器通过最大后验概率进行单点估计,贝叶斯学习通过分布估计;B)贝叶斯学习分为参数学习和结构学习;C)贝叶斯网参数学习和结构学习均较为简单;D)EM算法用于学习高斯混合模型的参数;答案:ABD解析:[多选题]189.Bagging能不经修改地用于____等任务。A)多分类B)二分类C)回归D)聚类答案:ABC解析:[多选题]190.下列关于PCA的说法,正确的是()。A)在使用PCA之前,我们必须标准化数据B)应该选择具有最大方差的主成分C)应该选择具有最小方差的主成分D)可以使用PCA在低维空间中可视化数据答案:ABD解析:PCA对数据中变量的尺度非常敏感,因此需要对各个变量进行标准化。方差越大,说明在该特征上分布越广泛,说明该特征越有用,影响越大。PCA有时在较低维度上绘制数据是非常有用,可以提取前2个主要组成部分,在二维平面上使用散点图可视化数据。[多选题]191.下列属于聚类性能度量外部指标的是(__)。A)Jaccard系数B)FM系数C)Rand指数D)DB指数答案:ABC解析:[多选题]192.在ROC空间中,以(__)为横轴,以(__)为纵轴。A)TPrateB)FNrateC)FPrateD)TNrate答案:AC解析:[多选题]193.下面哪些用卷积神经网络处理效果比较好()A)人脸识别B)手写数字识别C)自然语言处理D)机器翻译答案:AB解析:[多选题]194.下列哪些现象属于乘性噪声。()A)电视光栅的退化B)二值图像上的胡椒盐噪声C)信道传输受扰D)胶片材料的退化答案:AD解析:[多选题]195.数据战略的影响因素(__)。A)当前业务需求B)潜在风险C)数据战略范畴D)未来需求答案:ABD解析:[多选题]196.下列关于神经网络描述正确的是(__)。A)我们在机器学习中谈论神经网络是指的是生物学意义上的神经网络B)神经网络中最基本的成分是神经元模型C)在MP神经元模型中,神经元接受来自n个其他神经元传递过来的信号D)神经元接收到的总输入值将与神经元的阈值进行比较,然后通过激活函数处理以产生神经元的输出。答案:BCD解析:[多选题]197.如果希望减少数据集中的特征数量,则可以采取的措施是()。A)使用正向选择法(ForwardSelection)B)使用反向消除法(BackwardElimination)C)逐步选择消除法(Stepwise)D)计算不同特征之间的相关系数,删去相关系数高的特征之一答案:ABCD解析:正向选择(ForwardSelection)是首先选择一个特征,每个特征都试一遍,选择对模型准确率提升最高的那个特征;然后再在这个特征基础上添加另外一个特征,方法类似,直到模型准确率不再提示为止。反向消除(BackwardElimination)是首先包含了所有的特征,然后尝试删除每个特征,最终删掉对模型准确率提升最高的一个特征(因为删除这个特征模型准确率反而增加了,则说明这个特征是无用特征)。如此类推,直到删除特征并不能提升模型为止。相对于ForwardSelection,BackwardElimination的优点在于其允许一些低贡献值的特征能够进到模型中去(有时候低贡献值的特征能在组合中有更大的贡献值,而ForwardSelection忽略了这种组合的可能性),因此BackwardElimination能够避免受一两个占主导地位的特征的干扰。另外还有一种特征选择方法是逐步选择消除法(Stepwise),该方法结合上述两者的方法,新加入一个特征之后,再尝试删去一个特征,直至达到某个预设的标准。这种方法的缺点是预设的标准不好定,而且容易陷入到过拟合当中。除此之外,也可以使用基于相关性的特征选择,可以去除多重线性特征。[多选题]198.决策树递归返回的条件为()。A)训练数据集使用完B)所有的类标签完全相同C)特征用完D)遇到丢失值答案:BC解析:决策树的生成是一个递归过程。在决策树基本算法中,有三种情形会导致递归返回:①结点包含的样本全属于同一类别,无须划分;②当前属性集为空,或是所有样本在所有属性上取值相同,无法划分;③当前结点包含的样本集合为空,不能划分。[多选题]199.在某神经网络的隐层输出中,包含-1.5,那么该神经网络采用的激活函数不可能是()A)SigmoidB)TanhC)ReluD)LeakyRelu答案:ABC解析:[多选题]200.关于神经网络,下列说法正确的是()。A)增加网络层数,可能会增加测试集分类错误率B)增加网络层数,一定会增加训练集分类错误率C)减少网络层数,可能会减少测试集分类错误率D)减少网络层数,一定会减少训练集分类错误率答案:AC解析:增加网络层数可能造成训练误差和测试误差减小,但神经网络层数过多容易造成过拟合,训练误差小,但是测试误差很大。[多选题]201.随机森林相比决策树的优点有()A)对离群点更加鲁棒B)准确率更高C)泛化误差收敛D)大型数据集上更加有效答案:ABCD解析:[多选题]202.从形式语言表达能力而言,规则可分为两类:(__)和(__)。A)命题规则B)一阶规则C)原子命题D)逻辑连接词答案:AB解析:[多选题]203.按照涉及自变量的多少,可以将回归分析分为()。A)线性回归分析B)非线性回归分析C)一元回归分析D)多元回归分析E)综合回归分析答案:CD解析:按照涉及自变量的多少,可以将回归分析分为一元回归分析和多元回归分析。[多选题]204.关于相关系数,下列描述中正确的有:A)相关系数为0.8时,说明两个变量之间呈正相关关系B)相关系数等于1相较于相关系数等于-1,前者的相关性更强C)相关性等于1相较于相关系数等于0,前者的相关性更强D)Pearson相关系数衡量了两个定序变量之间的相关程度E)Spearman相关系数可以衡量两个定序变量之间的相关程度F)相关系数为0.2相较于-0.8,前者的相关性更强答案:ACE解析:第3部分:判断题,共33题,请判断题目是否正确。[判断题]205.BP算法的反向传播是为了对权值进行调整。A)正确B)错误答案:对解析:[判断题]206.‍L2正则化往往用于防止过拟合,而L1正则化往往用于特征选择。A)正确B)错误答案:对解析:[判断题]207.K均值算法的E值越小则簇内样本相似度越低A)正确B)错误答案:错解析:[判断题]208.算法做出的价格往往比人做出的市场价格要合理A)正确B)错误答案:错解析:[判断题]209.ID3依据信息增益做特征选择,而C4.5依据信息增益比做特征选择A)正确B)错误答案:对解析:[判断题]210.在Boosting的提升方法中,对于一个复杂任务来说,将多个专家的判断进行适当的综合所得出的判断,要比其中任何一个专家单独的判断好A)正确B)错误答案:对解析:[判断题]211.梯度下降算法一定能收敛于全局最小值A)正确B)错误答案:错解析:[判断题]212.大小相等的数组之间的任何算术运算都会将运算应用到元素级。A)正确B)错误答案:对解析:[判断题]213.conda是一个在Windows、MacOS、和Linux上运行的开源软件包管理系统和环境管理系统。A)正确B)错误答案:对解析:[判断题]214.模型已知时强化学习任务能归结为基于动态规划的寻优问题,涉及到泛化能力。A)正确B)错误【】答案:错解析:[判断题]215.CART算法能用于回归问题,不能用于分类问题A)正确B)错误答案:错解析:[判断题]216.使用merge()函数进行数据合并时,不需要指定合并键。A)正确B)错误答案:错解析:[判断题]217.逻辑斯蒂(对数几率)回归是一种回归学习方法。A)正确B)错误答案:错解析:[判断题]218.Pandas是一个基于NumPy的数据分析包,它是为了解决数据分析任务而创建的。A)正确B)错误答案:对解析:[判断题]219.学习能力是人具有智能的重要标志,机器学习主要研究在机器(计算机)上使用的学习方法A)正确B)错误答案:错解析:[判断题]220.若按照属性a划分后获得的信息增益越大,意味着使用属性a划分所获得的纯度提升越大。因此,可选择获得最大信息增益的属性作为决策树的最优化分属性。著名的ID3决策树学习算法就是以信息增益为准则来选择划分属性的。A)正确B)错误答案:对解析:[判断题]221.DataFrame的结构是由索引和数据组成的。A)正确B)错误答案:对解析:[判断题]222.密

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论