人工智能机器学习技术练习(习题卷11)_第1页
人工智能机器学习技术练习(习题卷11)_第2页
人工智能机器学习技术练习(习题卷11)_第3页
人工智能机器学习技术练习(习题卷11)_第4页
人工智能机器学习技术练习(习题卷11)_第5页
已阅读5页,还剩55页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

试卷科目:人工智能机器学习技术练习人工智能机器学习技术练习(习题卷11)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能机器学习技术练习第1部分:单项选择题,共155题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.假设有n组数据集,每组数据集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x与y的相关系数都是0.816,拟合的线性回归方程都是y=3.00+0.500*x。那么这n组数据集是否一样?A)一样B)不一样C)无法确定答案:C解析:[单选题]2.随机森林的分类机制是()A)投票B)提升C)概率计算答案:A解析:[单选题]3.聚类属于()A)监督学习B)无监督学习C)强化学习答案:B解析:[单选题]4.如果一个SVM模型出现欠拟合,那么下列哪种方法能解决这一问题?A)增大惩罚参数C的值B)减小惩罚参数C的值C)减小核系数(gamma参数)答案:A解析:[单选题]5.所谓几率,是指发生概率和不发生概率的比值。所以,抛掷一枚正常硬币,正面朝上的几率(odds)为多少?A)0.5B)1C)都不是答案:B解析:几率(odds)是事件发生不发生概率的比率,正面朝上概率为1/2和反面朝上的概率都为1/2,所以几率为1。[单选题]6.选择哪一个解作为输出,将由学习算法的归纳偏好决定,常见的做法是引人()。A)线性回归B)线性判别分析C)正则化项D)偏置项答案:C解析:[单选题]7.给定初始点x0=(1,1),用最速下降法求函数f(x)=4*x1+6*x2-2*x1^2-2*x1*x2-2*x2^2的极大值,则迭代一次后x1=?A)(-1/2,1)B)(1/2,1)C)(-1,1)D)(2,1)答案:B解析:[单选题]8.半调输出技术可以()A)改善图像的空间分辨率B)改善图像的幅度分辨率C)利用抖动技术实现D)消除虚假轮廓现象答案:B解析:[单选题]9.下面不属于农业的有(__)。A)farmersB)farmlogsC)prosperaD)uber答案:D解析:[单选题]10.第一个成功应用的专家系统是()A)ELIZAB)DendralC)XconD)Deppepblue答案:B解析:[单选题]11.(__)不仅可用于多层前馈神经网络,还可用于其他类型的神经网络。A)感知机B)神经元C)神经系统D)误差逆传播答案:D解析:[单选题]12.下列选项不属于专家系统底层核心部分的是()A)知识库B)推理机C)规则库D)决策树答案:D解析:[单选题]13.下面关于hdfs中SecondaryNameNode描述正确的一项是()A)它是NameNode的热备B)它对内存没有要求C)它的目的是帮助NameNode合并editlog,减少NameNode启动时间D)SecondaryNameNode应与NameNode部署到一个节点答案:C解析:[单选题]14.操作中,能够在神经网络中引入非线性的是(A)随机梯度下降B)ReLU函数C)卷积函数D)以上都不正确答案:B解析:[单选题]15.以下关于数据科学描述正确的是()A)数据科学是统计学的一部分B)数据科学就是机器学习C)天文学与数据科学无关D)数据科学家倾向于用探索数据的方式来看待周围的世界答案:D解析:[单选题]16.以下关于大数据分析说法错误的是A)Python和R虽然都能用于数据分析,但它们相互独立,不能互相调用B)云计算为大数据分析提供了便利C)数据分析可以用于销售、营销、客户服务等企业应用中D)数据分析可以用于广告、教育、政府等特定行业应用中答案:A解析:[单选题]17.假设NumPy数组A的原来的内容是[[0,1,2],[3,4,5]],则命令print(A.max())的执行结果是()。A)3B)5C)7D)9答案:B解析:[单选题]18.对于在原空间中线性不可分问题,支持向量机()。A)无法处理B)将数据映射到核空间中C)在原空间中寻找非线性函数的划分数据D)在原空间中寻找线性函数划分数据答案:B解析:[单选题]19.在有监督学习中,我们如何使用聚类方法?A)2和4B)1和2C)3和4D)1和3答案:B解析:我们可以为每个聚类构建不同的模型,提高预测准确率。?类别id?作为一个特征项去训练,可以有效地总结了数据特征。[单选题]20.以下哪种方法会增加模型的欠拟合风险()A)添加新特征B)增加模型复杂度C)减小正则化系数D)数据增强答案:D解析:[单选题]21.与科学可视化相比,(__)更关注抽象且应用层次的可视化问题。A)信息可视化B)可视化理论C)可视分析学D)数据可视化答案:A解析:[单选题]22.tf.nn.rnn_cell.BasicLSTMCell(n_hidden,forget_bias=1.0,state_is_tuple=True)函数中的参数forget_bias的含义是()。A)神经元个数B)遗忘系数C)返回状态D)神经元类型答案:B解析:[单选题]23.TF-IDF与一个词在文档中的出现次数成(__)。A)正比B)反比C)无关D)幂次答案:A解析:[单选题]24.下面关于数据科学中机器学习思路相关描述不正确的有(__)。A)测试集为输入B)机器学习算法来学习C)用函数比较算法估计目标函数D)现有或部分数据为训练集答案:A解析:[单选题]25.对OpenCV中的rectangle()说法正确的是()。A)可以用来绘制三角形B)可以用来绘制圆形C)可以用来绘制多边形D)可以用来绘制矩形答案:D解析:[单选题]26.(__)在划分属性时是在当前结点的属性集合中选择一个最优属性。A)AdaBoostB)RFC)BaggingD)传统决策树答案:D解析:[单选题]27.以下关于决策树的说法错误的是()。A)冗余属性不会对决策树的精确率造成不利的影响B)子树可能在决策树中重复多次C)决策树对于噪声的干扰非常敏感D)寻找最佳决策树是NP完全问题答案:C解析:[单选题]28.(__)可以理解为对数据管理的管理。A)数据治理B)数据统治C)数据宰相D)数据战略答案:A解析:[单选题]29.有N个样本,一般用于训练,一般用于测试。若N增大,则训练误差和测试误差之间的差距会()。A)增大B)减小C)无法确定D)无明显变化答案:B解析:增加数据,能够有效减小过拟合,减小训练样本误差和测试样本误差之间的差距。[单选题]30.PCA和LDA的以下比较哪些是正确的?A)1和2B)1和3C)只有3D)1、2和3答案:D解析:[单选题]31.以下几个对直方图规定化的两种映射方式(SML与GML)的叙述中正确的是?A)SML的误差一定大于GML;B)原始直方图与规定化直方图中的灰度级数相等时(M=N),SML的误差一定等于GML;C)<M时,SML的误差一定大于GML;D)SML与GML均是统计无偏的;答案:B解析:[单选题]32.下列关于基于层次的聚类方法的描述不正确的是()A)按照层次聚类的过程分为自底向上和自顶向下2大类方法B)如果一直重复聚类过程的话,所有的样品最后可以归为一类C)自底向上的聚类方法是一种分裂聚类方法D)无论类间距离采用哪种计算方法,最终都是将最小距离的2个簇合并答案:C解析:[单选题]33.聚类是一种典型的无监督学习任务,然而在现实聚类任务中我们往往能获得一些额外的监督信息,于是可通过()来利用监督信息以获得更好的聚类效果。A)监督聚类B)半监督聚类C)聚类D)直推聚类答案:B解析:[单选题]34.位势函数法的积势函数K(x)的作用相当于Bayes判决中的()A)后验概率B)先验概率C)类概率密度D)类概率密度与先验概率的和答案:A解析:势函数:主要用于确定分类平面,其思想源于物理D:积累势函数K(x)的作用相当于Bayes判决中的:后验概率、类概率密度与先验概率的乘积[单选题]35.()能反映出X和Y之间的强相关性。A)相关系数为0.9B)对于无效假设,β=0的p值为0.0001C)对于无效假设,β=0的t值为30D)以上说法都不对答案:A解析:相关系数反映了不同变量之间线性相关程度,取值范围为[-1,1],值越大表示相关程度越高。因此,A选项中r=0.9,表示X和Y之间有较强的相关性。p和t的数值大小没有统计意义,只是将其与某一个阈值进行比对,以得到二选一的结论。[单选题]36.(__)是将特征选择过程与学习器训练过程融为一体,两者在同一个优化过程中完成,即在学习器训练过程中自动地进行了特征选择。A)过滤式选择B)包裹式选择C)嵌入式选择D)正则化答案:C解析:[单选题]37.(__)是指样本空间中具有代表性的点。A)样本点B)原点C)原型D)实例答案:C解析:[单选题]38.假如我们知道纹理清晰的西瓜是好瓜的概率大一些,大概是75%。如果把纹理清晰当作一种结果,然后去推测好瓜的概率,那么这个概率P(好瓜|纹理清晰)就被称为()A)先验概率B)后验概率C)条件概率D)联合概率答案:B解析:[单选题]39.当训练一个神经网络来作图像识别任务时,通常会绘制一张训练集误差和验证集误差图来进行调试。在下图中,最好在哪个时间停止训练()A)AB)BC)CD)D答案:C解析:[单选题]40.在标准化公式z=中,使用e的目的是()A)为了加速收敛B)如果µ过小C)使结果更准确D)防止分母为零答案:D解析:[单选题]41.向量空间模型的缺陷不包括()A)维度灾难B)模型稀疏性C)语义信息缺失D)无法计算文本相似度答案:D解析:[单选题]42.解决隐马模型中预测问题的算法是?A)前向算法B)后向算法C)Baum-Welch算法D)维特比算法答案:D解析:[单选题]43.在图像识别中,(__)是重中之重。A)人脸识别B)物品识别C)色彩识别D)轮廓识别答案:D解析:[单选题]44.以下不属于人工智能在计算机视觉领域应用的是______A)车站人脸识别进站B)拍照识别植物C)医疗影像诊断D)实时字幕答案:D解析:[单选题]45.文本信息检索的一个核心问题是文本相似度计算,将查询条件和文本之间的相似程度数值化,从而方便比较。当文档和查询都表示成向量时,可以利用向量的内积的大小近似地表示两个向量之间的相关程度。设有两个文档和查询抽取特征和去除停用词后分别是:文档d1:abcafbafh文档d2:ac查询q:aca特征项集合为{abcdefgh}如果采用二值向量表示,那么利用内积法计算出q和d1、d2的相似度分别是()A)1、1B)2、2C)7、2D)0、0答案:B解析:[单选题]46.LasVegasWrapper是一种典型的(__)算法。A)过滤式选择B)嵌入式选择C)包裹式选择D)正则化答案:C解析:[单选题]47.下面不属于客户服务的有(__)。A)ravelB)medalliaC)gainsightD)frame.ai答案:A解析:[单选题]48.若svm出现欠拟合,以下合适的做法是A)使用更powful的kernelB)增加训练样本C)使用L2正规化D)做数据增强答案:A解析:[单选题]49.DBSCAN在最坏情况下的时间复杂度是()。A)O(m)B)O(m^2)C)O(logm)D)O(mlogm)答案:B解析:[单选题]50.在支持向量机中,可利用(__)方法将原问题转化为其对偶问题。A)拉格朗日乘子法B)留出法C)比较检验D)划分选择答案:A解析:[单选题]51.计算机初始状态能识别(__)上的基本信息。A)像素点B)每个物体C)背景D)前景答案:A解析:[单选题]52.下列哪个不属于CRF模型对于HMM和MEMM模型的优势()A)特征灵活B)速度快C)可容纳较多上下文信息D)全局最优答案:B解析:[单选题]53.SparkJob默认的调度模式()。A)FIFOB)FAIRC)无D)运行时指定答案:A解析:[单选题]54.EM算法是()A)有监督B)无监督C)半监督D)都不是答案:B解析:[单选题]55.关于决策树结点划分指标描述正确的是A)类别非纯度越大越好B)信息增益越大越好C)信息增益率越小越好D)基尼指数越大越好答案:B解析:[单选题]56.若设1.启动,2.诊断,3.建立,4.行动,5.学习,则DMM模型中的顺序为(__)。A)12345B)12354C)13254D)13245答案:A解析:[单选题]57.以下对Variety相关描述不正确的是()。A)Variety是指类型多B)结构化数据在各类数据中占比最多C)类型多是指大数据涉及多种数据D)大数据种类包括结构化数据、非结构化数据、半结构化数据答案:B解析:[单选题]58.两位同事从上海出发前往深圳出差,他们在不同时间出发,搭乘的交通工具也不同,能准确描述两者?上海到深圳?距离差别的是()A)欧式距离B)余弦距离C)曼哈顿距离D)切比雪夫距离答案:D解析:①欧几里得距离计算公式(n维空间下)二维:dis=sqrt((x1-x2)^2+(y1-y2)^2)三维:dis=sqrt((x1-x2)^2+(y1-y2)^2+(z1-z2)^2)②余弦距离:余弦相似度用向量空间中两个向量夹角的余弦值作为衡量两个个体间差异的大小。相比距离度量,余弦相似度更加注重两个向量在方向上的差异,而非距离或长度上。公式如下:style="width:auto;"class="fr-ficfr-filfr-dib">③曼哈顿距离:两个点在标准坐标系上的绝对轴距总和Dis=abs(x1-x2)+abs(y1-y2)④切比雪夫距离:各坐标数值差的最大值Dis=max(abs(x1-x2),abs(y1-y2))[单选题]59.以下哪个选项是真的?A)LDA明确地尝试对数据类别之间的差异进行建模,而PCA没有。B)两者都试图模拟数据类之间的差异。C)PCA明确地试图对数据类别之间的差异进行建模,而LDA没有。D)两者都不试图模拟数据类之间的差异。答案:A解析:[单选题]60.下列哪些技术能被用于关键词归一化(keywordnormalization),即把关键词转化为其基本形式?A)词形还原(Lemmatization)B)探测法(Soundex)C)余弦相似度(CosineSimilarity)D)N-grams答案:A解析:[单选题]61.下列贝叶斯网结构中不属于三种典型的依赖关系A)同父结构B)选择结构C)顺序结构D)V型结构答案:B解析:[单选题]62.协同过滤算法解决的是数据挖掘中的哪类问题?()A)分类问题B)聚类问题C)推荐问题D)自然语言处理问题答案:C解析:[单选题]63.词汇表的增长将会导致文档向量不断的增长,表现为文档向量的()不断增加。A)个数B)维度C)集合D)元素答案:B解析:[单选题]64.关于正态分布,下列说法错误的是:A)正态分布具有集中性和对称性B)正态分布的均值和方差能够决定正态分布的位置和形态C)正态分布的偏度为0,峰度为1D)标准正态分布的均值为0,方差为1答案:C解析:[单选题]65.Bootstrap数据是什么意思()A)有放回地从总共M个特征中抽样m个特征B)无放回地从总共M个特征中抽样m个特征C)有放回地从总共N个样本中抽样n个样本D)无放回地从总共N个样本中抽样n个样本答案:C解析:[单选题]66.做一个二分类预测问题,先设定阈值为0.5,概率大于等于0.5的样本归入正例类(即1),小于0.5的样本归入反例类(即0)。然后,用阈值n(n>0.5)重新划分样本到正例类和反例类,下面哪一种说法正确是()1.增加阈值不会提高召回率2..增加阈值会提高召回率3..增加阈值不会降低查准率4.增加阈值会降低查准率A)1B)2C)1、3D)2、4答案:C解析:[单选题]67.在Pandas中tail()这个函数是做什么的?()。A)用来创建数据B)用来分析数据C)用来计算数据D)用来展现数据答案:D解析:[单选题]68.当闵可夫斯基距离公式中的系数p值为2时,可得到(__)的公式。A)欧氏距离B)曼哈顿距离C)街区距离D)切比雪夫距离答案:A解析:[单选题]69.假设我们想估计A和B这两个参数,在开始状态下二者都是未知的,但如果知道了A的信息就可以得到B的信息,反过来知道了B也就得到了A。可以考虑首先赋予A某种初值,以此得到B的估计值,然后从B的当前值出发,重新估计A的取值,这个过程一直持续到收敛为止,该算法是()的算法思想。A)极大似然法B)朴素贝叶斯分类器C)EM算法D)贝叶斯决策论答案:C解析:[单选题]70.多层感知机方法中,可用作神经元的非线性激活函数()A)logistic函数B)范数C)线性内积D)加权求和答案:A解析:[单选题]71.下列关于bootstrap说法正确的是?A)从总的M个特征中,有放回地抽取m个特征(m<M)B)从总的M个特征中,无放回地抽取m个特征(m<M)C)从总的N个样本中,有放回地抽取n个样本(n<N)D)从总的N个样本中,无放回地抽取n个样本(n<N)答案:C解析:bootstrap的思想是从已有的数据集中模拟出类似但又不完全一样的数据集。主要是针对没有足够数据来训练多个模型的情况。Bootstrap的做法是,假设有N笔资料D,先从中选出一个样本,再放回去,再选择一个样本,再放回去,共重复n次。这样我们就得到了一个新的n笔资料D',这个新的数据集中可能包含原数据集里的重复样本点,也可能没有原数据集里的某些样本,D'与D类似但又不完全相同。值得一提的是,抽取-放回的操作次数不一定非要是N,次数可以任意设定。例如原始样本有10000个,我们可以抽取-放回3000次,得到包含3000个样本的D'也是完全可以的。[单选题]72.SVM的算法性能取决于()A)核函数的选择B)核函数的参数C)软间隔参数CD)以上所有答案:D解析:[单选题]73.以下哪种NLP模型的准确性最高?A)BERTB)XLNETC)GPT-2D)ELMo答案:B解析:[单选题]74.以下描述中不正确的是(___)。A)归纳是指从特殊到一般的泛化过程B)归纳是指从具体的事实归结出一般性规律C)演绎是指从特殊到一般的特化过程D)演绎是指从基础原理推演出具体情况答案:C解析:[单选题]75.隐马尔可夫模型(HiddenMarkovModel,简称HMM)主要用于()数据建模A)时长B)时间C)时态D)时序答案:D解析:[单选题]76.熵是为消除不确定性所需要获得的信息量,投掷均匀正六面体骰子的熵是:A)1比特B)2.6比特C)3.2比特D)3.8比特答案:B解析:[单选题]77.应用PCA后,以下哪项可以是前两个主成分?1(0.5,0.5,0.5,0.5)和(0.71,0.71,0,0)2(0.5,0.5,0.5,0.5)和(0,0,-0.71,0.71)3(0.5,0.5,0.5,0.5)和(0.5,0.5,-0.5,-0.5)4(0.5,0.5,0.5,0.5)和(-0.5,-0.5,0.5,0.5)A)1和2B)1和3C)2和4D)3和4答案:D解析:对于前两个选择,两个向量不是正交的。[单选题]78.唤醒功能作为麦克风阵列技术中重要的一环,误唤醒率指标是低于()次/天?[]*A)1B)2C)3D)0.5答案:A解析:[单选题]79.卷积神经网络调整参数时信息的传播方向是()。A)后向传播B)前向传播C)双向传播D)跳跃传播答案:A解析:[单选题]80.解线性方程组时,若因变量过多,则会解出多组解都能使均方误差最小化,选择哪一个解,常见的做法是引入__。A)剪枝B)对数线性回归C)极大似然法D)正则化答案:D解析:[单选题]81.图像中虚假轮廓的出现就其本质而言是由于?A)图像的灰度级数不够多造成的;B)图像的空间分辨率不够高造成;C)图像的灰度级数过多造成的;D)图像的空间分辨率过高造成;答案:A解析:[单选题]82.在一个神经网络中,确定每个神经元的权重和偏差很重要。用()方法可以确定神经元的权重和偏差,从而对函数进行拟合。A)随机赋值,祈祷它们是正确的B)搜索所有权重和偏差的组合,直到得到最佳值C)赋予一个初始值,通过检杳与真值的误差,逐步迭代更新权重D)以上都不正确答案:C解析:[单选题]83.以下哪种不是Hive支持的数据类型?A)StructB)IntC)MapD)Long答案:D解析:[单选题]84.下列选项中,关于drop_duplicates()方法描述错误的是()。A)仅支持单一特征数据的去重B)仅对Series和DataFrame对象有效C)数据去重时默认保留第一个数据D)该方法不会改变原始数据排列答案:A解析:[单选题]85.特征工程的目的是()。A)找到最合适的算法B)得到最好的输入数据C)减低模型复杂度D)加快计算速度答案:B解析:特征工程的目的是筛选出更好的特征,获取更好的训练数据。[单选题]86.卷积神经网络中说的梯度下降,是指()的梯度。A)参数本身B)激活函数C)损失函数D)图像大小答案:C解析:[单选题]87.关于Logistic回归和SVM的描述,不正确的是()。A)Logistic回归本质上是一种根据样本对权值进行极大似然估计的方法,用先验概率的乘积代替后验概率B)Logistic回归的输出就是样本属于正类别的概率C)SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,属于结构风险最小化D)SVM可以通过正则化系数控制模型的复杂度,避免过拟合答案:A解析:Logistic回归目标函数是最小化后验概率,Logistic回归可以用于预测事件发生概率的大小,SVM目标是结构风险最小化,SVM可以有效避免模型过拟合。[单选题]88.下列是机器学习中降维任务的准确描述的为A)依据某个准则对项目进行排序B)将其映射到低维空间来简化输入C)预测每个项目的实际值D)对数据对象进行分组答案:B解析:[单选题]89.下面不属于过拟合原因的是A)特征维度过多B)模型假设过于复杂C)训练数据过多D)噪声过多答案:C解析:[单选题]90.以下哪个是PCA算法的主要应用?A)聚类B)分类C)距离度量D)数据压缩答案:D解析:[单选题]91.()是预测一个标签(离散型),属于监督学习A)分类B)回归C)聚类D)强化学习答案:A解析:[单选题]92.下列算法常用于聚类的问题是()A)k-meansB)逻辑回归模型C)决策树模型D)随机森林模型答案:A解析:[单选题]93.在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?class="fr-ficfr-dibcursor-hover"A)学习率(learningrate)太低B)正则参数太高C)陷入局部最小值D)以上都有可能答案:D解析:[单选题]94.下列方法使用最大似然估计的是()A)线性鉴别分析B)感知机C)Logistic回归D)SVM答案:C解析:[单选题]95.假设使用逻辑回归进行n多类别分类,使用One-vs-rest分类法。下列说法正确的是?A)对于n类别,需要训练n个模型B)对于n类别,需要训练n-1个模型C)对于n类别,只需要训练1个模型D)以上说法都不对答案:A解析:One-vs-rest分类法中,假设有n个类别,那么就会建立n个二项分类器,每个分类器针对其中一个类别和剩余类别进行分类。进行预测时,利用这n个二项分类器进行分类,得到数据属于当前类的概率,选择其中概率最大的一个类别作为最终的预测结果。举个简单的例子,3分类,类别分别是{-1,0,1}。构建3个二分类器:-1与0,1与-1,11与-1,0若第1个二分类器得到-1的概率是0.7,第2个二分类器得到0的概率是0.2,第3个二分类器得到1的概率是0.4,则最终预测的类别是-1。[单选题]96.下面哪些可能是一个文本语料库的特征()1一个文档中的词频统计2文档中单词的布尔特征3词向量4词性标记5基本语法依赖6整个文档A)123B)1234C)12345D)123456答案:C解析:[单选题]97.在概率模型中,利用已知变量推测未知变量的分布称为?A)推论B)推断C)推演D)推算答案:B解析:[单选题]98.下列选项中,()不可以直接对文本进行分类。A)K-MeansB)决策树C)支持向量机D)K近邻答案:A解析:[单选题]99.根据DIKW信息、数据、知识、智慧模型,以下说法错误的是A)数据是记录下来可以被鉴别的符号,它是最原始的素材,未被加工解释,没有回答特定的问题,没有任何意义B)信息是已经被处理、具有逻辑关系的数据,是对数据的解释,这种信息对其接收者具有意义C)知识是从相关信息中过滤、提炼及加工而得到的有用资料,不能从知识中产生新的知识D)智慧是人类所表现出来的一种独有的能力,主要表现为收集、加工、应用、传播知识的能力,以及对事物发展的前瞻性看法答案:C解析:[单选题]100.如果深度学习训练过程不收敛,训练集准确率很低,属于下面哪个问题A)欠拟合B)过拟合C)泛化能力差D)泛化能力强答案:A解析:[单选题]101.以下哪个度量属于数据散度的描述?()A)均值B)中位数C)标准差D)众数答案:C解析:[单选题]102.假设一共有10篇文档,其中某个词A在其中10篇文章中都出现过,另一个词B只在其中3篇出现。根据逆文档频率,()比较关键。A)无B)AC)BD)A和B答案:C解析:[单选题]103.下列分类方法中不会用到梯度下降法的是()A)感知机B)最小二乘分类器C)最小距离分类器D)Logistic回归答案:C解析:[单选题]104.(__)度量了同样大小的训练集的变动所导致的学习性能的变化。A)偏差B)方差C)均方差D)泛化误差答案:B解析:[单选题]105.以等可能性为基础的概率是()。A)古典概率B)经验概率C)试验概率D)主观概率答案:A解析:古典概率是以这样的假设为基础的,即随机现象所能发生的事件是有限的、互不相容的,而且每个基本事件发生的可能性相等。根据大量的、重复的统计试验结果计算随机事件中各种可能发生结果的概率,称为试验概率或频率概率。主观概率,是指建立在过去的经验与判断的基础上,根据对未来事态发展的预测和历史统计资料的研究确定的概率,反映的只是一种主观可能性。[单选题]106.以下机器学习中,在数据预处理时,不需要考虑归一化处理的是:A)logistic回归B)SVMC)树形模型D)神经网络答案:C解析:[单选题]107.__是在一个数据集上对多个算法进行比较。A)t检验B)交叉验证t检验C)Friedman检验D)McNemar检验答案:C解析:[单选题]108.请阅读下列一段示例程序:ImportnumpyasnpArr1=np.array([[0],[1],[2]])Arr2=np.array([1,2])Result=arr1+arr2Print(result.shape)运行上述程序,那么最终输出的结果为()。A)(3,2)B)(2,3)C)(3,0)D)(2,0)答案:A解析:[单选题]109.下面有关序列模式挖掘算法的描述,错误的是?A)AprioriAll算法和GSP算法都属于Apriori类算法,都要产生大量的候选序列B)FreeSpan算法和PrefixSpan算法不生成大量的候选序列以及不需要反复扫描原数据库C)在时空的执行效率上,FreeSpan比PrefixSpan更优D)和AprioriAll相比,GSP的执行效率比较高答案:C解析:[单选题]110.关于K-Means和DBSCAN的比较,以下说法不正确的是()。A)K-Means丢弃被它识别为噪声的对象,而DBSCAN一般聚类所有对象B)K-Means使用簇的基于原型的概念,而DBSCAN使用基于密度的概念C)K-Means很难处理非球形的簇和不同大小的簇,而DBSCAN可以处理不同形状和不同大小的簇D)K-Means可以发现不是明显分离的簇,即使簇有重叠它也可以发现,但是DBSCAN会合并有重叠的簇答案:A解析:[单选题]111.Boosting是一可将弱学习器提升为强学习器的算法,最著名的代表是____。A)BaggingB)随机森林C)AdaBoostD)决策树答案:C解析:[单选题]112.以下关于集成的描述,错误的是__。A)集成学习通过构建并结合多个学习器来完成学习任务,也称为多分类器系统、基于委员会的学习等B)集成中只包含同种类型的个体学习器,如?决策树集成?,?神经网络集成?等,这样的集成是?同质?的C)集成中同时包含多种类型的个体学习器,这样的集成是?异质?的,异质集成的个体学习器一般称为基学习器D)随着集成中个体分类器(相互独立)数目T的增大,集成的错误率将指数级下降,最终趋向于零答案:C解析:[单选题]113.在非均等代价下,希望最小化__。A)召回率B)错误率C)错误次数D)总体代价答案:D解析:[单选题]114.以下对Volume相关描述不正确的是()。A)Volume是指数据量大B)就目前而言,当数据量达到拍字节以上时,一般称为大数据C)大数据时间分布是均匀的D)数据量大是相对计算与存储能力而定的答案:C解析:[单选题]115.分类和回归的区别在于输出变量的类型,预测连续变量或者是定量输出的称为()A)分类B)回归C)聚类D)以上都不是答案:B解析:[单选题]116.信息熵的值越小,则该样本集合的纯度(__)。A)越低B)越高C)没有影响D)自由变化答案:B解析:[单选题]117.zookeeper节点的特性()A)可以存储数据B)不可以存储数据C)可以计算数据D)可以协调数据答案:A解析:[单选题]118.下面有关矩阵说法不正确的是()A)行列式不等于0的方阵问奇异矩阵B)相似矩阵是指同一个线性变换的不同的描述矩阵C)矩阵可以作为描述坐标系的一种方式D)矩阵是线性空间里的变换的描述答案:A解析:[单选题]119.在有限支撑集上,下面分布的熵最大()A)几何分布B)指数分布C)高斯分布D)均匀分布答案:D解析:[单选题]120.成熟度等级1.已执行级,2.已定义级,3.已优化级,4.已测量级,5.已管理级,则由低到高排序为(__)。A)12345B)13524C)15243D)13542答案:C解析:[单选题]121.下面那种2D变换有可能破坏平行性(平行的线变换后不再平行)的是()?A)刚性变换B)投影变换C)相似变换D)仿射变换答案:B解析:[单选题]122.机器学习这个术语是由()定义的?A)ArthurSamuelB)GuidovanRossumC)JamesGoslingD)以上都不是答案:A解析:[单选题]123.交叉验证如果设置K=5,会训练几次?()A)1B)3C)5D)6答案:C解析:[单选题]124.下列关于冗余特征的说法错误的是A)冗余特征是可以通过其他特征推演出来的特征B)冗余特征是无用的特征C)冗余特征有时候可以降低学习任务的难度D)去除冗余特征可以减轻学习过程的负担答案:B解析:[单选题]125.(__)不属于基本分析方法。A)回归分析B)分类分析C)聚类分析D)元分析答案:D解析:[单选题]126.对主成分分析PCA方法描述正确的是:A)投影矩阵是正交矩阵B)进行非正交投影C)PCA不需要进行样本去均值D)投影到特征值最小的方向答案:A解析:[单选题]127.下面有关线性判别分析错误的说法是哪个()。A)通过对原始的数据进行线性变换,使得不同类的样本尽量分开B)线性判别分析中线性变换可以使同类样本的方差变大C)线性变换可以使不同类别样本的距离加大D)提高不同类样本的可分性答案:B解析:[单选题]128.下面哪种不属于池化操作()。A)连接池化B)一般池化C)重叠池化D)金字塔池化答案:A解析:[单选题]129.以下哪个模型属于生成模型()A)支持向量机B)逻辑回归C)DNND)朴素贝叶斯答案:D解析:[单选题]130.下列方法中,属于无监督学习的为()A)线性回归B)K均值C)神经网络D)决策树答案:B解析:[单选题]131.以下哪一项给出了逻辑回归与LDA之间的差异?A)1B)2C)1和2D)都不是答案:C解析:[单选题]132.以下描述中,能够使神经网络模型成为深度学习模型的处理是(A)设置很多层,使神经网络的深度增加B)处理一个图形识别的问题C)有维度更高的数据D)以上都不正确答案:A解析:[单选题]133.spark是用以下哪种编程语言实现的A)cB)C++C)javaD)Scala答案:D解析:[单选题]134.输出门的作用是()。A)保留重要信息B)去除不重要信息C)信息增加D)决定要输出的部分答案:D解析:[单选题]135.在NumPy通用函数中,用于计算元素级最大值的函数是()。A)maxB)maximumC)minD)maximal答案:B解析:[单选题]136.半监督学习不包括A)直推学习B)纯半监督学习C)主动学习D)图半监督学习答案:C解析:[单选题]137.Dave于2012年发布(__)首次全面地刻画了当时快速发展的大数据技术体系。A)大数据产业网络B)大数据产业全景图C)大数据产业D)大数据网络答案:B解析:[单选题]138.下列哪种词嵌入支持上下文建模(ContextModeling)?A)Word2VecB)GloVeC)BERTD)以上所有答案:C解析:[单选题]139.在一个神经网络中,下面哪种方法可以用来处理过拟合?A)DropoutB)分批归一化(BatchNormalization)C)正则化(regularization)D)都可以答案:D解析:[单选题]140.人工智能的目的是让机器能够(),以实现人类某些脑力劳动的机械化。A)具有智能B)和人一样工作C)完全代替人的大脑D)模拟,延伸和扩展人类的智能答案:D解析:[单选题]141.以下哪个度量不属于数据中心趋势度描述?()A)均值B)中位数C)众数D)四分位数答案:D解析:[单选题]142.决策树所形成的分类边界有一个明显特点,它的分类边界由若干个__分段组成。A)与坐标轴平行B)与坐标轴垂直C)与坐标轴重合D)过坐标原点答案:A解析:[单选题]143.当训练样本近似线性可分时,通过(),学习一个()。A)硬间隔,最大化非线性支持向量机B)软间隔,最大化线性支持向量机C)硬间隔,最大化线性支持向量机D)软间隔,最大化非线性支持向量机答案:B解析:[单选题]144.关于朴素贝叶斯,下列选项中,描述正确的是()。A)它假设属性之间相互独立B)根据先验概率计算后验概率C)对于给定的待分类项X={a1,a2,,an},求解在此项出现的条件下各个类别yi出现的概率,哪个P(yi|X)最大,就把此待分类项归属于哪个类别D)它包括最小错误率判断规则和最小风险判断规则答案:A解析:[单选题]145.下面的代码中,不是用来用来评价所训练模型的预测准确性的是:A)fromsklearn.metricsimportaccuracy_scoreB)fromsklearn.model_selectionimporttrain_test_splitC)fromsklearn.metricsimportmean_squared_errorD)fromsklearn.metricsimportmean_absolute_error答案:B解析:[单选题]146.属于分类模型评测指标的是:A)MSEB)AUCC)MAED)RMSE答案:B解析:[单选题]147.20个阿里巴巴B2B技术部的员工被安排为4排,每排5个人,我们任意选其中4人送给他们一人一本《effectivec++》,那么我们选出的4人都在不同排的概率为:A)5^4*5!*15!/20!B)4^5*5!*15!/20!C)5^4*4!*16!/20!D)4^5*4!*16!/20!答案:C解析:[单选题]148.LDA的以下哪项是正确的?alt="">A)LDA旨在最大化之间类别的距离,并最小化类内之间的距离B)LDA旨在最小化类别和类内之间的距离C)LDA旨在最大化类内之间的距离,并最小化类别之间的距离D)LDA旨在最大化类别和类内之间的距离答案:A解析:[单选题]149.对数几率回归和一般回归分析有什么区别?A)对数几率回归是设计用来预测事件可能性的B)对数几率回归可以用来度量模型拟合程度C)对数几率回归可以用来估计回归系数D)以上都有答案:D解析:[单选题]150.下列哪个不属于常用的文本分类的特征选择算法?A)卡方检验值B)互信息C)信息增益D)主成分分析答案:D解析:[单选题]151.Pandas处理缺失值的函数有?()A)fillna()B)fit()C)predict()D)iloc()答案:A解析:[单选题]152.下面关于决策树学习相关描述不正确的有(__)。A)决策树学习的本质是一种逼近离散值目标函数的过程B)决策树的根节点表示分类的开始C)中间节点表示某一个属性的属性值D)从根节点到叶节点的路径表示一个具体的实例答案:C解析:[单选题]153.若A为假命题,B为真命题,以下命题中假命题有()A)¬AB)AC)AD)B答案:B解析:[单选题]154.Task运行在下来哪里个选项中Executor上的工作单元()。A)DriverprogramB)sparkmasterC)workernodeD)Clustermanager答案:C解析:[单选题]155.电子病案文本编辑中自然语言处理是为了()A)建立结构化系统模型B)将数字化医学信息整合到电子病案中C)从自由文本上提取代码化的医学数据D)协助临床诊断、治疗E)定义专业词汇答案:C解析:第2部分:多项选择题,共49题,每题至少两个正确答案,多选或少选均不得分。[多选题]156.以下对数据描述正确的是()。A)数据只包含显性数据和隐性数据B)数值是数据的一种形式C)数据到智慧是人们认知提升的过程D)数据是现实世界的记录答案:BCD解析:[多选题]157.下列关于学习器的性能度量说法正确的是(__)。A)对于二分类问题,可将样例根据其真实类别与学习器预测类别的组合划分为:真正例、假正例、真反例、假反例B)查准率和查全率是一对矛盾的度量C)一般来说,查准率越高,查全率往往也偏高D)一般来说,查准率越高,查全率往往偏低答案:ABD解析:[多选题]158.使用有监督学习的问题可以分为哪两大类()A)回归问题B)抽样问题C)聚类问题D)分类问题答案:AD解析:[多选题]159.下面哪几项适应于深度学习的训练?A)监督学习B)强化学习C)迁移学习D)机器学习答案:ABC解析:[多选题]160.(__)是科学推理的两大基本手段。A)泛化B)归纳C)演绎D)特化答案:BC解析:[多选题]161.googlenet提出的Inception结构优势有()A)保证每一层的感受野不变,网络深度加深,使得网络的精度更高B)使得每一层的感受野增大,学习小特征的能力变大C)有效提取高层语义信息,且对高层语义进行加工,有效提高网络准确度D)利用该结构有效减轻网络的权重答案:AD解析:[多选题]162.确定图像分割的阈值的方法有(__)。A)可变阈值法B)判别分析法C)中值滤波D)p尾法答案:ABD解析:[多选题]163.以下可用于聚类性能测量的评估方法()A)Jaccard系数B)FM指数C)Rand指数D)DB指数答案:ABCD解析:[多选题]164.以下可能会导致过拟合的是(___)。A)训练集中含有噪声样本B)训练集中缺乏代表性样本C)训练集的样本数目过少D)训练集中样本的维度过少答案:AB解析:[多选题]165.一个完整的人工神经网络包括()A)一层输入层B)多层分析层C)多层隐藏层D)两层输出层答案:AC解析:[多选题]166.下列关于EM算法描述正确的是(__)。A)EM算法是常用的估计参数隐变量的利器B)EM算法即是期望最大化算法C)EM算法常被用来学习高斯混合模型的参数D)EM算法是一种迭代式的方法答案:ABCD解析:[多选题]167.以下哪些函数是凸函数?()A)f(x)=xB)f(x)=x^3C)f(x)=x^4D)f(x)=x^3+x^4答案:AC解析:二阶导数非负[多选题]168.以下对大数据4V特性描述正确的是()。A)Value是指价值密度低B)大数据中所说的?速度?包括两种:计算速度和处理速度C)大数据时间分布是不均匀的D)在大数据中,价值价值与数据总量的大小存在线性关系答案:AC解析:[多选题]169.下列属于有监督算法的是()A)决策树B)K-均值C)贝叶斯网路D)SVM答案:ACD解析:[多选题]170.下列表示同一种学习方法的是(__)。A)集成学习B)多分类器系统C)基于委员会的学习D)平均策略答案:ABC解析:[多选题]171.以下说法正确的是()。A)条件独立性假设不成立时,朴素贝叶斯分类器仍有可能产生最优贝叶斯分类器B)在估计概率值时使用的拉普拉斯修正避免了因训练集样本不充分而导致概率估值为零的问题C)由于马尔可夫链通常很快就能趋于平稳分布,因此吉布斯采样算法的收敛速度很快D)二分类任务中两类数据满足高斯分布且方差相同时,线性判别分析产生贝叶斯最优分类器答案:ABD解析:由于马尔可夫链通常需要很长时间才能趋于平稳分布,因此吉布斯采样算法的收敛速度较慢。[多选题]172.数据集成需要注意的三个基本问题有(__)。A)模式集成B)数据冗余C)冲突检测和消除D)数据错误答案:ABC解析:[多选题]173.下列属于机器学习类型的是()A)有监督学习B)无监督学习C)半监督学习D)强化学习答案:ABCD解析:[多选题]174.假如你用logisticRegression算法去预测用户在网上的购买项目,然而,当你在新的用户集上验证你的假设时,你发现预测值有很大的偏差。并且你的假设在训练集上表现也很差,下面那些步骤你应该采纳,选择出正确的选项()A)尝试着减小正则项λB)尝试增加交叉特征C)减小样本量D)尝试更小的测试集或者特征答案:AB解析:[多选题]175.下面属于数据科学家的主要职责有(__)。A)提出?好问题?B)完成?数据加工?C)实现?数据洞见?D)数据?故事化?答案:ABCD解析:[多选题]176.下列哪几个优化算法适合大规模训练集的场景:A)minibatchsgdB)AdamC)LBFSGD)FTRL答案:ABD解析:FTRL是对每一维单独训练,属于一种在线学习优化算法。由于对参数的每一维单独训练,所以可以用于大规模数据训练。[多选题]177.数据源和APPs提供的数据内容包括(__)和物联网,金融,人/实体,位置智能等数据。A)健康B)经济C)空气D)海洋答案:ABCD解析:[多选题]178.根据输出结果,数据科学中机器学习可分为(__)。A)概念学习B)归纳学习C)决策树学习D)分析学习答案:ABCD解析:[多选题]179.下来哪些概念已被广泛应用于计算机视觉、自然语言处理、无人驾驶等领域?A)机器学习B)深度学习C)强化学习D)迁移学习答案:ABCD解析:[多选题]180.K均值聚类和层次聚类在一些方面有重大差异。以下说法正确的是()。A)在K均值聚类中,必须在运行算法前选定想要的簇的个数B)在K均值聚类中,可以在运行算法后选定想要的簇的个数C)在层次聚类中,可以在运行算法后选定想要的簇的个数D)K均值聚类算法所需的计算量比层次聚类算法小得多答案:ACD解析:在K均值聚类中,需要在运行算法前确定想要的簇的个数K。[多选题]181.常用的标准化方法()A)min-max标准化B)Z变换C)比例变换D)等宽分箱答案:ABC解析:[多选题]182.Spark应用的计算逻辑会被解析成DAG,这个解析操作由以下哪个功能模块完成()A)ClientB)ApplicationMasterC)ExecutorD)Driver答案:CD解析:[多选题]183.关于Zookeeper客户端命令行操作,其中可以监听节点的命令有()A)ls-wpathB)create-wC)get-wpathD)set-w答案:AC解析:[多选题]184.话题模型中的几个概念有?A)词B)句C)文档D)话题答案:ACD解析:[多选题]185.聚类旨在发现有用的对象簇,在现实中我们用到很多的簇的类型,使用不同的簇类型划分数据的结果是不同的,常见的簇类型有()A)明显分离的簇B)基于中心的簇C)基于邻近的簇D)基于密度的簇答案:ABCD解析:[多选题]186.分类评估指标中的AUC()A)AUC=1,表示分类器是完美的B)AUC=0.5,表示分类器是可用的C)AUC<0.5,表示分类器不可用D)0.5<AUC<1,表示分类器优于随机猜测答案:ACD解析:[多选题]187.下面属于数据科学理论基础的有(__)。A)统计学B)数据可视化C)机器学习D)领域知识答案:ABCD解析:[多选题]188.关于谓词逻辑,下列描述正确的是()**A)紧接于量词之后被量词作用的谓词公式称为该量词的辖域B)在C)仅个体变元被量化的谓词成为一阶谓词D)个体变元、函数符号和谓词符号都被量化的谓词成为二阶谓词答案:ABCD解析:[多选题]189.关于BP神经网络说法正确的是()A)是一种非线性模型B)sigmoid是其常用的一种激活函数C)可用于分类或回归D)有良好的自组织自学习能力机器学习方法答案:ABCD解析:[多选题]190.给定两个特征向量,以下哪些方法可以计算这两个向量相似度()A)欧式距离B)夹角余弦C)信息熵D)曼哈顿距离答案:ABD解析:[多选题]191.以下方法属于集成方法的是()A)baggingB)stackingC)blendingD)boosting答案:ABCD解析:[多选题]192.集成学习中多样性的增强有哪些___A)数据样本扰动B)输入属性扰动C)输出表示扰动D)算法参数扰动答案:ABCD解析:[多选题]193.K-means算法中常见的距离度量有()A)两点之间的距离B)两类别之间的距离C)簇的距离D)样本的距离答案:AB解析:[多选题]194.特征预处理一般包含()A)特征清洗B)特征生成C)特征选择D)特征归约答案:ABCD解析:[多选题]195.常见的决策树节点测试的类型有()A)离散值,分裂所有可能B)连续值,分裂两种可能C)离散值,分裂两种可能D)连续值,分裂两种以上可能答案:ABC解析:[多选题]196.给定两个特征向量,以下哪些方法可以计算这两个向量相似度?()A)欧式距离B)夹角余弦(Cosine)C)信息熵D)曼哈顿距离答案:ABD解析:[多选题]197.下列关于PCA和LDA的描述正确是()。A)PCA和LDA都可对高维数据进行降维B)PCA可以保留类的信息C)LDA可以保留类的信息D)PCA一般选择方差大的方向进行投影答案:ACD解析:[多选题]198.以下可以有效解决过拟合的方法是:()A)增加样本数量B)增加特征数量C)训练更多的迭代次数D)采用正则化方法答案:AD解析:[多选题]199.在机器学习中需要划分数据集,常用的划分测试集和训练集的划分方法有哪些()A)留出法B)交叉验证法C)自助法D)评分法答案:ABC解析:[多选题]200.下列哪些是特征选择方法A)AIC赤池信息准则B)LARS嵌入式特征选择方法C)LVW包裹式特征选择方法D)Relief过滤式特征选择方法答案:BCD解析:[多选题]201.下列关于偏差表述正确的是(__)。A)偏差度量了学习算法的期望预测与真实结果的偏离程度。B)偏差刻画了模型本身的拟合能力C)偏差刻画了数据扰动所造成的影响D)偏差刻画了学习问题本身的难度答案:AB解析:[多选题]202.下列关于错误率和精度描述有误的是(__)。A)错误率是分类错误的样本占样本总数的比例B)精度是指分类正确的样本数占样本总数的比例C)精度表示统计分类器预测出来的结果与真实结果不相同的个数,然后除以总的样例集D的个数D)错误率表示用统计分类正确的样本数,除以总的样例集D的个数答案:CD解析:[多选题]203.针对维数灾难,我们主要采用的降维方法有()。A)多维缩放B)主成分分析C)核化线性降维D)流形学习E)度量学习答案:ABCDE解析:[多选题]204.关于线性回归的描述,以下正确的有:A)基本假设包括随机干扰项是均值为0,方差为1的标准正态分布B)基本假设包括随机干扰项是均值为0的同方差正态分布C)在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量D)在违背基本假设时,模型不再可以估计E)可以用DW检验残差是否存在序列相关性F)多重共线性会使得参数估计值方差减小答案:BCE解析:第3部分:判断题,共33题,请判断题目是否正确。[判断题]205.随机梯度下降运行速度快,内存开销很小,可以支持使用海量数据集进行训练A)正确B)错误答案:对解析:[判断题]206.模型泛化能力与训练样本数量无关A)正确B)错误答案:错解析:[判断题]207.通用函数会对数组中的每一个元素都进行操作。A)正确B)错误答案:错解析:[判断题]208.DNN是卷积神经网络A)正确B)错误答案:错解析:[判断题]209.在聚类算法中,使用欧氏距离作为距离度量,欧氏距离越小,两个数据相似度越低A)正确B)错误答案:错解析:[判断题]210.类脑人工智能及人工神经网络只是智能的一种形式A)正确B)错误答案:对解析:[判断题]211.Dropout作用于每份小批量训练数据,由于其随机丢弃部分神经元的机制,相当于每次迭代都在训练不同结构的神经网络。()A)正确B)错误答案:对解析:[判断题]212.梯度下降,就是沿着函数的梯度(导数)方向更新自变量,使得函数的取值越来越小,直至达到全局最小或者局部最小。A)正确B)错误答案:对解析:[判断题]213.聚类效果可以用误差平方和(SSE)来评价,误差平方和越小,聚类效果越好A)正确B)错误答案:对解析:[判断题]214.K近邻算法既可用于分类,也可用于回归,但更常见的是解决分类问题A)正确B)错误答案:对解析:[判断题]215.如果要卸载指定环境中的包,则直接使用remove命令移除即可。A)正确B)错误答案:对解析:[判断题]216.机器学习算法在图像识别领域的性能表现可能会超过人类。A)正确B)错误答案:对解析:[判断题]217.Series和DataFrame都支持切片操作。A)正确B)错误答案:对解析:[判断题]218.NumPy的数组排序默认是从小到大。A)正确B)错误答案:对解析:[判断题]219.最近邻分离器的泛化错误率不会超过贝叶斯最优分类器错误率的两倍A)正确B)错误答案:对解析:[判断题]220.Python使用lambda创建匿名函数,匿名函数拥有自己的命名空间。A)正确B)错误答案:对解析:[判断题]221.神经网络训练时可以将全部参数初始化为0。()A)正确B)错误答案:错解析:[判断题]222.贝叶斯决策论是概率框架下实施决策的基本方法,它是决策论+概率论的组合A)正确B)错误答案:对解析:[判断题]223.k均值聚类算法是一种典型的EM算法A)正确;B)错误;答案:对解析:[判断题]224.神经网络中最基本的成分是神经元模型,即神经网络中简单单元A)正确B)错误答案:对解析:[判断题]225.机器学习算法是一类能从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法A)正确B)错误答案:对解析:[判断题]226.神经网络算法不能用于数据降维A)正确B)错误答案:错解析:[判断题]227.创建数组时可以不指定数据的类型。A)正确B)错误答案:对解析:[判断题]228.K近邻算法比较适合于小数据样本A)正确B)错误答案:对解析:[判断题]229.先验概率是指根据以往经验和分析得到的概率A)正确B)错误答案:对解析:[判断题]230.平方损失函数适合

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论