人工智能自然语言技术练习(习题卷3)_第1页
人工智能自然语言技术练习(习题卷3)_第2页
人工智能自然语言技术练习(习题卷3)_第3页
人工智能自然语言技术练习(习题卷3)_第4页
人工智能自然语言技术练习(习题卷3)_第5页
已阅读5页,还剩49页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

试卷科目:人工智能自然语言技术练习人工智能自然语言技术练习(习题卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能自然语言技术练习第1部分:单项选择题,共116题,每题只有一个正确答案,多选或少选均不得分。[单选题]1.前向传播过程中,除了需要有权重w,还需要有一个什么函数做非线性变换,才能较好的进行计算A)激活函数B)正弦函数C)余弦函数D)都可以答案:A解析:[单选题]2.多头机制是怎么实现的A)把矩阵均分,经过计算之后再合并B)直接进行了计算C)直接乘上了权重矩阵WD)不确定答案:A解析:[单选题]3.()函数用于搜索搭配词语。A)concordanceB)common_contextsC)collocationsD)Sorted答案:C解析:[单选题]4.什么是拟合,如何去理解拟合A)指曲线能不能去很好的描述现有的数据B)一条曲线过分的去描述了现有的数据C)指的是在训练集上表现良好,测试集上表现很差D)指的是在训练测试集上表现都不好答案:A解析:[单选题]5.正则项有很大的作用呢,如果把正则项加到了逻辑回归的目标函数中,会有什么效果?A)所有的参数w都变成0B)所有参数w都会趋近于0C)所有参数w都不会变化D)不确定答案:A解析:[单选题]6.tanh激活函数也有造成梯度消失等问题和sigmoid相比,()sigmoidA)优于B)劣与C)等于D)小于等于答案:A解析:[单选题]7.pytorch框架是哪个公司开发的A)MITB)facebookC)googleD)apple答案:B解析:[单选题]8.什么是梯度下降,如何去理解梯度下降A)实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的B)是一种在实数域和复数域上近似求解方程的方法C)改善每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度D)不确定答案:A解析:[单选题]9.sigmoid激活函数最大的问题是容易造成____?A)反向传播容易造成梯度消失B)正向传播容易造成梯度消失C)正向传播容易造成梯度爆炸D)以上都正确答案:A解析:[单选题]10.SVM中通过()去寻找的最优的超平面A)支持向量机B)线性回归C)正则化D)逻辑回归答案:A解析:[单选题]11.在做传统NLP中的情感分析中,我们可以如何去思想这类人物A)使用机器学习的算法获取最终的情感B)使用深度学习的知识获取情感C)使用神经网络进行判断D)手工手机情感极性词典答案:D解析:[单选题]12.Histogram算法的思想是什么A)寻找最优分割面B)寻找因变量和自变量之间的关系C)先把连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图。D)不确定答案:C解析:[单选题]13.基于统计的分词方法为()A)正向最大匹配法B)逆向最大匹配法C)最少切分D)条件随机场答案:D解析:[单选题]14.以下四个模型当中哪种模型是基于N-gram才出现的A)NNLMB)BERTC)GPT-2D)Transformer答案:A解析:[单选题]15.决策树可以从以下哪个包中导入A)sklearnB)numpyC)PandasD)matplotlib答案:A解析:[单选题]16.以下关于ROC曲线的说法,正确的是A)ROC曲线越靠拢(1,2)点B)ROC曲线越靠拢(0.5,0.5)点C)ROC曲线越靠拢(0,1)点越好D)ROC曲线越靠拢(1,0)点答案:C解析:[单选题]17.ELMO为什么可以解决一词多意的问题A)会的到一个固定的语义向量B)没有在下游的任务当中进行微调C)基于上下文动态的去调整向量D)预训练阶段可以解决一次多意问题答案:C解析:[单选题]18.BOW模型其中的一个缺点是()。A)可以保留语义B)维数低C)没有忽略文档的词语顺序子D)矩阵稀疏答案:D解析:[单选题]19.()是1966年由美国语言学家菲尔摩提出的一种语言学理论是语法体系深层结构中的语义概念。A)格语法B)贝叶斯分类器C)限制学说D)选择限制学说答案:A解析:[单选题]20.自然语言处理以()为基础。A)数学B)心理学C)逻辑学D)语言学答案:D解析:[单选题]21.谓语动词句法成分关系特征()A)路径和位置B)位置和动词原形C)框架和位置D)路径和框架答案:A解析:[单选题]22.__可以计算出词的重要度A)TF-IDFB)K-MeansC)KNND)PCA答案:A解析:[单选题]23.SVM和LR都可以做分类,那么有什么异同点A)都属于分类算法B)SVM通过超平面来划分,进行分类C)LR通过计算样本属于哪个类别的概率进行分类D)都属于回归算法答案:D解析:[单选题]24.不符合属性和数量类概念的规定的是A)味道:DEF=attribute|属性,taste|味道,&edible|食物B)气量:DEF=attribute|属性,tolerance|气量,&human|人C)班次:DEF=quantity|数量,amount|多少,&transport|运送D)比价:DEF=quantity|数量,rate|比率,price|价格答案:D解析:[单选题]25.以下哪个不属于无监督学习A)聚类B)降维C)回归算法D)PCA答案:C解析:[单选题]26.GRU和LSTM对比有什么异同点A)使用了word2vec编码B)使用了BERT编码C)使用了GRU编码D)将输入门和输出门修改成了重置门和更新门答案:D解析:[单选题]27.特征工程师必不可少的阶段,它起到的作用是什么A)为了对数据进行分类B)去除原始数据的杂质和沉余C)为了对数据进行回归D)为了对数据进行聚类和降维的操作答案:B解析:[单选题]28.Relu(RectifiedLinearUnit)又叫做什么A)随机纠正线性单元B)广义线性模型C)双曲正切D)修正线性单元函数答案:D解析:A选项指的是RRelu[单选题]29.下列属于结构化数据的是:A)数据库中的数据B)HTML文档C)文本D)图片答案:A解析:[单选题]30.下述()不是人工智能中常用的知识格式化表示方法。A)框架表示法B)产生式表示法C)语义网络表示法D)形象描写表示法答案:D解析:[单选题]31.计算机上一切信息都是由()进制数字来存储的。A)二B)三C)四D)五答案:A解析:[单选题]32.清洗数据的方式有:A)A:缺失值填充B)B:重复值去除C)C:寻找离群点(奇点)D)D:集成不同的数据库答案:D解析:[单选题]33.RNN有很多的变种,那么传统的RNN存在哪些问题A)没有任何问题B)造成梯度消失和梯度爆炸C)特征提取效果好D)不确定答案:B解析:[单选题]34.格语法中的?格?是(),它是指句子中体词(名词和代词)和谓词(动词和形容词)之间的及物性关系。A)浅层格B)深层格C)目标格D)结果格答案:B解析:[单选题]35.下列关于中文分词方法的描述中,属于基于词典的分词方法的是()A)在分析句子时与词典中的词语进行对比,词典中出现的就划分为词B)依据上下文中相邻字出现的频率统计,同时出现的次数越高就越可能组成一个词C)让计算机模拟人的理解方式,根据大量的现有资料和规则进行学习,然后分词D)依据词语与词语之间的空格进行分词答案:A解析:[单选题]36.Bagging的核心思想是什么A)核心思想为并行地训练一系列各自独立的同类模型,然后再将各个模型的输出结果按照某种策略进行聚合B)核心思想是并行地训练一系列各自独立的不同类模型,然后通过训练一个元模型(meta-model)来将各个模型输出结果进行结合C)不确定D)核心思想为串行地训练一系列前后依赖的同类模型,即后一个模型用来对前一个模型的输出结果进行纠正答案:A解析:[单选题]37.当样本数量特别大时,哪种方式能更快速的收敛A)A:随机梯度下降B)B:小批量梯度下降C)C:对代价函数求导D)D:批量梯度下降答案:B解析:[单选题]38.哪个不是句法语义分析的应用A)作为输入特征B)作为文本分类C)作为抽取规则D)作为输入结构答案:B解析:[单选题]39.Adam算法的底层原理是A)强化了RMSprop算法B)强化了动量梯度算法C)同时使用Momentum和RMSprop算法D)没有核心答案:C解析:[单选题]40.网格搜索虽然有很多的优点,但是也有个关键的弊端是?A)十分耗时B)十分快速C)计算资源少D)效率快答案:A解析:[单选题]41.人类语言中的许多特点使得文本自动处理相当困难。原始文本拿来之后并不能直接进入标注流程,在这之前,需要做一些预处理工作。预处理工作主要包括以下内容A)汉语和英语方面B)法语方面C)日语方面D)符号方面答案:A解析:[单选题]42.语料库加工的主要方式不包括A)人工方式B)交替方式C)自动方式D)半自动方式答案:B解析:[单选题]43.一个汉字在方阵中的坐标,称为该字的?()?。A)区码B)位码C)区位码D)位区码答案:C解析:[单选题]44.文本文件中存储的其实并不是我们在编辑器里看到的一个个的字符,而是字符的()。A)内码B)外码C)反码D)补码答案:A解析:[单选题]45.RNN的关键点之一就是他们可以用来连接()的信息到当前的任务上A)先前B)之后C)丢失D)LSTM答案:A解析:[单选题]46.做特征工程的目的是为了什么A)设计更高效的特征以刻画求解的问题与预测模型之间的关系。B)为了对数据进行分类C)为了对数据进行回归D)为了对数据进行聚类和降维的操作答案:A解析:[单选题]47.在NLP中,将一种语言翻译成另一种语言属于什么任务A)文本摘要B)机器翻译C)主题提取D)问答系统答案:B解析:[单选题]48.智能问答系统主要依靠的关键基础和技术不包括以下那个方面()A)大量高质量的数据和知识,主要是知识图谱技术B)强大的自然语言处理技术C)需要大量的标准训练语料,这主要是深度学习方法所需要D)专业的智能算法答案:D解析:[单选题]49.LDA中的五个分布其中的二项分布,是一个什么分布A)离散的随机分布B)连续的随机分布C)连续的分布D)不确定答案:A解析:[单选题]50.常用的激活函数其中包括Tanh,它的导数的范围是在哪个区间?A)(0,1]B)(0,0.1]C)(0,-1]D)(0,10]答案:A解析:[单选题]51.关于ELMO说法正确的是__?A)使用了预训练模型,基于上下文微调embeddingB)使用了更强的特征提取器TransformerC)使用了单向的Transformer去提取特征D)以上都正确答案:A解析:[单选题]52.下面哪个方式不能对NER调优A)加入BERTB)加入ALBERTC)加入SVCD)使用更高质量的数据答案:C解析:[单选题]53.下面那个不属于判别式式模型A)MEMMB)CRFC)HMMD)SVM答案:C解析:[单选题]54.conv2d的作用是什么A)一维卷积B)lstm操作C)GRU操作D)二维卷积答案:D解析:[单选题]55.逻辑回归的损失函数是什么A)信息熵B)信息增益C)对数损失D)均方误差答案:C解析:[单选题]56.下列模型中使用Transformer的是__?A)word2vecB)BERTC)ELMOD)GPT答案:D解析:[单选题]57.确定性知识是指()知识。A)可以精确表示的B)正确的C)在大学中学到的知识D)能够解决问题的答案:A解析:[单选题]58.NLP中也常用到深度学习,那么相比较机器学习而言,有什么优势A)计算量变得更大B)计算时间变得更久C)特征提取变得更加容易D)时间复杂度更复杂答案:C解析:[单选题]59.长短期记忆门中?确定输出,把前面的信息保存到隐层中去?是哪个门?A)输入门B)遗忘门C)输出门D)更新门答案:C解析:[单选题]60.下列对神经网络中的relu激活函数,正确的说法是哪个?A)引用了无效的单元格地址B)过滤无效神经元C)不是激发函数D)将正数保留,将负数置0答案:D解析:[单选题]61.政府部门利用NLP技术分析人们对某一事件、政策法规或社会现象的评论,实时了解百姓的态度,这属于NLP研究内容的()。A)信息检索B)文本分类C)信息过滤D)自动文摘答案:B解析:[单选题]62.哪个为人工智能之父A)图灵B)冯-诺依曼C)维纳D)牛顿答案:A解析:[单选题]63.如果适当的增加了模型的复杂度会达到什么效果A)防止过拟合B)防止欠拟合C)防止完美拟合D)不确定答案:B解析:[单选题]64.马尔科夫链达到最稳定状态时,其稳定概率与()无关A)初始转发B)中间状态C)当前状态D)最末状态答案:A解析:[单选题]65.文本表示有很多种形式短文本表示和词表示是基于什么的文本表示分类A)基于特征B)基于粒度C)基于表示方法D)不确定答案:B解析:[单选题]66.支持向量机属于A)判别模型B)数据结构C)蜜罐模型D)语言答案:A解析:[单选题]67.在词类构造中,采用词的自动聚类技术时,构造基于A)基于词的n-gram模型B)基于词性的n-gram模型C)基于词自动聚类的n-gram模型D)以上三项都可答案:C解析:[单选题]68.tanh激活函数的输出值在什么区间A)[0,1]B)[-1,1]C)[-1,0]D)[-0.5,0.5]答案:B解析:[单选题]69.以下哪个选项让GBDT更好更快的用到工业当中A)LightGBMB)XGBoostC)随机森林D)岭回归答案:A解析:[单选题]70.马尔可夫模型不可应用于A)词性标注B)求解方程C)中文分词D)天气预报答案:B解析:[单选题]71.当你在数据中发现噪声时,你将在k-NN中考虑以下哪个选项?A)将增加k的值B)将减少k的值C)噪声不能取决于kD)以上都不对答案:A解析:[单选题]72.大五码是()地区标准汉字字符集(CNS11643)。A)美国B)欧洲C)中国台湾D)中国大陆答案:C解析:[单选题]73.以下几个选项中,哪个选项指的是?修正线性单元?A)tanhB)LeakyReluC)sigmoidD)relu答案:D解析:[单选题]74.使用EM算法去求解K-Means模型是可能会造成什么结果A)算法不收敛B)可能达到局部最优C)不确定D)使梯度的计算更便捷答案:B解析:[单选题]75.下边哪些方式不能做特征提取A)CNNB)RNNC)TransformerD)SVM答案:D解析:[单选题]76.什么时候可以选取KNN算法A)当需要使用分类算法,且数据比较大的时候就可以尝试使用KNN算法进行分类了。B)当需要使用聚类算法,且数据比较大的时候就可以尝试使用KNN算法进行分类了。C)当需要使用降维算法,且数据比较大的时候就可以尝试使用KNN算法进行分类了。D)不能确定答案:A解析:[单选题]77.决策树算法最终A)拟合出一个含有参数的函数B)构造出一个含有参数的网络C)生成一个有分支的决策树D)生成一个有向图答案:C解析:[单选题]78.实际的应用中在数据预处理阶段会有数据划分,下列关于训练,测试以及验证说法错误的是哪个?A)训练集用于算子的拟合B)可以直接使用训练集来验证算子的准确率C)验证集和测试集用来评判算子的准确度D)可以不配置验证集答案:B解析:[单选题]79.关于梯度下降最优化方法,以下描述正确的是A)一般情况下不能保证得到全局最优解B)梯度下降速度最快C)目标函数是非凸集,梯度下降的解是最优解D)思想简单,实现困难答案:A解析:[单选题]80.动量梯度法,是通过学习率和什么控制的,下列说法正确的是?A)指数加权平均数B)局部平均值C)全局平局值D)方差答案:A解析:[单选题]81.以下不是数据清洗的方法有A)A:缺失值填充B)B:重复值去除C)C:寻找离群点(奇点)D)D:集成不同的数据库答案:D解析:[单选题]82.以下四个说法中,哪个是GBDT的优点A)在分布稠密的数据集上,泛化能力和表达能力都很好;B)GBDT在高维稀疏的数据集上表现不佳;C)训练过程需要串行训练,只能在决策树内部采用一些局部并行的手段提高训练速度。D)不确定答案:A解析:[单选题]83.从工程的角度出发去看,随机森林有什么优点A)随机森林的每棵树训练是相互独立的,可以串行生成,调高训练的效率B)随机森林的每棵树训练是相互独立的,可以并行生成,调高训练的效率C)随机森林的每棵树训练是相互独立的,可以并行生成,降低训练的效率D)不确定答案:B解析:[单选题]84.tf.slice的作用是什么A)沿着某一维度连结tensorB)沿着某一维度将tensor分离为num_splittensorsC)对tensor进行切片操作D)沿着某维度进行序列反转答案:C解析:[单选题]85.产生式系统的推理不包括A)正向推理B)逆向推理C)双向推理D)简单推理答案:D解析:[单选题]86.知识图谱用到了哪个领域的技术A)计算机视觉B)数据挖掘C)自然语言处理D)机器学习答案:C解析:[单选题]87.线性回归的最优解是()A)迭代优化B)一次求解C)求解函数最大值D)迭代求解代价函数最小值答案:D解析:[单选题]88.SVM其中有个参数C,这个参数代表的是什么意思?A)交叉验证的次数B)用到的核函数C)在分类准确性和模型复杂度之间的权衡D)以上都不对答案:C解析:[单选题]89.tensorflow中的cast方法,返回值的数据类型是什么样的A)整数型B)布尔型C)浮点型D)字符串答案:C解析:[单选题]90.人工智能中的NLP,有什么特别之处A)传递信号,表达意思B)做图像检测C)做人脸识别D)做指纹识别答案:A解析:[单选题]91.人工智能起源于哪个年代?A)20世纪50年代B)20世纪60年代C)20世纪70年代D)20世纪80年代答案:A解析:[单选题]92.如果测试数据中有N(非常大)的观测值,则1-NN将花费多少时间?A)N*DB)N*D*2C)(N*D)/2D)这些都不是答案:A解析:[单选题]93.NLP中常用的激活函数Tanh,它的输出的值域范围是多少?A)+1和-1B)+0和-1C)+1和0D)+2和-2答案:A解析:[单选题]94.()是统计一个词出现在文档集中文档频次的统计量。A)逆文档频率B)词频C)词频-逆文档频率D)以上都不对答案:A解析:[单选题]95.与基于词的n-gram模型和基于词性的n-gram模型相比较,自动聚类生成的词类数量A)比两者都大B)比两者都小C)介于两者之间D)三者一样答案:C解析:[单选题]96.以下关于信息增益正确的是A)信息增益=划分后熵-划分前熵B)信息增益=划分前熵-划分后熵C)信息增益就是信息熵D)信息增益就是条件熵答案:B解析:[单选题]97.下列几个预训练模型中,哪个使用了LSTMA)BERTB)GPTC)GPT-2D)ELMO答案:D解析:[单选题]98.以下几个选项,哪一个常赋值给batch_sizeA)128B)127C)126D)125答案:A解析:[单选题]99.可以计算词向量之间距离的技术是哪个?A)词形还原(Lemmatization)B)探测法(Soundex)C)余弦相似度(CosineSimilarity)D)N-grams答案:C解析:[单选题]100.()是一种基于图的文本排序算法,它可以用于自动摘要和提取关键词。A)TF-IDF算法B)TextRank算法C)LDA算法D)主题模型答案:B解析:[单选题]101.以下四个选项当中,哪个讲的是随机森林的优点A)随机森林已经被证明在某些噪音比较大的分类或回归问题上会过拟合。B)对于不平均的数据集来说,它可以平衡误差;C)对于有不同取值的属性数据,取值划分较多的属性会对随机森林产生更大的影响D)学习本质上进行的是决策节点的分裂,依赖于训练数据的空间分布答案:B解析:[单选题]102.下列四个选项中,对于正则化的描述正确的选项是哪个?A)每一个隐层都需要正则化B)正则化可以预防过拟合C)正则化可以预防欠拟合D)每一个模型中都需要正则化,否则无法正确预测结果答案:B解析:[单选题]103.Python里面,以下哪个不属于面向对象的特性:A)A:封装B)B:继承C)C:多态D)D:消息答案:D解析:[单选题]104.通过getTreeDepth可以获取决策树中的什么A)获取决策树叶子节点的个数B)获取决策树的层数C)绘制节点D)标注有向边属性答案:B解析:[单选题]105.关于逆文档频率说法错误的是()。A)逆文档频率是一个词出现在文档集中文档频次的统计量B)一个词在文档集中越少的文档中出现,说明这个词对文档的区分能力越强C)一个词在文档集中越少的文档中出现,说明这个词对文档的区分能力越弱D)逆文档频率统计量的计算公式为idr,=logq回[,ed}+1答案:C解析:[单选题]106.下列选项中对大概率事件描述正确的是?A)发生可能性不大的事件B)发生可能性大的事件C)发生可能性不去确定的事件D)以上都正确答案:B解析:[单选题]107.下面哪个选项不是文本分析的组成?()A)分词B)词性标注C)文本翻译D)语义分析答案:C解析:二、(15题)[单选题]108.什么是逻辑回归,如何理解逻辑回归A)逻辑回归是用来做分类的算法,处理离散型的数据B)逻辑回归就是用来处理连续性数据的C)逻辑回归是用来做回归的D)逻辑回归是用来做房价预测的答案:A解析:[单选题]109.以下哪种情况下我们可以选择直接删除某个特征A)数据情况良好B)数据无过多缺失值C)特征少D)特征确实比较多答案:D解析:[单选题]110.如果使用了Tanh作为激活函数你,那么经过此非线性变换后值的范围为__?A)[-1,1]B)[0,2]C)[0,1]D)0或1答案:A解析:[单选题]111.梯度下降算法是一个()的算法A)迭代优化B)一次求解C)求解函数最大值D)迭代求解代价函数最小值答案:D解析:[单选题]112.以下几个函数中,上升速度最快的是哪个A)线性函数B)指数函数C)幂函数D)对数函数答案:D解析:[单选题]113.CNN中,一般选择有多个卷积核是为了什么A)同时提取多个图像的特征B)提取某些图像多个特征C)图像有多个通道D)与多特征无关答案:B解析:[单选题]114.下面哪种方法是属于将数据映射到新的空间?A)傅立叶变换B)特征加权C)渐进抽样D)维归约答案:A解析:[单选题]115.tf里的con1d的作用是什么A)二维卷积B)一维卷积C)lstm操作D)GRU操作答案:B解析:[单选题]116.人工智能中关于距离空间处理的分类情况,一般:A)需要权重训练B)不需要权值训练C)不能分类D)需要选定特殊距离空间答案:B解析:第2部分:多项选择题,共57题,每题至少两个正确答案,多选或少选均不得分。[多选题]117.判别式处理模型缺点是什么A)学习过程比较复杂B)目标分类中易产生较大错误率C)不能反映训练数据本身的特性D)没办法把整个场景描述出来答案:CD解析:[多选题]118.样本权重,最大深度分别是下列哪个参数A)lossfunctionB)min_child_leafC)min_child_weightD)max_depth答案:CD解析:[多选题]119.抽取式摘要分为那些步骤A)数据预处理B)排序C)后处理D)词或句子的表示答案:ABCD解析:[多选题]120.逻辑回归有什么优点A)LR能以概率的形式作为输出结果,而不是0,1B)LR的可解释强,可控度高C)训练快D)以上都正确答案:ABCD解析:[多选题]121.下面哪些是以Boosting为代表的算法:A)A:RandomForestClassifierB)B:AdaboostC)C:XgboostD)D:RandomForestRegressor答案:BC解析:[多选题]122.基于粒度的表示方式有A)长文本表示B)离散表示C)词表示D)基于聚类表示答案:AC解析:[多选题]123.Bagging的操作主要分为哪些阶段A)Aggregating阶段,将上一个阶段训练得到的n个基模型组合起来,共同做决策。在分类任务中,可采用投票法,比如相对多数投票法,将结果预测为得票最多的类别。而在回归任务中可采用平均法,即将每个基模型预测得到的结果进行简单平均或加权平均来获得最终的预测结果。B)Boostrap阶段,即采用有放回的采样方式,将训练集分为n个子样本集;并用基学习器对每组样本分布进行训练,得到n个基模型C)分别采用全部的训练样本来训练n个组件模型,要求这些个体学习器必须异构的,比如可以分别是线性学习器,SVM,决策树模型和深度学习模型。D)训练一个元模型(meta-model)来将各个组件模型的输出结果进行结合,具体过程就是将各个学习器在训练集上得到的预测结果作为训练特征和训练集的真实结果组成新的训练集;然后用这个新组成的训练集来训练一个元模型。这个元模型可以是线性模型或者树模型。答案:AB解析:[多选题]124.以下四个选项当中属于基于表示方法的文本表示分类的是A)基于降维表示B)基于聚类表示C)CBOWD)Skip-gram答案:ABCD解析:[多选题]125.以下几个选项中,哪些可以用逻辑回归算法去完成A)电影票房的预测B)垃圾邮件的分类C)房价的预测D)情感分类答案:BD解析:[多选题]126.能够跳出局部最优解的算法有A)AdamB)MomentumC)RMSpropD)Lasso答案:ABC解析:[多选题]127.随机森林的具体实现步骤有哪些A)随机抽样训练决策树。假如有N个样本,则有放回的随机选择N个样本(每次随机选择一个样本,然后返回继续选择,也就是说可能有重复的)。这选择好了的N个样本用来训练一个决策树,作为决策树根节点处的样本。B)在每个节点随机选取所有特征的一个子集,用来计算最佳分裂方式。当每个样本有M个属性时,在决策树的每个节点需要分裂时,随机从这M个属性中选取出m个属性,满足条件m<<M。然后从这m个属性中采用某种策略(比如信息增益)来选择1个属性作为该节点的分裂属性。C)决策树形成过程中每个节点都要按照步骤2来分裂(也就是说如果下一次该节点选出来的那一个属性是刚刚其父节点分裂时用过的属性,则该结点已经达到了叶子节点,无须继续分裂了)。一直到不能分裂为止。注意整个决策树形成过程中没有进行剪枝。D)建立大量的决策树,这样就构成了随机森林。答案:ABCD解析:[多选题]128.在训练模型时,经常会发生过拟合的现象,那么以下哪些手段可以解决过拟合问题A)加入L1B)加入L2C)不做处理D)以上都正确答案:AB解析:[多选题]129.欠拟合可能是什么原因造成的A)模型复杂度太低B)模型过于简单C)数据特征太少D)没有使用到重要的特征答案:ABCD解析:[多选题]130.关于sigmoid函数,错误的有哪些?()A)A:当x大于0时,y<0.5;当x小于0时,y>0.5B)B:y的范围在(-1,1)C)C:当x大于0时,y大于0.5且小于1;当x小于0时,y大于0且小于0.5D)D:当x=0,时,y=1答案:ABD解析:[多选题]131.关于GPT模型哪些说法是正确的A)使用了双向的TransformerB)使用了单向的TransformerC)使用了双向LSTMD)解决了一词多义的问题答案:BD解析:[多选题]132.文本挖掘常见应用场景有()A)Web文档自动分类B)情感分析C)信息检索D)关键词提取答案:ABC解析:[多选题]133.以下选项中,可能会造成欠拟合的是哪些A)模型复杂度太低B)模型过于简单C)数据特征太少D)没有使用到重要的特征答案:ABCD解析:[多选题]134.编解码模型有哪些弊端A)对于编码器来说无法完全的表示整个序列信息B)对于编码器来说,长序列问题,先输入的有可能被覆盖掉C)对于解码器来说,对于输入的每个单词权重是不一样的D)对于解码器来说,对于输入的每个单词权重是相同的答案:ABC解析:[多选题]135.以下正则化相关的表述,哪些正确?A)正则化可以防止欠拟合B)正则化可以防止过拟合C)dropout具有正则化效果D)relu函数具有正则化效果答案:BC解析:[多选题]136.(基于表示方法)文本表示分类都有哪些?A)短文本表示B)One-hot表示C)词表示D)CBOW答案:BD解析:[多选题]137.XGBoost把GBDT中的哪些方面做到了极致A)速度B)代价C)效率D)以上都是答案:AC解析:[多选题]138.人工智能机器人AlphaGo战胜了围棋大师,它程序中使用到的技术有哪些?A)决策神经网络B)评估神经网络C)历史经验D)线性代数答案:AB解析:[多选题]139.凸优化问题的例子包括哪些?A)聚类B)支持向量机C)降维D)线性回归答案:BD解析:[多选题]140.Boosting思想是怎么进行学习的?A)先从初始训练集训练出一个基学习器B)再根据基学习器的表现对训练样本进行调整C)然后基于调整后的样本分布来训练下一个基学习器D)重复进行。直至基学习器数目达到实现指定的值n,最终将这n个基学习器进行结合。答案:ABCD解析:[多选题]141.LSTM可以进行长时间记忆,那么它是如何实现的A)LSTM加入了输入门,,遗忘门以及输出门B)输入门控制当前计算的新状态以及以多大程度更新到记忆单元中C)遗忘门控制前一步记忆单元中的信息以多大程度被遗忘掉D)输出门控制当前的输出有多大程度取决于当前的记忆单元答案:ABCD解析:[多选题]142.tensorflow通常用于在以下哪些场景中的开发?A)自然语言B)语音识别C)机器翻译D)计算机视觉答案:ABCD解析:[多选题]143.神经网络模型一般包括下面哪几层A)输入层B)隐藏层C)输出层D)以上都包括答案:ABCD解析:[多选题]144.以下哪些网络属于CV领域A)VGGnetB)YOLOC)RNND)LSTM答案:AB解析:[多选题]145.以下四个模型当中,哪些使用到TransformerA)ELMoB)GPTC)BERTD)word2vec答案:BC解析:[多选题]146.以下几种数据当中,哪些是属于非结构化数据?A)文本B)图像C)音频D)视频答案:ABCD解析:[多选题]147.调参指的是调哪些参数A)学习率B)batch_sizeC)模型结构D)以上都正确答案:AB解析:[多选题]148.Abstractive生成式摘要评估衡量哪些标准?A)理解文档B)可读性强C)简练总结D)语义理解答案:ABC解析:[多选题]149.下列选项中,关于数据归一化描述正确的有哪些?A)更容易收敛得到最优解B)权重值较小C)权重值大D)无特点答案:AB解析:[多选题]150.在逻辑回归这个算法中,加入了非线性的变换,那么加入了之后有什么样的好处A)提升模型表达能力B)降低模型表达能力C)易于模型的快速迭代D)加大拟合答案:ACD解析:[多选题]151.K-NN虽然常用,但是它的缺点很明显,比如:A)对内存要求较高,因为该算法存储了所有训练数据B)预测阶段可能很慢C)对不相关的功能和数据规模敏感D)对异常值不敏感答案:ABC解析:[多选题]152.有哪些常用的缓解过拟合的办法A)dropoutB)数据集扩增C)earlystoppingD)正则化方法(L1/L2)答案:ABCD解析:[多选题]153.CBOW中的特点和步骤有哪些A)无隐层B)与上下文的词序无关C)使用了上下文窗口预测中心词D)投影层求和(平均)答案:ABCD解析:[多选题]154.以下几个选项中属于同质集成的是?A)BaggingB)BoostingC)StackingD)以上都正确答案:AB解析:[多选题]155.对数据预处理阶段,需要对样本进行切分,那么下列关于其中的测试集描述正确的是?A)在数据规模小时,可以保留30%测试集B)大数据时代,测试集不必占用数据集的30%,能够保证对模型的考核即可C)不管数据大小,始终保持30%作为测试集D)测试集和验证集不能共存答案:AB解析:[多选题]156.以下四个选项中,哪些选项是深度学习在工业中的应用A)图像识别B)文本分类C)机器创作D)物体识别答案:ABCD解析:[多选题]157.L1L2就是在目标函数中加入惩罚项,那么以下关于L1,L2说法正确的是A)L1可以让一部分特征的系数缩小到0,从而间接实现特征选择。B)L1让所有特征的系数都缩小,但是不会减为0,它会使优化求解稳定快速C)L2可以让一部分特征的系数缩小到0,从而间接实现特征选择。D)L2让所有特征的系数都缩小,但是不会减为0,它会使优化求解稳定快速答案:AD解析:[多选题]158.人工智能的终极目标是希望机器达到如下哪些能力A)感知B)理解C)决策D)证明答案:ABC解析:[多选题]159.关于KNN说法正确的是A)A:当样本不平衡时,如一个类的样本容量很大,而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的K个邻居中大容量类的样本占多数。B)B:计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的距离,才能求得它的K个最近邻点。C)C:使用KDTree可以加快k近邻的搜索效率D)D:可理解性差,无法给出像决策树那样的规则。答案:ABCD解析:[多选题]160.Bert的输入输入的向量中,有几个embedding构成?A)TokenembeddingB)SegmentembeddingC)PositionembeddingD)TF-IDF答案:ABC解析:[多选题]161.Transformer中的decode层是由那几个构成的A)self-AttentionB)Attention层C)前馈神经网络D)CNN答案:ABC解析:[多选题]162.以下属于分类器classifier评价的有哪些:A)预测准确度B)召回率C)模型描述的简洁度D)计算复杂度答案:ACD解析:[多选题]163.人工智能关于自动文摘中关于抽取式摘要问题考虑的指标有哪些?A)相关性B)平衡性C)安全性D)新颖性答案:AD解析:[多选题]164.如果想要使用树停止生长,可以使用哪些操作?A)设置树的最大深度B)当样本权重C)防止过拟合D)以上全部正确答案:ABCD解析:[多选题]165.下列哪些是对马尔科夫模型的正确理解()A)马尔科夫模型的基本假设是人事变动概率B)用以估计历年年平均调动概率的周期越长,根据过去所推测未来人员变动就越准确C)采用马尔科夫模型可以预测组织任何时刻点上的各类人员分布状况D)模型中的转移率是指组织中人员进行水平调动的比率,不包含被提升或降级的人数答案:AB解析:[多选题]166.关于wordembedding+Bi-LSTM+CRF,以下说法正确的是?A)属于深度学习的一种方法B)属于机器学习的一种方法C)是深度学习目前主流的方法D)以上说法都正确答案:AC解析:[多选题]167.EM算法当中有哪些缺点A)对初始值敏感B)不同的初值可能得到不同的参数估计值C)不能保证找到全局最优值。D)以上都正确答案:ABCD解析:[多选题]168.NLP中有哪几大类任务A)序列标注B)分类C)句子关系判断D)生成式任务答案:ABCD解析:[多选题]169.HMM主要解决哪几类问题A)预测问题B)评价问题C)解码问题D)参数学习问题答案:BCD解析:[多选题]170.以下四个选项中,有哪些是属于机器学习的A)监督式学习B)非监督式学习C)半监督式学习D)强化学习答案:ABCD解析:[多选题]171.基于粒度的文本表示分类是哪些??A)长文本表示B)离散表示C)词表示D)基于聚类表示答案:AC解析:[多选题]172.以下四个选项中,使用到了Transformer做特征提取模型有哪些A)BERTB)ALBERTC)GPTD)ELMO答案:ABC解析:[多选题]173.人工智能中关于L1和L2正则化的区别,以下有哪些?A)L1可以让一部分特征的系数缩小到0,从而间接实现特征选择。B)L1让所有特征的系数都缩小,但是不会减为0,它会使优化求解稳定快速C)L2可以让一部分特征的系数缩小到0,从而间接实现特征选择。D)L2让所有特征的系数都缩小,但是不会减为0,它会使优化求解稳定快速答案:AD解析:第3部分:判断题,共66题,请判断题目是否正确。[判断题]174.在优化算法中,学习率并不是一成不变的A)正确B)错误答案:对解析:[判断题]175.Skip-Gram是通过上下文来预测中心词的A)正确B)错误答案:错解析:[判断题]176.BP算法和神经网络是不同的A)正确B)错误答案:对解析:[判断题]177.神经网络的网络结构一般分为:输入层,输出层,隐藏层A)正确B)错误答案:对解析:[判断题]178.LightGBM提出的主要原因就是为了解决GBDT在海量数据遇到的问题,让GBDT可以更好更快地用于工业实践。A)正确B)错误答案:对解析:[判断题]179.LSTM不能解决RNN中的梯度消失问题A)正确B)错误答案:错解析:[判断题]180.所谓句法学,就是研究句子结构成分之间的相互关系和组成句子序列的规则。()A)正确B)错误答案:对解析:[判断题]181.GPT并不是预训练模型A)正确B)错误答案:错解析:[判断题]182.数据平滑技术包括分箱回归递归聚类决策树A)正确B)错误答案:错解析:[判断题]183.神经网络中的隐藏层可以是一层,也可以是多层A)正确B)错误答案:对解析:[判断题]184.深度学习并不能为机器学习提取特征A)正确B)错误答案:错解析:[判断题]185.正向最大匹配算法和逆向最大匹配算法的本质目的相同,都是对文本进行分词A)正确B)错误答案:对解析:[判断题]186.文本是一类非常重要的结构化数据A)正确B)错误答案:错解析:[判断题]187.文本分类是指信息过滤系统对网站信息发布、公众信息公开申请和网站留言等内容实现提交时的自动过滤处理。A)正确B)错误答案:错解析:[判断题]188.神经网络结构中,多隐藏层比单隐藏层工程效果差A)正确B)错误答案:错解析:[判断题]189.全称化推理就是由合适公式W1和W1->W2产生合适公式W2的运算。A)正确B)错误答案:错解析:[判断题]190.CNN卷积核的尺寸是一个参数,可以自己指定A)正确B)错误答案:对解析:[判断题]191.谓词逻辑表示法中,客体是命题的主语A)正确B)错误答案:对解析:[判断题]192.深度学习的应用非常的广泛,例如:文本分类等任务A)正确B)错误答案:对解析:[判断题]193.朴素贝叶斯法是一种分类方法A)正确B)错误答案:对解析:[判断题]194.过多的隐层和神经元节点,只会带来更好的结果A)正确B)错误答案:错解析:[判断题]195.深度学习中做特征提取的效果会更好A)正确B)错误答案:对解析:[判断题]196.CNN可以做文字上的特征提取A)正确B)错误答案:对解析:[判断题]197.分布式表示的优点是考虑到了词之间存在的相似关系,减小了词向量的维度。对A)正确B)错误答案:对解析:[判断题]198.反向传播是指对神经网络沿着从输入层到输出层的顺序,依次计算并存储模型的中间变量(包括输出)A)正确B)错误答案:错解析:[判断题]199.XGBoost中枚举所有不同树结构的贪心法A)正确B)错误答案:对解析:[判断题]200.StanfordNLP中使用StanfordTokenizer进行中英文词性标注A)正确B)错误答案:错解析:[判断题]201.感知机和深度学习的神经网络是相同的A)正确B)错误答案:错解析:[判断题]202.TF-IDF和FastText都可以提取关键词A)正确B)错误答案:错解析:[判断题]203.深度学习是机器学习的一个子集,可以很方便的为机器学习提取特征A)正确B)错误答案:对解析:[判断题]204.句子的主客观分类能够有效提高文本情感分析的准确度。对A)正确B)错误答案:对解析:[判断题]205.DSSM是表示型的深度文本匹配模型A)正确B)错误答案:对解析:[判断题]206.命名实体识别是StanfordNLP的应用A)正确B)错误答案:对解析:[判断题]207.正则表达式也可以称为规则表达式。对A)正确B)错误答案:对解析:[判断题]208.GPT采用的特征提取器是双向的TransformerA)正确B)错误答案:错解析:[判断题]209.统计方法中具有代表性的几种方法:基于HMM模型的方法;互信息方法;Φ²统计方法A)正确B)错误答案:对解析:[判断题]210.SVM中当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机A)正确B)错误答案:对解析:[判断题]211.中文分词比英文分词容易。A)正确B)错误答案:错解析:[判断题]212.自动提取文本关键词不需要进行文本预处理。错A)正确B)错误答案:错解析:[判断题]213.中文文本分词主要分为基于词典的分词方法、基于统计的分词方法和基于规则的分词方法。对A)正确B)错误答案:对解析:[判断题]214.4.RNN网络能直接接收语言文本。错A)正确B)错误答案:错解析:[判断题]215.EM算法的应用一般有混合高斯、协同过滤、k-means。算法一定会收敛,但是可能会收敛到局部最优A)正确B)错误答案:对解析:[判断题]216.在迭代次数够多的情况下Glove会比Word2Vec效果好A)正确B)错误答案:对解析:[判断题]217.语料库按照语料选取的时间可分为历时语料库和共时语料库A)正确B)错误答案:对解析:[判断题]218.基于层次的聚类特点是较小的计算开销。然而这种技术不能更正错误的决定。A)正确B)错误答案:对解析:[判断题]219.非结构化数据。非结构化数据主要包括文本、图像、音频、视频数据A)正确B)错误答案:对解析:[判断题]220.基于主题的文本情感分析主要是通过挖掘用户评论所蕴含的主题,以及用户对这些主题的情感偏好,从而提高文本情感分析的性能。对A)正确B)错误答案:对解析:[判断题]221.词频是统计一个词在一篇文档中出现频次的统计量。对A)正确B)错误答案:对解析:[判断题]222.LDA模型是应用比较广泛的一种主题模型,包含词、主题2层结构。错A)正确B)错误答案:错解析:[判断题]223.反向传播(back-propagation)指的是计算神经网络参数梯度的方法。A)正确B)错误答案:对解析:[判断题]224.所谓图灵测试是一个典型思想实验。A)正确B)错误答案:对解析:[判断题]225.批量的大小选择的越小越好A)正确B)错误答案:错解析:[判断题]226.语料库按照语料中的语种可分为单语种语料库和多语种语料库A)正确B)错误答案:对解析:[判断题]227.文本校对系统的任务是检查文本中的语法、词汇和文字方面可能存在的错误,报告给用户并提出修改建议A)正确B)错误答案:对解析:[判断题]228.可以通过词嵌入转化成向量,判断两个词之间的距离A)正确B)错误答案:对解析:可以使用余弦相似度来确定通过词嵌入来表示的两个向量之间的距离。[判断题]229.逻辑回归LR,首先需要对特征离散化A)正确B)错误答案:对解析:[判断题]230.文本向量化是将文本表示成一系列能够表达文本语义的机读向量。对A)正确B)错误答案:对解析:[判断题]231.RNN是循环神经网络的简写A)正确B)错误答案:对解析:[判断题]232.可以把训练

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论