NLP 技术工程师考试试卷及答案_第1页
NLP 技术工程师考试试卷及答案_第2页
NLP 技术工程师考试试卷及答案_第3页
NLP 技术工程师考试试卷及答案_第4页
NLP 技术工程师考试试卷及答案_第5页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

NLP技术工程师考试试卷及答案一、填空题(每题1分,共10分)1.中文分词中常用的统计方法有______和HMM等。2.Word2Vec的两种训练模型是CBOW和______。3.BERT是基于______预训练的双向Transformer模型。4.文本表示方法除词袋模型外,还有______等。5.NER任务识别文本中的人名、地点、______等实体。6.注意力机制核心公式:Attention(Q,K,V)=softmax(QKᵀ/√dₖ)______。7.GPT是基于______的自回归模型。8.文本分类评价指标有准确率、召回率和______。9.jieba的三种分词模式:精确、全模式和______。10.Transformer编码器由多个______层堆叠而成。二、单项选择题(每题2分,共20分)1.以下不是预训练语言模型的是?A.BERTB.GPTC.LSTMD.RoBERTa2.CBOW模型的特点是?A.上下文预测中心词B.中心词预测上下文C.双向预测D.无监督3.NER标注体系不包括?A.BIOB.BIOESC.IOBD.BERT4.多头注意力的基础是?A.自注意力B.交叉注意力C.全局注意力D.局部注意力5.GPT采用的是?A.掩码语言模型B.自回归模型C.双向模型D.序列到序列6.词向量的维度通常是?A.100B.文本长度C.词汇表大小D.句子数量7.jieba精确模式的特点是?A.无冗余分词B.全部分词C.适合搜索D.无歧义8.引入相对位置编码的模型是?A.BERTB.RoBERTaC.XLNetD.GPT-29.正负样本不平衡时常用的评价指标是?A.准确率B.召回率C.F1值D.精确率10.NLP基础任务是?A.图像识别B.分词C.语音合成D.目标检测三、多项选择题(每题2分,共20分,多选少选不得分)1.属于预训练语言模型的有?A.BERTB.GPT-3C.LSTMD.XLNet2.Word2Vec训练方式包括?A.CBOWB.Skip-gramC.MLMD.NSP3.NER标注类型包括?A.人名B.地点C.机构D.数字4.Transformer组成部分包括?A.编码器B.解码器C.自注意力D.前馈网络5.文本表示方法有?A.词袋模型B.TF-IDFC.Word2VecD.BERTEmbedding6.注意力机制类型包括?A.自注意力B.交叉注意力C.多头注意力D.全局注意力7.属于文本分类任务的是?A.情感分析B.新闻分类C.NERD.问答系统8.BERT预训练任务包括?A.MLMB.NSPC.掩码实体预测D.自回归9.中文分词工具包括?A.jiebaB.THULACC.LTPD.spaCy10.属于序列到序列模型的是?A.TransformerB.Seq2Seq(RNN-based)C.GPTD.BERT四、判断题(每题2分,共20分,对√错×)1.Word2Vec是无监督词向量模型。2.BERT是单向Transformer模型。3.NER属于序列标注任务。4.注意力中dₖ是Q和K的维度。5.GPT只能生成从左到右的文本。6.TF-IDF是有监督文本表示方法。7.jieba全模式输出所有可能分词。8.XLNet引入置换语言模型。9.准确率只适合样本平衡的分类任务。10.Transformer解码器包含自注意力和交叉注意力。五、简答题(每题5分,共20分,200字左右)1.简述Word2Vec的核心思想。2.简述BERT的预训练任务。3.简述NER任务的流程。4.简述Transformer的自注意力机制。六、讨论题(每题5分,共10分,200字左右)1.对比BERT和GPT的核心差异。2.如何解决中文分词中的歧义问题?---参考答案一、填空题1.CRF2.Skip-gram3.掩码语言模型(MLM)4.TF-IDF5.机构6.V7.自回归语言模型8.F1值9.搜索引擎模式10.自注意力+前馈神经网络二、单项选择题1.C2.A3.D4.A5.B6.A7.A8.C9.C10.B三、多项选择题1.ABD2.AB3.ABCD4.ABCD5.ABCD6.ABCD7.AB8.AB9.ABC10.AB四、判断题1.√2.×3.√4.√5.√6.×7.√8.√9.√10.√五、简答题1.Word2Vec是无监督词向量模型,将词映射为低维稠密向量,使语义相似词向量距离近。含CBOW(上下文预测中心词)和Skip-gram(中心词预测上下文)两种模型,通过负采样优化训练,解决传统词袋的稀疏性问题,支持后续NLP任务。2.BERT预训练含两个任务:①掩码语言模型(MLM):随机替换15%词为[MASK],预测掩码词,学习双向上下文;②下一句预测(NSP):判断两个句子是否为上下句,学习句间逻辑。这两个任务让BERT捕获丰富语义。3.NER流程:①预处理:分词+标注(如BIO体系);②训练:用BiLSTM-CRF/BERT+CRF等模型,输入词向量输出实体标签;③推理评估:预测新文本实体,用F1值等评价。核心是识别特定意义实体,是信息抽取基础。4.自注意力让模型处理每个词时关注序列所有词:①计算Q(查询)、K(键)、V(值);②Q与K点积相似度,除以√dₖ避免梯度消失;③softmax得权重;④权重乘V得注意力输出。多头注意力并行多组Q/K/V,增强表达能力。六、讨论题1.BERT和GPT差异:①架构:BERT双向Transformer(编码器),GPT单向Transformer(解码器);②预训练:BERT用MLM(双向掩码)+NSP,GPT用自回归(左→右预测);③适用任务:BERT适合双向依赖(NER、情感分析),GPT适合生成(文本生成、对话);④局限:BERT生成需掩码,GPT无法利用未来信息。2.中文分词歧义解决:①统计方法:C

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论