版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2025年自然语言处理培训试卷含答案一、单项选择题(每题2分,共20分)1.在Transformer架构中,用于捕捉序列位置信息的核心组件是A.词嵌入矩阵B.注意力权重C.正弦位置编码D.LayerNorm答案:C解析:正弦位置编码通过不同频率的正弦/余弦函数为每个位置生成唯一向量,使模型感知token顺序,且具备外推更长序列的能力。2.下列哪项技术最直接缓解了BERT预训练时的“预训练微调不一致”问题A.WholeWordMaskingB.NextSentencePredictionC.SpanBERT的span边界目标D.RoBERTa的动态掩码答案:A解析:WholeWordMasking强制完整词汇被掩码,避免子词片段掩码带来的训练与微调阶段分词差异,显著降低不一致性。3.当使用LoRA进行大模型参数高效微调时,可训练参数通常注入在A.Embedding层B.注意力矩阵的旁路低秩分解C.LayerNorm权重D.输出softmax层答案:B解析:LoRA将权重更新表示为低秩矩阵乘积,仅训练这两个小矩阵,冻结原线性层,实现参数高效微调。4.在文本风格迁移任务中,若采用“无平行语料”的解耦方法,通常需要额外引入的约束是A.对抗判别器B.回译损失C.内容保持正则项D.温度缩放答案:C解析:无平行语料时,需显式约束内容编码器输出与风格无关,常用内容重构损失或互信息最小化保持语义不变。5.下列关于Falcon模型描述正确的是A.采用Alibi位置编码B.使用RMSNorm前置C.训练语料完全开源可商用D.在1Ttoken上训练了MoE架构答案:B解析:Falcon在注意力前使用RMSNorm,提升训练稳定性;其语料RefinedWeb经清洗但未完全开源;标准版为稠密模型。6.在指令微调阶段,为缓解“谄媚”(sycophancy)现象,最有效的数据策略是A.增加拒绝采样样本B.引入反驳性(counterargued)偏好对C.提高学习率D.使用RLHF而非SFT答案:B解析:反驳性偏好对让模型学习“即使用户观点偏激,也应给出客观回答”,直接抑制谄媚倾向。7.关于MMLU基准,下列说法错误的是A.涵盖57个学科B.采用5shot评估C.题目均为四选一D.中文测评需人工翻译后准确率会提升答案:D解析:人工翻译可能引入偏差,通常导致准确率下降而非提升,因部分文化背景题翻译后歧义增加。8.在DiffusionLM中,控制生成文本属性的关键步骤是A.调节前向噪声方差B.在反向去噪阶段引入分类器梯度C.修改词嵌入范数D.增加采样步数答案:B解析:通过分类器引导(classifierguideddiffusion)将属性判别器梯度注入反向过程,实现细粒度控制。9.当使用INT8权重量化LLM时,出现显著perplexity上升,最可能的原因是A.离群通道未做分组量化B.使用了对称量化C.量化粒度为token级D.校准数据集过大答案:A解析:离群通道数值分布极端,直接线性量化导致巨大精度损失;分组量化(groupwise)可隔离离群通道。10.在检索增强生成(RAG)中,解决“LostintheMiddle”现象的最新思路是A.增加chunk大小B.使用递归SummarizethenRetrieveC.在训练时随机打乱文档顺序D.引入positionalinterpolation答案:B解析:递归SummarizethenRetrieve将中间结果压缩再检索,避免长上下文中间信息被稀释,缓解LostintheMiddle。二、多项选择题(每题3分,共15分)11.以下哪些方法可直接用于中文文本的繁简转换且保持语义一致A.OpenCC的“台湾标准”配置B.基于T5的繁简平行微调C.简单Unicode归一化D.基于BERT的掩码预测纠错答案:A、B、D解析:C仅做码位映射,无法处理“發/髮”等一对多;OpenCC内置词典与转换规则;T5微调可学上下文转换;BERT纠错可后验校准。12.关于RLHF中的PPO算法,下列超参数对训练稳定性影响显著的有A.KL惩罚系数βB.裁剪范围εC.优势估计λD.批次大小答案:A、B、C、D解析:β控制与参考策略偏离;ε防止策略突变;λ影响优势方差;批次大小小会导致估计噪声大,均显著影响稳定。13.在构建代码生成模型时,为提升长函数补全准确率,可采取A.FIM(FillintheMiddle)目标B.基于抽象语法树(AST)的片段采样C.使用BPE而非SentencePieceD.引入仓库级跨文件上下文答案:A、B、D解析:FIM让模型学会中间空缺补全;AST采样保持语法合法;仓库级上下文提供跨文件API;BPE与SP本质类似,非关键。14.以下哪些指标可用于评估大模型的事实性(factuality)A.FactScoreB.BLEURTC.基于实体链接的F1D.TrueTeacher的NLI评分答案:A、C、D解析:FactScore将生成拆分为原子事实再人工/模型验证;实体链接F1衡量可验证实体准确率;TrueTeacher用NLI判断声明真伪;BLEURt侧重语义相似度。15.在联邦学习场景下微调百亿级模型,可采用的技术包括A.参数高效微调+SecureAggregationB.差分隐私+梯度压缩C.全参数微调+同态加密D.局部低秩适应+知识蒸馏答案:A、B、D解析:全参数微调加同态加密计算开销极高,目前不可行;其余组合兼顾效率与隐私。三、判断题(每题2分,共10分)16.使用GroupQueryAttention可以显著减少KV缓存显存占用。答案:正确解析:GQA让多个query头共享同一组key/value头,减少缓存量约head_num倍,保持性能基本不降。17.在DPO(DirectPreferenceOptimization)中仍需训练奖励模型。答案:错误解析:DPO直接把偏好对转化为最大似然目标,无需显式奖励模型,简化RLHF流程。18.对于中文拼写纠错任务,基于混淆集构造的候选召回比纯BPE子词召回覆盖度低。答案:错误混淆集含音近/形近字,覆盖常见错误,BPE子词可能切分错误边界,覆盖度反而更低。19.将LayerNorm替换为RMSNorm会显著改变Transformer的表达能力,导致其在下游任务上必然下降。答案:错误大量实验表明RMSNorm在多数任务上持平或略升,且训练更稳定。20.使用YaRN(YetanotherRoPEextensioN)可以在不继续训练的情况下把LLaMA24K上下文扩展到128K。答案:错误YaRN需少量继续训练(约0.1%原数据)调整缩放因子,纯零样本外推性能会崩。四、填空题(每空2分,共20分)21.在Transformer注意力机制中,点积结果除以√d_k的目的是________。答案:缓解梯度消失解析:防止QK^T值过大进入softmax饱和区,保持梯度稳定。22.BERT的掩码语言模型任务中,被掩码的token有80%概率用[MASK]、10%随机词、10%________。答案:保持原词解析:保持原词可缓解预训练与微调阶段[MASK]符号不匹配。23.指令微调常用的自回归损失函数交叉熵中,标签平滑参数设为0.1时,正确类别的目标概率变为________。答案:0.9解析:剩余0.1均匀分给词汇表其他词,抑制过拟合。24.在SentencePiece中,把字符级与________级之间的子词作为基本单元,可兼顾未知词与压缩率。答案:词解析:SP采用字符+词混合切分,自动平衡词表大小与OOV。25.使用DeepSpeedZeRO3时,优化器状态、梯度与________被划分到不同GPU,实现显存线性扩展。答案:模型参数解析:ZeRO3对三者全部切片,每卡仅保存1/N,支持千亿模型。26.在检索器中,采用ANCE(ApproximateNearestneighborNegativeContrastiveEstimation)的关键是维护一个________队列。答案:异步刷新解析:异步刷新负样本队列,保证对比学习难度,避免模型“看透”负例。27.为评估模型安全性,红队攻击常使用________树系统化枚举潜在有害prompt。答案:语义扩充解析:通过同义改写、模板递归生成,系统覆盖风险场景。28.在MoE路由中,引入loadbalancingloss的系数通常记为________。答案:α解析:α控制专家使用均匀度,防止路由崩塌。29.对于中文古诗词生成,常使用________韵律格式作为硬约束,采用动态规划解码。答案:平仄解析:平仄模式可转有限状态机,DP保证格律合规。30.在RLHF中,若人类偏好标注采用Elo评分,则两模型对战胜率p与评分差Δ的关系公式为________。答案:1/(1+10^(Δ/400))解析:标准Elo公式,将胜率映射到对数优势。五、简答题(每题10分,共30分)31.请阐述“位置插值”(PositionInterpolation,PI)将RoPE扩展到更长上下文的核心思想,并给出至少两项实验现象说明其有效性。答案与解析:核心思想:对原始RoPE的绝对位置m乘以缩放因子s<1,把长序列位置“压缩”到训练区间[0,L_train)内,再微调少量步数让模型适应新分布。实验现象:1.LLaMA27B4K→8K,PI微调200Btoken后,Pass@1在SCROLLS基准提升18.3%,而直接外推下降42%。2.可视化注意力熵显示,PI微调后低层注意力熵分布与原始4K模型接近,说明未破坏原有局部模式;直接外推熵显著升高,出现退化。32.对比“知识编辑”中Finetune、ROME、GRACE三种方法在定位、训练数据、副作用三方面的差异。答案与解析:定位:Finetune不定位,全参数更新;ROME用因果追踪定位前馈层MLP;GRACE用键值记忆定位注意力。训练数据:Finetune需数千反事实样本;ROME仅需一条目标事实+原句;GRACE构建键值记忆对,无需反事实。副作用:Finetune易过拟合,导致无关事实下降;ROME局部编辑,邻近事实波动<1%;GRACE插入记忆,不影响原参数,但增加推理延迟。33.描述如何构建一个“中文医疗对话事实性评估”pipeline,要求包含数据构造、自动指标、人工复核、错误归因四步,并给出每步关键技术。答案与解析:数据构造:从医学指南抽取<症状,检查,诊断,治疗>四元组,用GPT4生成患者提问,医生校对,得1万轮QA。自动指标:实体链接至SNOMEDCT,计算疾病/药物实体F1;用MedNLI判断陈述与指南一致性得entail%。人工复核:3名主治医生盲审,采用Delphi法达成一致,标注“事实错误/信息缺失/过度推断”。错误归因:将错误样本输入诊断分类器,归因于“知识过期/幻觉/上下文缺失/数值错误”,建立热力图指导后续微调。六、综合应用题(共25分)34.某公司拟在边缘设备(8GB显存)部署70B参数的LLM用于实时客服,要求首token延迟<500ms,吞吐量>5req/s。请给出完整落地方案,含模型压缩、推理框架、服务架构、评估结果,并计算显存占用与带宽需求。答案与解析:1.模型压缩:采用GPTQINT4权重量化,groupsize128,压缩率≈3.5倍,70B→20GB。使用LoRA合并,秩r=64,合并后无额外推理开销。2.推理框架:选择ExLlamaV2,支持INT4CUDAkernel,激活用16BF,KV缓存分页管理。3.服务架构:4块RTX407012GB通过NVLink2路环形,总显存48GB,采用张量并行度=4。部署NVIDIATriton+FasterTransformerbackend,动态批处理最大batch=8。4.显存计算:权重20GB÷4=5GB/卡KV缓存:平均输入2ktoken,输出256
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026江苏南京市建邺区教育局所属学校招聘教师27人考试参考题库及答案解析
- 2026榆林子洲县裴家湾中心卫生院招聘考试备考题库及答案解析
- 中国疾病预防控制中心教育培训处(研究生院)招聘合同制1人考试备考题库及答案解析
- 2026华中师范大学幼儿园(非事业编B类岗)招聘1人(湖北)考试参考题库及答案解析
- 吉安市市直机关事业单位编外工作人员招聘补充中招聘人数核减考试参考试题及答案解析
- 2026中国中化审计中心招聘考试备考题库及答案解析
- 2026云南玉溪鸿康医院有限责任公司见习人员招募20人考试备考题库及答案解析
- 2026广西东兴国家重点开发开放试验区管理委员会招聘考试备考题库及答案解析
- 2026年郑州市法律援助基金会招聘工作人员考试备考题库及答案解析
- 2026年湖南师大附中双语实验学校(南校区)教师招聘备考题库及一套完整答案详解
- 数据中心智能化系统设备部署方案
- 2025年国家开放大学《社会研究方法》期末考试复习试题及答案解析
- 专项突破:平面直角坐标系中面积、规律、新定义、几何综合问题(解析版)
- 2025年铍矿行业分析报告及未来发展趋势预测
- 2025年卫健委编制考试题及答案
- 涉爆粉尘专项知识培训课件
- 环保企业污水处理标准操作规程
- 化学剥脱美容技术
- 医疗机构传染病隔离区域设置与管理要求
- 高危孕妇五色管理课件
- 2025年数学广东一模试卷及答案
评论
0/150
提交评论