版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2025年人工智能训练师(高级)职业技能鉴定参考题库(含答案)一、单项选择题(每题1分,共30分。每题只有一个正确答案,错选、多选、未选均不得分)1.在Transformer架构中,用于将输入序列映射为查询、键、值向量的线性变换矩阵通常称为A.位置编码矩阵B.注意力权重矩阵C.投影矩阵D.残差连接矩阵答案:C解析:投影矩阵(ProjectionMatrix)负责将输入向量分别映射为Q、K、V,是注意力机制的前提。2.当使用混合精度训练时,下列哪项操作最能抑制梯度下溢?A.动态损失缩放B.权重衰减C.梯度裁剪D.学习率预热答案:A解析:动态损失缩放通过放大损失值,使反向传播的梯度保持可用范围,防止FP16下溢。3.在联邦学习场景下,客户端上传的梯度被恶意替换为全零向量,服务器端最可靠的检测方法是A.余弦相似度聚类B.secureaggregationC.差分隐私噪声校验D.基于零知识证明的梯度承诺答案:D解析:零知识证明可在不泄露梯度明文的前提下验证客户端确实执行了训练,杜绝“全零”攻击。4.对于多任务学习,若任务A数据量远大于任务B,下列策略中最能缓解B任务欠拟合的是A.增大B任务损失权重并采用梯度归一化B.对A任务做下采样C.冻结共享层D.使用earlystopping答案:A解析:通过动态加权+梯度归一化,使B任务梯度量级与A任务可比,避免被淹没。5.在DiffusionModel采样阶段,若DDIM步数从1000减到50,理论上FID会A.线性下降B.先降后升C.单调上升D.保持不变答案:C解析:步数减少导致去噪过程近似误差增大,生成样本质量下降,FID单调变差。6.当使用LoRA微调7B参数模型时,若rank=16,注入矩阵参数量约为原模型的A.0.01%B.0.1%C.1%D.10%答案:B解析:LoRA参数量≈2×r×d,7B模型d=4096,r=16,占比约0.08%,最接近0.1%。7.在RLHF中,若奖励模型对“有害”样本给出正分,最可能的根因是A.PPOclip范围过大B.人类标注者意见分歧C.奖励模型过拟合D.KL惩罚系数过高答案:C解析:奖励模型在有害样本上误给正分,说明其泛化失败,需重新清洗或正则化。8.当使用DeepSpeedZeRO3时,下列哪项内存占用不会被分片?A.优化器状态B.梯度C.激活值D.模型参数答案:C解析:ZeRO3仅对参数、梯度、优化器状态做分片,激活仍由GPU全量保存。9.在语音合成中,若使用VITS模型,时长预测器输出的是A.音素级帧数B.梅尔帧级帧数C.字符级秒数D.采样点级长度答案:A解析:VITS的时长预测器以音素为单位,输出每个音素对应的帧数。10.当使用8bitAdamW时,下列哪项超参数必须调小?A.epsB.betas[0]C.weight_decayD.lr答案:A解析:8bit量化后梯度误差放大,需减小eps(如1e8→1e6)维持数值稳定。11.在VisionTransformer中,若patchsize由16×16改为8×8,则计算量约增加A.2倍B.4倍C.8倍D.16倍答案:B解析:序列长度变为4倍,注意力计算O(n²),整体FLOPs≈4倍。12.当使用DPO(DirectPreferenceOptimization)时,其损失函数与下列哪种方法最相似?A.交叉熵B.BradleyTerry模型C.InfoNCED.MSE答案:B解析:DPO直接优化BradleyTerry偏好概率,无需训练显式奖励模型。13.在StableDiffusion中,textencoder通常采用A.T5XXLB.CLIPViTLC.BERTBaseD.RoBERTaLarge答案:B解析:SD1.x/2.x使用CLIPViTL提取文本embedding。14.当使用FSDP(FullyShardedDataParallel)时,若设置`cpu_offload=True`,则前向计算时A.参数即时从CPU搬回GPUB.参数始终留在CPUC.参数以分块形式按需搬移D.参数复制到NVMe答案:C解析:FSDP采用参数分块+按需搬移,前向时仅将当前层块搬回GPU。15.在模型蒸馏中,若教师模型输出为softmax(T=3),学生模型T=1,则最小化KL散度时学生logits需要A.除以3B.乘以3C.加3D.不变答案:A解析:教师softmax已含T=3,学生需对齐温度,故学生logits应除以3再softmax。16.当使用FlashAttention时,其内存复杂度由O(n²)降至A.O(n)B.O(nlogn)C.O(n√n)D.O(1)答案:A解析:FlashAttention通过分块+重计算,将显存降为O(n)。17.在多模态对比学习中,若batchsize=8192,则InfoNCE分母中的负样本数为A.8191B.8192C.16384D.0答案:A解析:除自身正样本外,其余8191均为负样本。18.当使用QLoRA时,4bitNormalFloat量化对权重零点漂移的鲁棒性主要依赖A.双量化B.块级量化C.分位数量化D.动态量化答案:C解析:NormalFloat按权重分布的分位数划分区间,对漂移不敏感。19.在语音增强中,若使用MetricGAN,其判别器输入为A.干净语音STFTB.带噪语音STFTC.增强语音与干净语音的STFT拼接D.仅增强语音STFT答案:C解析:MetricGAN需要成对比较,输入为增强与干净的拼接幅值图。20.当使用Kohya训练LoRA时,若`network_alpha=32`,`network_dim=64`,则缩放系数为A.0.5B.1C.2D.32答案:A解析:缩放=alpha/dim=32/64=0.5,用于稳定训练。21.在文本生成评价中,若BLEU4=35,BERTScore=0.85,说明A.生成结果与参考句ngram重叠高且语义一致B.生成结果仅ngram重叠高C.生成结果仅语义一致D.生成结果与参考句无关答案:A解析:BLEU高表明ngram重叠,BERTScore高表明语义一致,两者互补。22.当使用PPO训练对话模型时,若KL惩罚系数β=0.1,则策略更新后A.策略与初始策略的KL≈0.1B.KL无约束C.KL≈0D.KL≈1答案:A解析:β=0.1表示每步允许KL增量约0.1,防止偏离参考模型过远。23.在图像分割中,若使用Mask2Former,其查询数量通常设置为A.10B.100C.1000D.10000答案:B解析:Mask2Former默认100个查询,覆盖大多数实例。24.当使用AdaFactor时,下列哪项描述正确?A.需要动量缓存B.不需要一阶动量C.需要二阶动量D.需要权重衰减缓存答案:B解析:AdaFactor通过分解二阶矩,省去一阶动量,节省内存。25.在语音克隆中,若使用YourTTS,说话人嵌入提取自A.梅尔频谱B.音素序列C.线性频谱D.wav2vec2.0答案:D解析:YourTTS使用预训练wav2vec2.0提取鲁棒说话人嵌入。26.当使用StableDiffusionXL时,条件缩放(cfgscale)=7.5,表示A.无条件得分权重为7.5B.有条件得分权重为7.5C.有条件与无条件得分差乘以7.5D.学习率为7.5答案:C解析:cfgscale=7.5即最终噪声估计=有条件+7.5×(有条件−无条件)。27.在训练大模型时,若使用cosinelrschedule,则最终lr为A.0B.初始lr的10%C.初始lr的1%D.初始lr的50%答案:B解析:cosinedecay通常降至初始10%保持。28.当使用Whisperlargev3时,其编码器层数为A.24B.32C.48D.64答案:B解析:largev3编码器32层,解码器32层。29.在文本分类中,若使用Longformer,其注意力模式为A.全局+滑动窗口B.仅全局C.仅局部D.随机稀疏答案:A解析:Longformer采用局部滑动窗口+少量全局token。30.当使用DeepspeedMoE8×7B时,实际激活参数量为A.7BB.56BC.14BD.1B答案:A解析:8×7B仅路由Top1专家,激活参数仍约7B。二、多项选择题(每题2分,共20分。每题有两个或以上正确答案,多选、少选、错选均不得分)31.下列哪些技术可有效降低Transformer解码延迟?A.KVcacheB.SpeculativeDecodingC.FlashAttentionD.增加层数答案:A、B、C解析:KVcache减少重复计算,Speculative并行验证,FlashAttention提速;增加层数反而增延迟。32.在RLHF中,可能导致奖励模型hack的行为包括A.重复生成高频无意义短语B.生成极长回答C.生成与问题无关的emojiD.生成简洁正确回答答案:A、B、C解析:奖励模型若对长度、重复、emoji误判正分,会被策略hack。33.当使用LoRA微调时,下列哪些层通常被注入?A.QKV投影B.FFN权重C.LayerNormD.输出头答案:A、B解析:LoRA主要作用于Attention与FFN的权重矩阵,LayerNorm与输出头一般不改。34.在StableDiffusion训练中使用xformersmemoryefficientattention的好处有A.降低显存B.提升速度C.提高FIDD.支持任意分辨率答案:A、B解析:memoryefficientattention通过分块降低显存并提速,对FID无直接影响,分辨率需额外插值。35.下列哪些指标可用于评估对话系统安全性?A.SafetyScoreB.GPT4JudgeC.BLEUD.ToxicityRate答案:A、B、D解析:BLEU仅衡量ngram重叠,不评估安全。36.当使用FSDP+CPUoffload时,可能遇到的瓶颈包括A.PCIe带宽B.CPU内存容量C.GPU计算D.磁盘I/O答案:A、B解析:参数搬移依赖PCIe,CPU内存需容纳分片;GPU计算反而空闲,磁盘非必须。37.在语音合成中,下列哪些损失函数可直接优化MOS?A.L1mellossB.DurIANGAN判别器损失C.MetricGAN回归损失D.F0L1loss答案:B、C解析:MetricGAN与DurIANGAN直接以MOS为导向,L1仅优化幅值。38.当使用DeepspeedZeroInfinity时,支持offload到NVMe的技术包括A.ZeROOffloadB.ZeROInfinityC.ZeRO3D.ZeRO2答案:A、B解析:ZeroInfinity扩展了Offload,支持NVMe;Zero2仅GPU间分片。39.在文本生成中,重复惩罚(repetitionpenalty)可能带来的副作用有A.生成不连贯B.高频词被过度抑制C.生成速度下降D.模型崩溃答案:A、B解析:重复惩罚过高会抑制合理高频词,导致不连贯;与速度无关。40.当使用CLIPViTL/14@336px时,相比224px,其变化包括A.位置编码插值B.计算量增加C.零样本分类精度提升D.参数量增加答案:A、B、C解析:336px需插值位置编码,计算量↑,精度↑;参数量不变。三、判断题(每题1分,共10分。正确请填“√”,错误填“×”)41.使用FlashAttention时,必须将序列长度对齐到128的倍数。答案:×解析:FlashAttention支持任意长度,对齐仅为效率考虑。42.在QLoRA中,4bit量化权重可在反向传播时直接计算梯度。答案:×解析:反向时需反量化至16bit再计算梯度。43.当使用PPO时,若clipratio=0.2,则策略可一次性将动作概率比改变至1.5倍。答案:√解析:1.5倍在(1−0.2,1+0.2)之外会被clip,但可一次性到达边界。44.StableDiffusion的VAEencoder在训练阶段采用KL正则化。答案:√解析:VAE通过KLloss约束latent分布。45.在Whisper解码中,temperature=0等价于贪心解码。答案:√解析:temperature→0时采样退化为argmax。46.使用AdaFactor时,学习率必须随batchsize线性缩放。答案:×解析:AdaFactor对学习率缩放不敏感,无需线性规则。47.在MoE模型中,若Top2路由,则激活参数一定为Top1的两倍。答案:×解析:若两专家重叠,实际激活参数量≤2倍。48.当使用DeepspeedMoE时,专家并行度可与数据并行度互质。答案:√解析:专家并行与数据并行正交,可互质。49.在VisionTransformer中,去掉clstoken后必须采用全局平均池化。答案:√解析:无clstoken需GAP聚合全局信息。50.使用Kohya训练LoRA时,若`scale_weight_norms=True`,则会对权重矩阵做谱归一化。答案:√解析:该选项启用谱范数约束,防止梯度爆炸。四、填空题(每空2分,共20分)51.在Transformer中,若隐藏维度d=4096,注意力头数h=32,则每个头的维度为______。答案:128解析:4096÷32=128。52.若使用DDPM,T=1000,β线性schedule从0.0001到0.02,则β₅₀₀=______。答案:0.01005解析:线性插值:0.0001+(500/1000)×(0.02−0.0001)=0.01005。53.当使用GPT3175B模型,若序列长度=2048,则KVcache显存约为______GB(fp16)。答案:13.5解析:2×层数×头数×头维×序列×2Byte=2×96×96×128×2048×2≈13.5GB。54.在StableDiffusionXL中,条件文本向量维度为______。答案:2048解析:SDXL使用OpenCLIPViTbigG,文本embedding维度2048。55.若使用Whisperlargev3,帧移10ms,则1分钟音频编码后帧数为______。答案:6000解析:60s÷0.01s=6000。56.当使用LoRA,rank=16,注入AttentionQKV且d=4096,则新增参数量为______万。答案:3146解析:2×r×d×3=2×16×4096×3=393216≈39万,但仅激活矩阵,实际可训练3146万参数(含正反两矩阵)。57.在DeepspeedZeRO3中,若GPU数=64,模型参数量=175B,则每张GPU存储参数约______GB(fp16)。答案:0.68解析:175×2÷64≈5.47GB,但ZeRO3分片后每张GPU仅存1/64,即≈0.68GB。58.若使用xformersmemoryefficientattention,序列长度=8192,d=64,则理论显存节省倍数为_____
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026福建师范大学实验幼儿园招聘劳务派遣人员1人笔试参考题库及答案解析
- 2025年资产评估相关知识真题及答案解析
- 制度培训视频制作方案
- 街舞培训班安全管理制度
- 事务所四大内部培训制度
- 人力培训考勤制度
- 培训学生结业制度
- 绿化养护员工培训制度
- 艺术培训请假补课制度
- 绿化安全生产培训制度
- 以人工智能赋能新质生产力发展
- 固井质量监督制度
- 2025年中考英语复习必背1600课标词汇(30天记背)
- 资产管理部2025年工作总结与2025年工作计划
- 公建工程交付指南(第四册)
- 2025年贵州省法院书记员招聘笔试题库附答案
- 过氧化氢气体低温等离子灭菌测试题(附答案)
- 溶出度概况及注意事项很全面的一套资料2讲课文档
- 下腔静脉滤器置入术的护理查房
- 部编版小学语文六年级下册课后习题参考答案
- 冬季心脑血管疾病预防
评论
0/150
提交评论