2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案_第1页
2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案_第2页
2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案_第3页
2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案_第4页
2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案_第5页
已阅读5页,还剩23页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年全省职业技能竞赛(人工智能训练师赛项)备赛试题库及答案一、单项选择题(每题1分,共30分。每题只有一个正确答案,请将正确选项字母填入括号内)1.在PyTorch中,若模型在GPU上训练,以下哪条语句可将张量x从CPU迁移到GPU?A.x.to("cuda:0")B.x.cuda()C.x.gpu()D.x.device("cuda")答案:A2.使用Adam优化器时,若beta1=0.9、beta2=0.999,则二阶矩估计的偏差修正项在t=1步时的值为A.0.999B.0.001C.0.002D.0.000答案:B3.在Transformer中,位置编码采用sin/cos函数的主要目的是A.增强非线性B.提供序列顺序信息C.降低参数量D.加速收敛答案:B4.在目标检测任务中,YOLOv5使用的损失函数中负责抑制负样本的部件是A.CIOUlossB.BCEobjlossC.BCEclslossD.MSEloss答案:B5.当使用混合精度训练时,GradScaler的作用为A.自动调整学习率B.防止梯度下溢C.压缩模型体积D.替换优化器答案:B6.在BERT预训练中,MaskedLM的掩码比例通常设置为A.5%B.10%C.15%D.30%答案:C7.在联邦学习场景下,FedAvg算法每轮通信中服务器端聚合方式为A.加权平均B.几何中值C.投票D.随机选择答案:A8.若某卷积层输入通道为64,输出通道为128,卷积核大小3×3,padding=1,则该层参数量为A.64×128×3×3B.64×128×3×3+128C.128×3×3D.64×128×9+128答案:B9.在深度强化学习中,DDPG算法属于A.基于策略B.基于价值C.ActorCriticD.模型预测控制答案:C10.当使用EarlyStopping时,若patience=5,则连续验证集指标不提升达到多少次后停止训练?A.3B.5C.6D.10答案:B11.在图像分割任务中,DiceLoss的取值范围是A.[0,1]B.[1,1]C.[0,+∞)D.(∞,+∞)答案:A12.若学习率调度器采用CosineAnnealingLR,则其周期结束后学习率将A.线性增加B.保持不变C.回到初始值D.降为0答案:C13.在模型蒸馏中,温度T越大,则softmax输出分布A.更尖锐B.更平滑C.不变D.变为均匀分布答案:B14.在NLP数据增强中,EasyDataAugmentation(EDA)不包括A.同义词替换B.随机插入C.随机交换D.回译答案:D15.当使用Kfold交叉验证时,若k=5,则每折用作训练的数据占比约为A.20%B.60%C.80%D.100%答案:C16.在PyTorchLightning中,用于定义训练步的函数名是A.training_stepB.train_stepC.forwardD.optimizer_step答案:A17.若BatchNorm层输入特征图尺寸为(B,C,H,W),则可学习参数γ的维度为A.BB.CC.HD.W答案:B18.在GPT系列模型中,采用的无监督目标为A.MLMB.NSPC.CLMD.SBO答案:C19.当使用混合专家(MoE)结构时,门控网络通常采用A.ReLUB.SoftmaxC.SigmoidD.Tanh答案:B20.在模型部署阶段,ONNX格式的主要优势是A.提高精度B.跨框架兼容C.增加参数量D.降低延迟答案:B21.在推荐系统深度模型DeepFM中,FM部分主要捕获A.高阶非线性B.低阶特征交互C.序列信息D.多模态答案:B22.若使用Horovod进行分布式训练,则梯度聚合采用A.AllReduceB.ParameterServerC.RingAllGatherD.Broadcast答案:A23.在图像增强库Albumentations中,实现随机旋转的变换是A.RotateB.ShiftScaleRotateC.RandomRotate90D.Affine答案:A24.当使用知识蒸馏时,教师模型预测结果称为A.hardlabelB.softtargetC.groundtruthD.anchor答案:B25.在语音识别中,CTC损失函数允许A.强制对齐B.单调对齐C.多对一映射D.一对多映射答案:C26.若使用TensorBoard记录标量,则对应API为A.add_scalarB.add_histogramC.add_imageD.add_graph答案:A27.在模型剪枝中,magnitudebasedpruning依据A.梯度大小B.权重绝对值C.激活值D.损失变化答案:B28.在GAN训练中,若判别器损失迅速趋于0,则生成器梯度将A.增大B.减小C.不变D.消失答案:D29.在PyTorch中,若需冻结某层参数,应设置A.requires_grad=FalseB.train=FalseC.eval()D.detach()答案:A30.当使用AUC作为二分类指标时,其值越接近1表示A.模型越差B.模型越好C.过拟合D.欠拟合答案:B二、多项选择题(每题2分,共20分。每题有两个或两个以上正确答案,请将所有正确选项字母填入括号内,漏选、错选均不得分)31.以下哪些操作可有效缓解模型过拟合?A.DropoutB.L2正则C.增加网络深度D.数据增强答案:ABD32.在Transformer自注意力机制中,scaleddotproductattention包含A.Q×K^TB.除以根号d_kC.SoftmaxD.与V相乘答案:ABCD33.以下属于无监督学习算法的是A.KmeansB.PCAC.DBSCAND.SVM答案:ABC34.在模型部署时,TensorRT可进行的优化包括A.层融合B.量化C.动态shapeD.内核自动调优答案:ABD35.以下哪些指标可用于评估多分类任务?A.AccuracyB.MacroF1C.Cohen’skappaD.MSE答案:ABC36.在深度强化学习中,以下属于onpolicy算法的是A.A2CB.PPOC.DQND.TRPO答案:ABD37.在NLP任务中,以下属于子词分词算法的是A.BPEB.WordPieceC.SentencePieceD.TFIDF答案:ABC38.以下哪些技术可用于模型压缩?A.知识蒸馏B.剪枝C.量化D.增加通道数答案:ABC39.在图像分类任务中,以下属于数据泄漏行为的是A.训练集与验证集重复样本B.先整体归一化再划分数据集C.使用测试集调参D.交叉验证答案:ABC40.在PyTorch中,以下哪些函数可实现梯度截断?A.torch.nn.utils.clip_grad_norm_B.torch.nn.utils.clip_grad_value_C.torch.grad.clipD.optimizer.zero_grad答案:AB三、填空题(每空2分,共20分。请在横线上填写最简答案)41.在ResNet中,恒等映射分支被称为__________连接。答案:残差42.若学习率初始为0.1,采用StepLR(step_size=30,gamma=0.1),则第60轮的学习率为__________。答案:0.00143.在PyTorch中,将模型保存为仅含权重的文件,应使用torch.save(model.state_dict(),"xxx.pt"),加载时应先__________模型结构。答案:实例化44.在目标检测评价指标mAP中,AP@0.5表示IoU阈值为__________时的平均精度。答案:0.545.在BERT中,最大序列长度若设为512,则位置编码矩阵的shape为(512,__________)。答案:76846.在联邦学习场景下,客户端本地训练1个epoch后上传的参数称为__________参数。答案:梯度/权重47.在GPT生成文本时,topp采样中p的取值范围是__________。答案:(0,1]48.在图像增强中,MixUp方法对两张图片按lambda混合,lambda服从__________分布采样。答案:Beta49.在深度学习中,若batchsize增大,则梯度噪声__________。答案:减小50.在模型蒸馏损失中,若alpha=0.7,则总损失=alpha×蒸馏损失+(1alpha)×__________损失。答案:hard四、判断题(每题1分,共10分。正确打“√”,错误打“×”)51.在BatchNorm层中,训练与推理阶段的均值方差来源相同。答案:×52.使用更大的卷积核必然导致感受野增大。答案:√53.在PyTorch中,tensor.detach()会切断反向传播。答案:√54.在GAN中,生成器与判别器同时达到纳什均衡是训练目标。答案:√55.在知识蒸馏中,温度T=1时软目标等价于硬标签。答案:×56.在RNN中,梯度爆炸比梯度消失更容易通过梯度裁剪缓解。答案:√57.在图像分类任务中,测试集可直接用于调参。答案:×58.在Transformer中,多头注意力可并行计算。答案:√59.使用ReLU激活函数一定不会出现梯度消失。答案:×60.在联邦学习中,服务器端无需任何训练数据即可完成聚合。答案:√五、简答题(共30分)61.简述梯度消失与梯度爆炸的产生原因,并各给出两种缓解方法。(6分)答案:原因:反向传播链式求导导致梯度连乘,若导数值大多小于1则梯度指数级减小(消失),若大于1则指数级增大(爆炸)。缓解消失:1.使用ReLU及其变体激活函数;2.采用残差连接。缓解爆炸:1.梯度裁剪;2.权重初始化如He、Xavier。62.说明BatchNorm在训练与推理阶段的计算差异,并解释movingaverage的作用。(6分)答案:训练阶段:对每个batch计算均值方差并做归一化,同时通过momentum更新runningmean/var。推理阶段:使用running统计量,不再依赖batch数据,确保单样本输出稳定。movingaverage平滑历史信息,减少batch波动,提升泛化。63.列举三种主流的数据增强方法,并指出其适用场景。(6分)答案:1.随机水平翻转:图像分类,提升水平不变性。2.CutMix:目标检测/分类,通过裁剪粘贴增加局部多样性。3.SpecAugment:语音识别,对频谱图进行时域掩蔽和频域掩蔽。64.解释联邦学习中的“非独立同分布(NonIID)”挑战,并给出两种解决方案。(6分)答案:NonIID指客户端数据分布差异大,导致本地模型更新方向不一致,全局模型发散。方案:1.FedProx,在本地目标加入近端项限制偏离;2.个性化联邦,如FedPer,为每个客户端保留个性化头部。65.简述知识蒸馏中“教师助理”机制的原理与作用。(6分)答案:当教师模型过大,直接蒸馏给学生困难,引入规模中等的助理模型,先由教师蒸馏给助理,再由助理蒸馏给学生,分段减小容量差距,提升学生收敛与精度。六、应用题(共40分)66.图像分类模型调优(10分)给定CIFAR10数据集,基线模型为ResNet18,初始训练结果:训练准确率94%,验证准确率78%。(1)指出两种可能原因导致上述差距。(2分)(2)给出三种改进策略,并说明预期效果。(6分)(3)若采用MixUp,请写出PyTorch关键代码片段(两行以内)。(2分)答案:(1)过拟合;数据分布差异。(2)1.数据增强(随机裁剪、水平翻转),提升泛化;2.加入Dropout=0.3,降低过拟合;3.使用余弦退火学习率,提高收敛稳定性。(3)inputs,targets_a,targets_b,lam=mixup_data(inputs,targets,alpha=0.2)。67.目标检测指标计算(10分)单张图片含3个真实框,模型输出5个预测框,置信度分别为[0.9,0.8,0.7,0.6,0.5],对应IoU=[0.85,0.75,0.45,0.4,0.3]。若IoU阈值=0.5,(1)计算TP、FP、FN。(3分)(2)计算Precision、Recall。(2分)(3)若第二框置信度降为0.4,重新计算Precision。(2分)(4)说明mAP@0.5:0.95的含义。(3分)答案:(1)TP=2,FP=3,FN=1。(2)P=2/5=0.4,R=2/3≈0.667。(3)排序后前2仍为TP,Precision=2/5=0.4。(4)从0.5到0.95步长0.05共10个IoU阈值下AP的平均值,综合评估定位精度。68.文本生成模型微调(10分)使用GPT2做中文古诗生成,数据集为5000首五言绝句,每首20字。(1)指出两种快速微调技术,并比较显存占用。(4分)(2)给出评估生成质量的两种自动指标。(2分)(3)若出现重复生成“春眠不觉晓”,请提出两种改进方法。(4分)答案:(1)LoRA:冻结原模型,插入低秩矩阵,显存≈原模型30%;AdaLoRA:动态秩,显存略高。(2)perplexity、BLEU。(3)1.提高temperature至1.2增加随机性;2.使用重复惩罚(repetition_penalty=1.2)。69.联邦学习系统实现(10分)10家医院协作训练肺炎筛查模型,数据量分别为[100,200,300,400,500,600,700,800,900,1000]张。(1)若采用FedAvg,写出服务器端聚合权重公式。(2分)(2)给出客户端本地训练伪代码(含3步)。(3分)(3)若第3号客户端dropout30%参与,求实际参与样本量。(2分)(4)指出两种防御投毒攻击的方法。(3分)答案:(1)w_global=sum(n_k/n_total×w_k)。(2)1.下载全局权重;2.本地训练epoch=5;3.上传权重与样本量。(3)400×0.7=280张。(4)1.异常检测,剔除更新范数异常大的客户端;2.使用Trimmedmean聚合,去除极端值。70.模型压缩与部署综合(10分)给定ResNet50分类模型,大小95MB,Top1准确率76.1%,需部署到边缘ARM芯片,内存限制30MB,延迟<200ms。(1)设计压缩方案,说明顺序与预期指标。(4分)(2)写出INT8量化校准的关键步骤(三步)。(3分)(3)若量化后精度下降至74%,给出两种补救措施。(3分)答案:(1)先通道剪枝50%→35MB,再知识蒸馏恢复精度至75.5%,最后INT8量化至9MB,延迟150ms。(2)1.收集代表性数据1000张;2.运行前向统计每层min/max;3.计算scale/zero_point并写入量化表。(3)1.采用QAT(量化感知训练)微调5epoch;2.混合精度:首层与末层保持FP16。七、编程题(共20分)71.自定义注意力模块(10分)请用PyTorch实现缩放点积注意力,要求:输入Q,K,V维度均为(batch,n_head,seq_len,d_k),输出维度不变,支持mask。答案:importtorchimporttorch.nnasnnimporttorch.nn.functionalasFclassScaledDotProductAttention(nn.Module):def__init__(self):super().__init__()defforward(self,Q,K,V,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论