版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026技能考试人工智能训练师三级题库练习试卷附答案一、单项选择题(每题1分,共40分)1.在PyTorch中,若需冻结某一层参数,应执行的操作是A.layer.requires_grad=FalseB.layer.trainable=FalseC.layer.eval()D.layer.freeze()答案:A解析:requires_grad属性直接控制张量是否参与梯度计算,设为False即可冻结。2.使用交叉熵损失时,模型最后一层通常不加激活函数,其原因是A.交叉熵内部已包含SoftmaxB.会增大计算量C.会导致梯度爆炸D.会削弱泛化能力答案:A解析:PyTorch的CrossEntropyLoss将LogSoftmax与NLLLoss合并,无需手动加Softmax。3.在Transformer中,位置编码使用正弦余弦函数的主要优点是A.可外推到更长序列B.计算速度更快C.参数更少D.可学习答案:A解析:正余弦函数形式的位置编码无额外参数,且可外推到训练时未见过的更长序列。4.若学习率过大,训练损失震荡剧烈,此时最优先尝试的修正策略是A.增加批大小B.减小学习率C.增加网络深度D.加入Dropout答案:B解析:学习率过大导致更新步长过大,直接减小学习率即可缓解震荡。5.在目标检测任务中,IoU阈值从0.5提升到0.75,最可能的结果是A.召回率上升,精确率下降B.召回率下降,精确率上升C.两者均上升D.两者均下降答案:B解析:IoU阈值提高,匹配条件变严,检出框减少,召回下降,但保留框更准,精确率上升。6.使用混合精度训练时,损失缩放(lossscaling)主要解决A.下溢问题B.上溢问题C.权重衰减D.梯度爆炸答案:A解析:float16表示范围小,梯度易下溢,乘以系数放大后再缩放可防止下溢。7.在联邦学习场景下,客户端上传的参数通常是A.原始训练数据B.模型权重梯度C.完整权重D.验证集结果答案:B解析:为保护隐私,仅上传梯度或权重差,不上传原始数据。8.若数据集中90%为负样本,宜采用的损失权重策略是A.正负样本权重相同B.正样本权重调高C.负样本权重调高D.去掉负样本答案:B解析:类别不平衡时,给少数类更高权重可缓解模型偏向多数类。9.在深度强化学习中,经验回放机制主要解决A.样本相关性与非平稳分布B.探索不足C.奖励稀疏D.环境随机性答案:A解析:经验回放打破相邻样本间相关性,使训练分布更平稳。10.使用早停(earlystopping)时,监控指标一般选A.训练损失B.验证损失C.训练准确率D.参数量答案:B解析:验证损失反映泛化能力,上升即停可防止过拟合。11.在卷积神经网络中,深度可分离卷积(DepthwiseSeparable)相对标准卷积A.参数量减少,计算量减少B.参数量增加,计算量减少C.参数量减少,计算量增加D.两者均不变答案:A解析:先逐通道卷积再逐点卷积,大幅削减参数量与浮点运算。12.若模型在训练集准确率99%,验证集70%,测试集69%,则最可能的问题是A.欠拟合B.过拟合C.数据泄露D.标签噪声答案:B解析:训练远高于验证,表明模型记忆训练数据,泛化差。13.在BERT微调中,若下游任务句子对长度差异大,最佳填充策略是A.固定最大长度截断B.动态填充到批内最长C.全部填充到512D.随机长度答案:B解析:动态填充减少无效计算,同时保持批内一致。14.使用学习率预热(warmup)的主要目的是A.加速收敛B.防止初始阶段不稳定C.减小最终损失D.提高泛化答案:B解析:初始参数随机,大学习率易震荡,预热可平稳起步。15.在生成对抗网络中,若判别器损失快速趋于零,则生成器A.梯度消失,难以更新B.梯度爆炸C.模式崩塌D.收敛完成答案:A解析:判别器过强,生成器梯度信号消失,无法有效训练。16.若将ReLU替换为LeakyReLU,对梯度流的影响是A.负区间梯度为零B.负区间梯度非零C.正区间梯度为零D.全部梯度为零答案:B解析:LeakyReLU给负区间小斜率,缓解神经元死亡。17.在模型蒸馏中,学生模型学习教师模型A.输出层硬标签B.输出层软概率C.参数矩阵D.损失值答案:B解析:软概率含更多类别间关系信息,利于学生模型学习。18.使用K-fold交叉验证的主要目的是A.增加数据B.降低方差,提高评估稳定性C.加速训练D.减少参数量答案:B解析:多次训练取平均,降低评估方差。19.在图像分割任务中,DiceLoss相对交叉熵的优势是A.对类别不平衡不敏感B.计算更快C.需更多内存D.需更多数据答案:A解析:Dice系数基于重叠度,对前景背景比例不敏感。20.若模型权重呈对称分布且均值接近零,则最可能采用的初始化是A.XavierB.全零C.正态分布N(1,0.1)D.均匀分布U(5,10)答案:A解析:Xavier保持方差一致,使权重均值为零、对称。21.在LSTM中,遗忘门输出接近1时,表示A.丢弃全部信息B.保留全部信息C.重置隐藏状态D.更新细胞状态答案:B解析:遗忘门1表示完全保留上一时刻细胞信息。22.若批归一化(BatchNorm)放在卷积层之后、激活之前,其好处是A.平滑激活输入分布,利于收敛B.增加非线性C.减少参数D.提高稀疏性答案:A解析:归一化使激活输入处于非饱和区,梯度更稳定。23.在模型部署阶段,TensorRT对网络进行INT8量化的主要目的是A.提高精度B.减少存储与延迟C.增加动态范围D.支持更多层答案:B解析:INT8降低位宽,加速推理并减少内存占用。24.若使用余弦退火学习率调度,其曲线形状为A.线性下降B.阶梯下降C.余弦下降D.指数上升答案:C解析:余弦退火按余弦函数从初始值降到最小值。25.在数据增强中,MixUp方法通过A.随机裁剪B.线性插值样本与标签C.颜色抖动D.旋转答案:B解析:MixUp将两张图及标签按λ混合,生成新样本。26.若模型参数量50M,单精度浮点,则存储大小约为A.50MBB.100MBC.200MBD.400MB答案:C解析:50M×4Byte=200MB。27.在分布式训练采用DataParallel时,梯度同步发生在A.前向传播后B.反向传播后C.参数更新后D.数据加载后答案:B解析:各卡反向完成后同步梯度,再更新参数。28.若使用F1-score作为评估指标,其计算公式为A.B.C.pD.答案:B解析:F1为精确率与召回率的调和平均。29.在文本生成任务中,重复惩罚(repetitionpenalty)通过A.降低已生成词概率B.提高已生成词概率C.增加长度惩罚D.减少词汇表答案:A解析:降低已出现词概率,减少重复。30.若使用梯度累积模拟大批次,累积步数4,则有效批大小为A.原批大小/4B.原批大小C.原批大小×4D.原批大小平方答案:C解析:梯度累积将多步梯度相加,等效批大小乘以步数。31.在图像分类中,CutMix增强通过A.随机擦除B.裁剪并粘贴到另一图C.旋转D.颜色反转答案:B解析:CutMix将一块区域用另一图对应区域替换,标签按面积比例混合。32.若模型出现内部协变量偏移(InternalCovariateShift),可采用的缓解方法是A.DropoutB.BatchNormC.增加学习率D.减少层数答案:B解析:BatchNorm标准化层输入,缓解内部协变量偏移。33.在强化学习中,策略梯度定理给出的梯度为A.JB.JC.JD.J答案:A解析:策略梯度定理核心公式,含对数策略梯度与回报乘积。34.若使用AUC评估二分类器,随机猜测的期望值是A.0B.0.5C.1D.无穷答案:B解析:随机分类器正负样本排序随机,AUC期望0.5。35.在模型压缩中,知识蒸馏的温度参数T增大时,软标签分布A.更尖锐B.更平滑C.不变D.趋于零答案:B解析:T增大,Softmax输出更平滑,类别间差异缩小。36.若使用Adam优化器,其bias修正主要解决A.初始步长过大B.初始步长为零C.内存不足D.过拟合答案:A解析:初始一阶二阶矩为零,修正后避免初始步长偏差。37.在目标检测YOLOv5中,anchor-free分支通过A.预设锚框B.直接预测中心点与宽高C.只预测类别D.只预测置信度答案:B解析:anchor-free直接回归框坐标,无需预设锚框。38.若模型训练损失突然变为NaN,首要检查A.学习率是否过大B.批大小是否过大C.是否使用DropoutD.是否使用GPU答案:A解析:学习率过大导致梯度爆炸,损失NaN。39.在GPT自回归生成中,采样温度T→0时,输出文本A.更随机B.更确定C.更长D.更短答案:B解析:T→0时Softmax趋one-hot,采样最确定。40.若使用FocalLoss,其γ增大时,对易分类样本的权重A.增大B.减小C.不变D.先增后减答案:B解析:γ增大,易样本权重指数下降,聚焦难样本。二、多项选择题(每题2分,共20分)41.以下哪些方法可缓解模型过拟合A.L2正则B.DropoutC.早停D.增加网络深度答案:ABC解析:增加深度可能加剧过拟合,其余均可缓解。42.关于Transformer自注意力机制,正确的是A.计算复杂度与序列长度平方成正比B.可并行计算C.依赖循环D.可捕捉长距离依赖答案:ABD解析:自注意力无循环结构,QK^T复杂度O(n²)。43.以下哪些属于无监督学习A.K-meansB.PCAC.AutoencoderD.逻辑回归答案:ABC解析:逻辑回归需标签,为监督学习。44.在模型部署阶段,ONNX格式主要优势A.跨框架兼容B.支持量化C.增加模型大小D.支持算子融合答案:ABD解析:ONNX旨在减小体积,而非增加。45.以下哪些指标可用于回归任务A.MAEB.MSEC.RMSED.Accuracy答案:ABC解析:Accuracy用于分类。46.关于卷积操作,正确的是A.权值共享B.局部连接C.平移不变性D.全连接答案:ABC解析:卷积非全连接。47.在深度强化学习中,以下属于on-policy算法A.PPOB.A3CC.DDPGD.SAC答案:AB解析:DDPG、SAC为off-policy。48.以下哪些技术可加速模型训练A.混合精度B.梯度累积C.模型并行D.增加学习率至无穷答案:ABC解析:学习率过大导致发散。49.关于BERT模型,正确的是A.使用双向TransformerB.预训练含MLM任务C.自回归生成D.需微调下游任务答案:ABD解析:BERT非自回归。50.以下哪些属于数据泄露(dataleakage)现象A.训练集含测试集样本B.特征含未来信息C.归一化时用全局统计D.交叉验证用未来fold统计答案:ABD解析:全局统计若仅基于训练集则无泄露。三、判断题(每题1分,共10分)51.在卷积网络中,池化层会增加参数量。答案:错解析:池化无参数。52.使用ReLU激活函数一定不会出现梯度消失。答案:错解析:负区间梯度为零,仍可能梯度消失。53.在K折交叉验证中,K越大,评估方差越小。答案:对解析:K增大,训练集占比高,评估更稳定。54.批量归一化层在推理阶段使用训练时滑动平均的统计量。答案:对解析:推理时均值方差固定,用滑动平均。55.梯度下降每次更新需遍历全数据集。答案:对解析:标准GD用全量数据。56.随机森林中的树相互独立可并行训练。答案:对解析:Bagging思想,树独立。57.使用Dropout时,推理阶段需关闭。答案:对解析:推理时关闭,按保留比例缩放权重。58.在Transformer中,多头注意力可捕捉不同子空间信息。答案:对解析:多头机制并行学习多表示子空间。59.增加批大小一定能提高模型精度。答案:错解析:过大批次可能降低泛化。60.L1正则可产生稀疏权重。答案:对解析:L1的不可导点使部分权重归零。四、填空题(每空2分,共20分)61.若学习率调度公式为=·答案:逆时衰减(inversetimedecay)62.在PyTorch中,若需将模型保存为磁盘文件,使用的函数为________。答案:torch.save63.若卷积输入尺寸32×32,卷积核3×3,padding=1,stride=2,则输出尺寸为________。答案:16×16解析:+64.在目标检测中,mAP的AP指________。答案:AveragePrecision65.若使用余弦相似度计算两向量相似性,其取值范围是________。答案:[-1,1]66.在GPT模型中,位置编码采用________形式。答案:可学习(绝对位置嵌入)67.若批大小为64,单样本梯度范数上限为0.1,则梯度裁剪阈值设为________可防止爆炸。答案:0.168.在强化学习中,Q-learning属于________学习。答案:off-policy69.若使用EarlyStopping,patience=5,表示验证指标连续________次不改善即停。答案:570.在图像分类中,Top-5错误率指真实标签不在模型预测概率前________类的比例。答案:5五、计算题(共10分)71.某模型参数量25M,训练时采用混合精度,批大小32,输入图像224×224×3,单张图像预处理占内存0.1MB,GPU显存8GB,求理论最大可加载样本数(忽略框架开销,1GB=1024MB,参数与激活均占2字节)。解:参数内存:25×10^6×2Byte=50×10^6Byte≈47.68MB设可加载N批,则激活内存约与N成正比,经验公式:激活≈2×批大小×单样本激活字节单样本激活字节≈224×224×64×4×2Byte≈24.5MB(经验值)总显存:参数+N×(批大小×单样本激活+批大小×预处理)8×1024=47.68+N×(32×24.5+32×0.1)8192−47.68=N×784N≈10.39取整N
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 大学后勤奖惩制度规定
- 剧院技术部内部奖惩制度
- 施工车辆安全奖惩制度
- 考核工资分配与奖惩制度
- 中西医联合查房会诊制度
- 安全评价人员奖惩制度
- 工程质量验收奖惩制度
- 无烟学校控烟奖惩制度
- 小学生三年级奖惩制度
- 电厂保安奖惩制度范本
- 腹膜透析室规范制度
- 《中国养老金精算报告2025-2050》原文
- 宫颈癌根治性放疗指南2026
- 2026年春节后复工复产安全培训试题(附答案)
- 未来五年卫星通信地面站上下变频器行业跨境出海战略分析研究报告
- 2025年西南财经大学天府学院辅导员考试笔试题库附答案
- 通信工程师在电信公司的绩效评定表
- 塞来昔布课件
- 2025年兵团两委考试题及答案
- 党的二十届四中全会学习试题
- 通信建设项目管理
评论
0/150
提交评论