2025年人工智能导论考试题及答案_第1页
2025年人工智能导论考试题及答案_第2页
2025年人工智能导论考试题及答案_第3页
2025年人工智能导论考试题及答案_第4页
2025年人工智能导论考试题及答案_第5页
已阅读5页,还剩10页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年人工智能导论考试题及答案一、单项选择(每题2分,共20分)1.在2017年ImageNet竞赛中,首次将单模型Top5错误率降至3%以下的团队使用的核心结构是A.VGG19 B.Inceptionv4 C.ResNet152 D.DenseNet264答案:C解析:HeKaiming等人提出的ResNet152在2015年即达到3.57%的错误率,2017年ImageNet收官赛仍被多数队伍用作骨干网络,故选C。2.下列关于Transformer中“位置编码”的描述,正确的是A.可学习参数,维度与词嵌入相同B.正弦余弦函数固定编码,不参与反向传播C.仅在解码器端使用D.采用Onehot方式表示绝对位置答案:B解析:原始论文“AttentionisAllYouNeed”采用正弦/余弦函数生成固定位置向量,不随训练更新,故B正确。3.在深度强化学习中,导致“高估偏差”(overestimation)的直接原因是A.策略梯度方差大B.时序差分目标使用了下一个状态的最大动作值C.经验回放池容量不足D.奖励稀疏答案:B解析:DoubleDQN论文指出,标准DQN在计算目标时取maxQ(s’,a),造成系统性地高估,故选B。4.联邦学习框架FedAvg中,服务器端聚合权重通常按A.客户端梯度范数比例 B.客户端数据量比例 C.随机均匀 D.客户端损失大小答案:B解析:McMahan2017年论文明确以本地数据量占比作为聚合系数,保证无偏估计。5.若一个卷积层输入32×32×64,采用128个5×5卷积核,stride=1,pad=2,则输出特征图尺寸为A.32×32×128 B.28×28×128 C.30×30×64 D.34×34×128答案:A解析:Same卷积,pad=2保持宽高不变,通道数等于卷积核数128,故选A。6.在GPT3训练语料中占比最高的数据来源是A.CommonCrawl B.Wikipedia C.BooksCorpus D.WebText2答案:A解析:OpenAI技术报告披露,经过过滤的CommonCrawl约占60%,故选A。7.下列哪一项不是AutoMLNAS(神经架构搜索)的三大核心组件A.搜索空间 B.搜索策略 C.性能评估 D.知识蒸馏答案:D解析:NAS=搜索空间+搜索策略+性能评估,知识蒸馏属于模型压缩手段,非NAS必备。8.在因果推断中,docalculus的“后门准则”主要用于A.消除混淆偏差 B.降低选择偏差 C.解决测量误差 D.增加工具变量答案:A解析:Pearl提出后门准则阻断混淆路径,从而识别因果效应,故选A。9.若一个GAN的判别器损失恒为0,则生成器梯度A.消失 B.爆炸 C.不变 D.为随机高斯噪声答案:A解析:判别器完美,生成器梯度通过判别器反向传播时趋零,导致梯度消失。10.在DiffusionModel前向加噪过程中,若总步长T=1000,β_t线性从1e4到2e2,则第500步的ᾱ_t约为A.0.50 B.0.36 C.0.25 D.0.63答案:B解析:α_t=1–β_t,ᾱ_t=∏α_k,线性插值得β_500≈0.01005,ᾱ_500≈exp(–Σβ_k)≈0.36,故选B。二、多项选择(每题3分,共15分;多选少选均不得分)11.下列属于SelfSupervisedLearning预训练任务的有A.BERT的MaskedLanguageModelingB.SimCLR的对比学习C.MoCo的动量编码D.AlphaGo的策略网络答案:A、B、C解析:D属于监督强化学习,非自监督。12.关于StableDiffusion中CrossAttention层,正确的有A.Query来自UNet中间特征B.Key/Value来自文本编码器C.只在高分辨率层出现D.支持negativeprompt答案:A、B、D解析:CrossAttention在UNet各分辨率均有注入,C错误。13.以下技术可直接用于缓解LLM“幻觉”现象A.RetrievalAugmentedGenerationB.ConstitutionalAIC.ChainofThoughtFinetuningD.Dropout答案:A、B、C解析:Dropout用于正则化,不直接抑制幻觉。14.在AlphaFold2中,Evoformer模块的输入包括A.MSA表示 B.Pair表示 C.模板结构 D.物理力场答案:A、B、C解析:力场在结构模块后处理,非Evoformer输入。15.关于NeRF(神经辐射场)的体渲染方程,正确的有A.颜色积分沿射线进行B.透明度α由体密度σ积分得到C.可微分D.需要显式网格答案:A、B、C解析:NeRF无需显式网格,D错误。三、填空题(每空2分,共20分)16.2022年发布的ChatGPT基于__________模型架构,参数规模约__________亿。答案:GPT3.5,175解析:OpenAI博客披露ChatGPT由GPT3.5系列微调,参数量保持175B。17.在PyTorch中,若需对4D张量x∈(N,C,H,W)做GroupNorm,groups=32,则C必须能被__________整除。答案:32解析:GroupNorm将通道分组,每组通道数=C/groups,需整除。18.联邦学习中的“梯度泄露”攻击最早由__________团队在__________年USENIXSecurity会议提出。答案:Hitaj,2017解析:论文“DeepModelsUndertheGAN”首次展示用GAN重构私有数据。19.若Adam优化器β1=0.9,β2=0.999,初始学习率1e3,则第1步的等效学习率为__________。答案:1e4解析:biascorrection后α̂=α·√(1–β2^t)/(1–β1^t)=1e3·√0.001/0.1≈1e4。20.在DiffusionModel中,DDIM采样利用__________性质实现确定性生成。答案:非马尔可夫逆过程解析:DDIM通过重新参数化,使逆过程不再依赖随机噪声,实现确定性采样。21.神经架构搜索EfficientNAS在__________空间搜索,将延迟作为__________约束。答案:MobileNetV3like,硬解析:论文把延迟设为硬约束,用早停+预测器过滤。22.在LLM推理阶段,KVCache的显存复杂度与__________成正比。答案:序列长度×层数×头维度×2解析:需缓存每层Key/Value,乘以2。23.2016年MasteringthegameofGo的Nature论文中,策略网络训练数据约含__________万局人类棋谱。答案:30解析:Silver等使用KGS29.4万局。24.CLIP模型图文对比损失温度系数τ的默认值为__________。答案:0.07解析:OpenAI代码库中设定learnableτ初始0.07。25.在联邦学习系统Flower中,聚合策略接口名为__________。答案:Strategy解析:Flower框架核心抽象。四、判断题(每题1分,共10分;正确打“√”,错误打“×”)26.VisionTransformer的PatchEmbedding可用一个步长等于patch大小的卷积实现。√27.BERTlarge的参数量大于GPT21.5B。×28.在DDPG中,目标网络更新采用软更新方式。√29.AlphaGoZero完全摒弃人类棋谱,采用纯自对弈强化学习。√30.模型蒸馏一定要求教师与学生的网络结构同构。×31.在因果图里,碰撞节点(Collider)控制后会打开非因果路径。√32.BatchNorm在训练与测试阶段统计量来源相同。×33.MoCov2将负样本队列长度从65536提升到131072。×34.StyleGAN3解决了图像纹理“粘附”问题。√35.在NeRF中增加视图方向输入可改善镜面反射效果。√五、简答题(每题8分,共24分)36.描述MaskedAutoencoder(MAE)在视觉自监督中的核心设计,并解释为何掩码比例高达75%仍能有效重建。答案:MAE采用非对称编码解码结构:编码器仅对可见patch(25%)计算特征,解码器为轻量级网络,接收编码特征+掩码token,输出全部patch像素。高掩码比迫使编码器学习高级语义而非局部纹理;冗余性保证图像信息可被少量patch恢复;解码器仅用于预训练,推理丢弃,降低计算。实验表明75%掩码比线性探测精度最高,证明视觉信号空间冗余远高于文本。37.对比分析LoRA与AdaLoRA在参数高效微调中的差异,并给出显存占用对比公式。答案:LoRA将权重更新ΔW=BA,其中B∈R^{d×r},A∈R^{r×k},可训练参数为r(d+k)。AdaLoRA引入动态秩,通过重要性评分剪枝低贡献奇异值,维持预算秩r_budget,同时采用SVD形式ΔW=UΣV^T,训练参数为预算秩内非零奇异值及向量。显存上,LoRA额外占用=2r(d+k)字节(fp16);AdaLoRA因需维护重要性分数与掩码,额外占用≈2r_budget(d+k)+dkbit,预算秩r_budget<r时更省显存,但引入稀疏格式开销。38.解释ChainofThought(CoT)为何能提升大模型算术推理能力,并给出两种低成本诱导CoT的提示方法。答案:CoT通过生成中间步骤,将多步推理转化为语言建模的子问题,降低单步难度,利用模型内嵌知识自校正。低成本诱导:①ZeroshotCoT:在问题末尾加“Let’sthinkstepbystep.”,无需标注;②FewshotCoT:提供3个带人工步骤的示例,示例无需与测试任务同分布,即可激活模型逐步推理。六、计算与推导题(共31分)39.(10分)给定一个两层MLP,隐藏层32单元,ReLU激活,输出层2单元,Softmax。输入x∈R^10,采用交叉熵损失。若采用PyTorch默认的Kaiming初始化,求隐藏层权重方差σ²,并推导前向传播后隐藏层激活值的方差表达式(假设输入各分量独立同分布,方差为1)。答案:Kaiming初始化针对ReLU,方差σ²=2/fan_in=2/10=0.2。推导:令h=Wx+b,Var(h_i)=Σ_jVar(W_{ij})·Var(x_j)=10·σ²·1=10×0.2=2。经过ReLU后,E[ReLU(h)]=√(Var(h)/2π)=√(2/2π)=1/√π,Var(ReLU(h))=Var(h)/2=1。故隐藏层激活值方差为1,满足自归一化。40.(11分)在DDPM中,前向过程q(x_t|x_0)=N(x_t;√ᾱ_tx_0,(1–ᾱ_t)I)。请推导任意步t可直接采样x_t的公式,并证明当T→∞且β_t→0时,x_T服从标准高斯分布。答案:由重参数化x_t=√ᾱ_tx_0+√(1–ᾱ_t)ε,ε∼N(0,I)。当T→∞,∏α_t→0,则ᾱ_T→0,故x_T→√1·ε∼N(0,I),得证。41.(10分)假设用8bit量化将LLM权重压缩,原模型175B参数,fp16占用350GB。若采用groupwise量化,groupsize=128,引入0.2%的额外缩放与零点参数,求压缩后大小,并计算压缩比。答案:权重部分:175B×1byte=175GB;缩放零点:175B×2/128≈0.273GB;额外0.2%即0.35GB;总大小≈175+0.273+0.35=175.623GB。压缩比=350/175.623≈1.99。七、综合设计题(20分)42.某市卫健委计划利用联邦学习建立跨医院“医学影像肺结节筛查”大模型,数据分布在10家医院,各院数据量5k~50k不等,图像分辨率1024×1024,标注包括结节mask与恶性概率。请设计一套端到端方案,涵盖:(1)数据预处理与隐私增强;(2)模型架构与联邦策略;(3)激励机制与合规审计;(4)评估指标与故障恢复。要求给出技术选型、通信预算、收敛预期及潜在风险缓解。答案:(1)预处理:采用DICOM脱敏,去除患者ID,像素级差分隐私ε=1;使用FATESSL做自监督预训练,降低标注需求。(2)模型:选用SwinUNet,参数量200M,输入降采样至512×512;联邦策略:FedAvg+Prox,μ=0.01,本地epoch=5,batc

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论