2026年自考人工智能导论专项试题及答案_第1页
2026年自考人工智能导论专项试题及答案_第2页
2026年自考人工智能导论专项试题及答案_第3页
2026年自考人工智能导论专项试题及答案_第4页
2026年自考人工智能导论专项试题及答案_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年自考人工智能导论专项试题及答案一、单项选择题(每小题2分,共20分)1.下列关于“人工智能”定义的描述,最符合2020年后国际主流学术共识的是A.让机器表现出与人类完全相同的智能行为B.通过人工构造的系统,使机器能够执行通常需要人类智能才能完成的任务C.让机器拥有自我意识与情感D.让机器在特定领域超越人类,但不具备通用性2.在深度学习中,若某卷积层输出特征图尺寸为32×32,步长为2,卷积核尺寸为5×5,则该层输入特征图尺寸为A.67×67  B.68×68  C.69×69  D.70×703.强化学习中的“探索—利用”困境(Exploration–ExploitationDilemma)最早被形式化为下列哪一数学模型A.PAC可学习模型  B.k-armedbandit  C.MDP  D.POMDP4.下列关于Transformer自注意力机制的说法,错误的是A.计算复杂度与序列长度呈二次关系B.可并行计算,训练速度优于RNNC.位置编码完全替代了序列的时间顺序信息D.自注意力权重矩阵的每一行和为15.在联邦学习框架中,为防止中央服务器直接获取用户原始梯度,最常用的隐私保护技术是A.同态加密  B.差分隐私加噪声  C.安全多方计算  D.梯度压缩6.若某二分类任务采用FocalLoss,其调制因子γ=2,则对于易分样本(pt≈1),损失值约变为原交叉熵的A.1  B.0  C.e⁻²  D.0.147.下列关于图神经网络(GNN)过平滑(Over-smoothing)现象的描述,正确的是A.随着网络加深,节点特征趋于一致,分类精度持续上升B.随着网络加深,节点特征趋于一致,分类精度急剧下降C.随着网络加深,节点特征方差增大,分类精度下降D.过平滑只出现在有向图中8.在AlphaGoZero中,自我对弈数据生成阶段使用的核心搜索算法是A.蒙特卡洛树搜索  B.A搜索  C.贝叶斯搜索  D.遗传算法A.蒙特卡洛树搜索  B.A搜索  C.贝叶斯搜索  D.遗传算法9.若某模型在ImageNet上Top-1精度为76.2%,使用知识蒸馏后,学生网络Top-1精度为75.8%,但其参数量仅为教师网络的1/8,这说明A.蒸馏失败,因为精度下降B.蒸馏成功,因为精度下降幅度小于参数量下降幅度C.蒸馏成功,因为精度上升D.无法判断蒸馏效果10.下列关于“可解释人工智能(XAI)”技术LIME的描述,正确的是A.LIME通过全局线性模型解释整个黑盒B.LIME在局部样本邻域训练可解释模型C.LIME只能用于图像数据D.LIME无需扰动输入即可生成解释二、多项选择题(每小题3分,共15分;多选少选均不得分)11.下列属于无监督表示学习的方法有A.Word2VecSkip-gram  B.SimCLR  C.PCA  D.AutoEncoder  E.LinearDiscriminantAnalysis12.关于生成对抗网络(GAN)的训练难点,以下说法正确的有A.判别器与生成器需保持能力均衡,否则易崩溃B.使用Wasserstein距离可缓解梯度消失C.增加BatchNormalization层会一定导致训练不稳定D.模式崩塌(ModeCollapse)表现为生成样本多样性下降E.采用历史平均(HistoricalAveraging)可提升稳定性13.下列技术可用于缓解深度网络过拟合的有A.DropBlock  B.LabelSmoothing  C.Mixup  D.增加学习率  E.EarlyStopping14.关于BERT预训练任务,下列说法正确的有A.MLM任务中15%的token被选中,其中80%被替换为[MASK]B.NSP任务用于建模句子间关系C.BERT采用单向语言模型目标D.RoBERTa去除了NSP任务E.ALBERT通过参数共享降低了内存占用15.下列属于人工智能伦理原则的有A.公平性  B.可追责性  C.透明性  D.最大化利润  E.隐私保护三、判断题(每小题1分,共10分;正确打“√”,错误打“×”)16.深度双Q网络(DoubleDQN)通过解耦动作选择与动作评估减少过估计偏差。17.在神经架构搜索(NAS)中,权重共享技术可显著降低搜索阶段GPU耗时。18.图卷积网络(GCN)的层间传播规则可写作H^(l+1)=σ(D̃⁻¹ÃH^(l)W^(l)),其中D̃为度矩阵。19.使用ReLU激活函数一定不会出现梯度消失问题。20.在联邦学习中,模型参数聚合采用FedAvg算法时,本地epoch数越大越好,无需限制。21.对比学习中的InfoNCE损失可看作多分类交叉熵的特例。22.自动混合精度(AMP)训练可在保证模型精度前提下提升训练速度。23.模型剪枝中的“彩票假说”认为随机初始化的稠密网络已包含可独立训练的中奖子网络。24.在CV领域,CutMix数据增强通过拼接两张图像的矩形区域生成新训练样本。25.人工智能系统一旦通过图灵测试,即说明其具备通用人工智能(AGI)。四、填空题(每空2分,共20分)26.在Transformer中,自注意力输出矩阵O与Value矩阵V的关系可表示为O=________,其中权重矩阵行和为1。27.若某卷积网络第l层输出通道数为64,采用分组卷积groups=16,则每组卷积核维度为________。28.强化学习策略梯度定理中,目标函数J(θ)对参数θ的梯度为∇θJ(θ)=Eπθ[________∇θlogπθ(a|s)]。29.在知识蒸馏中,教师网络输出的软标签温度参数T越大,概率分布越________。30.若某模型参数量为120M,使用8bit量化后,理论上存储空间可压缩至原大小的________%。31.在图神经网络中,邻接矩阵自环操作可表示为Ã=A+________。32.当使用F1-score作为评价指标时,其计算公式为F1=________。33.在生成模型VAE中,证据下界(ELBO)由重构项与________项组成。34.若某次联邦学习全局通信轮次为100,每轮本地迭代5epoch,则本地总迭代次数为________。35.在深度Q网络中,经验回放池的主要作用是打破样本间________性。五、简答题(每小题8分,共24分)36.简述深度强化学习在自动驾驶决策中的关键挑战,并给出两种应对策略。37.对比卷积神经网络(CNN)与VisionTransformer(ViT)在图像分类任务中的归纳偏置差异,并说明其对数据量需求的影响。38.说明差分隐私在联邦学习中的注入时机与噪声规模选择原则,并分析其对模型精度与隐私保护强度的权衡。六、计算与推导题(共31分)39.(10分)某卷积层输入特征图尺寸为112×112×3,卷积核尺寸7×7,输出通道64,步长2,填充3。(1)求输出特征图尺寸。(2)若采用标准前向传播,计算该层理论FLOPs(乘加次数)。(3)若使用深度可分离卷积(DepthwiseSeparableConvolution),计算FLOPs下降比例。40.(10分)给定一个二分类任务,数据集含1000正例、4000负例。某模型预测结果如下:TP=800,FP=500,FN=200,TN=3500。(1)计算Precision、Recall、F1-score。(2)若将分类阈值从0.5下调至0.3,预测正例数增加20%,TP增加10%,FP增加30%,求新F1-score,并分析阈值变化对指标的影响。41.(11分)在强化学习MDP中,状态空间S={s₁,s₂},动作空间A={a₁,a₂},折扣因子γ=0.9,转移与奖励如下:•在s₁执行a₁:以概率0.8转移到s₁得奖励+1,概率0.2转移到s₂得奖励0;•在s₁执行a₂:以概率1.0转移到s₂得奖励+2;•在s₂执行任何动作:以概率1.0停留在s₂得奖励0。(1)写出Bellman最优方程组。(2)采用值迭代(初始V₀(s₁)=V₀(s₂)=0),求第2次迭代后的V₂(s₁)、V₂(s₂)。(3)给出最优策略π(s₁)、π(s₂)。(3)给出最优策略π(s₁)、π(s₂)。七、综合设计题(20分)42.某三甲医院计划部署AI辅助诊断系统,用于早期肺癌筛查。请从数据、模型、隐私、伦理、监管五方面,设计一套完整技术方案,要求:(1)说明数据收集与标注流程,确保多样性与质量;(2)给出模型架构选型理由,并解释可解释性方案;(3)阐述隐私保护技术路线,满足《个人信息保护法》要求;(4)分析潜在伦理风险与缓解措施;(5)说明如何对接国家药监局三类医疗器械审评路径。【答案与解析】一、单项选择题1.B 2.C 3.B 4.C 5.B 6.D 7.B 8.A 9.B 10.B二、多项选择题11.BCD 12.ABDE 13.ABCE 14.ABDE 15.ABCE三、判断题16.√ 17.√ 18.√ 19.×(ReLU仍可能出现梯度消失,如权重初始化不当) 20.×(本地epoch过大导致漂移) 21.√ 22.√ 23.√ 24.√ 25.×(图灵测试不足以说明AGI)四、填空题26.softmax(QK^T/√dk)V27.64/16=428.Q(s,a)29.平滑(或“柔和”)30.25%31.I(单位矩阵)32.2PR/(P+R)33.KL散度(或“潜在变量正则”)34.50035.相关五、简答题36.关键挑战:①状态动作空间巨大,连续控制高维;②真实环境交互成本高;③安全约束严格;④仿真到现实迁移困难。策略:1.采用分层强化学习,将决策分解为路径规划与行为控制两层,降低搜索空间;2.引入安全强化学习,如CPO(ConstrainedPolicyOptimization),在策略更新中显式加入安全约束,确保探索过程满足碰撞概率阈值。37.CNN归纳偏置为局部性、平移等变性,利用卷积核共享参数,适合小数据;ViT弱归纳偏置,依赖大规模数据学习空间关系。小数据场景CNN更易收敛,大数据场景ViT可扩展性更强,精度反超。38.注入时机:本地梯度计算后、上传之前,对梯度或参数加噪。噪声规模ε由隐私预算决定,采用矩会计或RDP跟踪累积隐私损失。权衡:ε越小,噪声越大,模型精度下降越多;需通过实验选取满足业务隐私等级(如ε=1)且精度损失<2%的噪声尺度,可结合梯度压缩与自适应裁剪减小噪声。六、计算与推导题39.(1)输出高宽=⌊(112+2×3−7)/2⌋+1=56,输出尺寸56×56×64。(2)标准卷积FLOPs=2×7×7×3×64×56×56=590.8×10⁶。(3)深度可分离:DepthwiseFLOPs=2×7×7×3×56×56=9.23×10⁶;PointwiseFLOPs=2×1×1×3×64×56×56=12.06×10⁶;总21.29×10⁶;下降比例=(590.8−21.3)/590.8≈96.4%。40.(1)P=800/(800+500)=0.615,R=800/(800+200)=0.800,F1=2×0.615×0.800/(0.615+0.800)=0.695。(2)新TP=800×1.1=880,新FP=500×1.3=650,新正例=880+650=1530;新P=880/1530=0.575,新R=880/1000=0.880,新F1=2×0.575×0.880/(0.575+0.880)=0.696。阈值下调,Recall升,Precision降,F1微升,说明原阈值已接近最优。41.(1)Bellman最优方程:V(s₁)=max{0.8(1+0.9V(s₁))+0.2(0+0.9V(s₂)),2+0.9V(s₂)}V(s₁)=max{0.8(1+0.9V(s₁))+0.2(0+0.9V(s₂)),2+0.9V(s₂)}V(s₂)=max{0+0.9V(s₂),0+0.9V(s₂)}=0.9V(s₂)⇒V(s₂)=0V(s₂)=max{0+0.9V(s₂),0+0.9V(s₂)}=0.9V(s₂)⇒V(s₂)=0(2)值迭代:V₁(s₁)=max{0.8(1+0)+0.2(0),2}=2;V₁(s₂)=0V₂(s₁)=max{0.8(1+0.9×2),2}=max{2.24,2}=2.24;V₂(s₂)=0(3)π(s₁)=a₁(因2.24>2),π(s₂)任意。(3)π(s₁)=a₁(因2.24>2),π(s₂)任意。七、综合设计题42.评分要点:数据:多中心采集≥10万例低剂量CT,按7:1:2划分,双盲三阶标注,采用NCCN指南金标准,引入对抗性扩增与域适应。模型:选用3DnnUNet为骨干,加入空间—通道双重注意力,嵌入Grad-CAM++提供热图解释;输出恶性概率与定位

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论