2026年湖南省数字技术应用能力水平考试人工智能基础知识及应用_第1页
2026年湖南省数字技术应用能力水平考试人工智能基础知识及应用_第2页
2026年湖南省数字技术应用能力水平考试人工智能基础知识及应用_第3页
2026年湖南省数字技术应用能力水平考试人工智能基础知识及应用_第4页
2026年湖南省数字技术应用能力水平考试人工智能基础知识及应用_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年湖南省数字技术应用能力水平考试(人工智能基础知识及应用一、单项选择题(每题2分,共30分。每题只有一个正确答案,多选、错选均不得分)1.在深度学习中,下列哪种操作最直接地缓解了“内部协变量偏移”问题?A.Dropout  B.BatchNormalization  C.L1正则化  D.早停法2.若某卷积神经网络第一层使用32个3×3卷积核,输入为RGB图像(224×224×3),边界填充为1,步长为1,则该层输出特征图的尺寸为:A.222×222×32  B.224×224×32  C.226×226×32  D.112×112×323.在强化学习中,采用ε-greedy策略时,若ε=0.1,则智能体在某一状态下选择随机动作的概率为:A.0.01  B.0.1  C.0.9  D.14.下列关于Transformer自注意力机制的说法,错误的是:A.查询向量Q与键向量K的点积决定权重  B.缩放点积因子为√d_kC.注意力权重矩阵的列和为1  D.多头机制允许模型同时关注不同子空间信息5.使用BERT模型进行中文文本分类时,若最大序列长度设为128,batch_size=16,则一次前向传播所需的显存大致与下列哪项成正比?A.128×768×16  B.128×12×16  C.128×2×16  D.128×110M6.联邦学习框架中,服务器端常用的“参数聚合”算法是:A.FedAvg  B.SGD  C.Adam  D.MapReduce7.在生成对抗网络中,若判别器损失长时间趋近于0,而生成器损失剧烈震荡,最可能的原因是:A.生成器学习率过高  B.判别器过强,生成器梯度消失C.判别器学习率过低  D.生成器容量不足8.下列Python代码片段用于加载scikit-learn内置数据集,其中存在一处隐患,该隐患最可能导致:```pythonfromsklearn.datasetsimportload_irisiris=load_iris()X,y=iris.data,iris.targetmodel=SVC(kernel='rbf',C=1e6,gamma='scale')model.fit(X,y)```A.内存溢出  B.过拟合  C.欠拟合  D.数据泄露9.在知识图谱表示学习中,TransE模型将关系视为头实体到尾实体的:A.旋转  B.平移  C.缩放  D.投影10.若某自动驾驶系统使用YOLOv8进行目标检测,输入图像分辨率由640×640提升至1280×1280,其余超参不变,则模型推理时间约:A.不变  B.减半  C.增加为原来2倍  D.增加为原来4倍11.在Python中使用PyTorch时,下列哪条语句可以正确地将模型所有参数转移到GPU并设置为半精度?A.model.half().cuda()  B.model.cuda().half()C.model.to('cuda',dtype=torch.float16)D.model.type(torch.half).gpu()12.下列关于模型压缩技术“知识蒸馏”的描述,正确的是:A.学生模型参数量必须大于教师模型  B.蒸馏损失仅与软标签交叉熵有关C.温度系数T越大,软标签分布越尖锐  D.蒸馏可与其他压缩方法叠加使用13.在医疗影像AI辅助诊断场景下,若训练集阳性样本仅占2%,则首选的评价指标是:A.Accuracy  B.Precision  C.Recall  D.F1-score14.若某时序预测任务采用Informer模型,其ProbSparse自注意力机制的时间复杂度为:A.O(L²)  B.O(LlogL)  C.O(L)  D.O(logL)15.下列关于国产AI芯片“昇腾910B”的说法,错误的是:A.采用7nm工艺  B.支持FP16、INT8混合精度C.单芯片峰值算力256TFLOPS(FP16)D.仅支持MindSpore框架,不支持PyTorch二、多项选择题(每题3分,共15分。每题至少有两个正确答案,多选、少选、错选均不给分)16.以下哪些方法可以有效提升卷积神经网络在小样本条件下的泛化能力?A.数据增强  B.迁移学习  C.增加全连接层宽度  D.元学习  E.标签平滑17.关于AIGC(人工智能生成内容)治理,下列哪些属于《生成式人工智能服务管理暂行办法》明确要求的义务?A.对生成内容进行标识  B.建立投诉举报机制  C.训练数据须全部公开D.定期安全评估  E.限制未成年人使用时间18.在PyTorchLightning框架中,以下哪些函数/方法由用户按需重写即可实现自定义训练逻辑?A.training_step  B.configure_optimizers  C.forwardD.optimizer_step  E.on_train_epoch_end19.下列关于模型可解释性技术的说法,正确的有:A.LIME通过局部线性近似解释任意分类器  B.SHAP值满足局部准确性、缺失性、一致性C.Grad-CAM可用于视觉Transformer  D.积分梯度法要求模型可微E.注意力权重可视化一定反映模型决策依据20.在边缘计算场景部署AI模型时,需重点考虑:A.模型时延  B.功耗  C.散热  D.数据隐私  E.模型可解释性三、填空题(每空2分,共20分。将答案按序号写在答题卡上)21.若某全连接层输入维度为512,输出维度为1024,则该层可训练参数量为________,若使用Kaiming初始化,则权重标准差为________。22.在Python中,使用NumPy生成形状为(3,4,5)的随机数组,且元素服从均值为0、方差为0.01的正态分布,代码为:arr=np.random.________(0,0.01,(3,4,5))。23.在Transformer解码器自回归生成时,为避免信息泄露,需对注意力得分矩阵进行________掩码,掩码上三角元素值为________。24.联邦学习客户端本地训练时,若学习率设为η,批量大小为B,本地迭代次数为E,则本地更新量可表示为Δw=−η∑_{i=1}^{E}________。25.若某模型在ImageNet上Top-1准确率为76.3%,经INT8量化后准确率降至75.1%,则量化造成的绝对精度损失为________个百分点;若baseline模型大小为97MB,则压缩率约为________%(保留一位小数)。四、判断题(每题1分,共10分。正确打“√”,错误打“×”)26.使用ReLU激活函数一定不会出现梯度消失问题。27.在循环神经网络中,采用LSTM单元后仍可能因学习率过大而发生梯度爆炸。28.知识图谱嵌入模型DistMult可以建模非对称关系。29.在CV领域,CutMix数据增强方法通过拼接两张图像的矩形区域提升鲁棒性。30.采用混合精度训练时,PyTorch自动为所有算子启用FP16。31.对于二分类任务,当正负样本比为1:99时,Accuracy指标已失去参考意义。32.AutoML技术中的神经架构搜索(NAS)一定需要GPU集群才能完成。33.在语音识别任务中,使用CTC损失允许输入与输出序列长度无需严格对齐。34.模型剪枝中的“结构化剪枝”对硬件友好,但通常压缩率低于非结构化剪枝。35.扩散模型DDPM的前向过程是一个固定的马尔可夫链,无需训练。五、计算与推导题(共45分。须写出关键步骤,直接写结果不给分)36.(8分)某卷积层输入特征图尺寸为64×64×16,采用4×4卷积核,步长为2,填充为1,输出通道数为32。(1)求输出特征图高H、宽W、通道C;(2)若采用分组卷积,分组数g=8,求每组卷积核尺寸与参数总量。37.(10分)已知某二元分类数据集{(x_i,y_i)}_{i=1}^n,y_i∈{0,1},模型输出概率为p_i=σ(w^Tx_i)。采用FocalLoss缓解类别不平衡:L其中γ=2。(1)求∂L_FL/∂w;(2)分析当p_i→1时,梯度模长如何变化,并说明其对难易样本的加权效应。38.(9分)在强化学习策略梯度算法REINFORCE中,回报基线b(s_t)=V_π(s_t)可降低方差。证明:E并说明该结论对梯度估计方差的影响。39.(8分)某Transformer模型隐藏维度d=768,序列长度L=512,batch_size=8,自注意力头数h=12。(1)计算标准自注意力机制下单层注意力权重矩阵的显存占用(单位MB,假设FP16);(2)若采用FlashAttention,显存占用降至O(L·d),求节省的显存百分比。40.(10分)某市交通管理局拟用深度强化学习优化信号灯控制,状态s_t定义为各进口道排队长度向量,动作a_t为相位选择,奖励r_t=−(∑q_i)^2,其中q_i为第i条道排队长度。实验路段为四向八车道,单车道最大排队长度80辆。(1)设计状态空间降维方案,要求降维后维度≤16,并说明理由;(2)若采用DoubleDQN,写出损失函数并解释为何能缓解Q值过估计;(3)实际部署需在线学习,但车流分布随季节变化,给出一种持续适应方案并评估其最坏情况后悔界。六、综合应用题(30分)41.某省级三甲医院计划基于院内10万例低剂量胸部CT影像构建肺结节恶性风险预测系统。数据特点:①DICOM格式,层厚0.5–1.25mm,矩阵512×512,平均300层/例;②阳性(恶性)样本占6%;③影像来自5款不同厂商设备,存在域偏移;④已标注结节位置及恶性标签,但无像素级mask。任务:设计端到端解决方案,涵盖数据预处理、模型架构、训练策略、评估指标、部署与隐私合规。要求:(1)画出系统流程图,并说明关键模块输入输出;(2)给出处理类别不平衡、域偏移、小目标检测的具体技术路线;(3)计算若采用3DCNN,输入裁剪为128×128×64,通道数1,首层16个5×5×5卷积核,步长2,填充2,求理论感受野(给出递推公式与结果);(4)说明如何在不传输原始影像的前提下完成多中心联邦训练,并给出通信量估算(假设模型参数量37M,FP32,每轮10%参数上传,压缩比1:8);(5)列举三项可解释性措施,说明如何向临床医生展示模型决策依据;(6)依据《医疗器械软件注册审评指南》,给出软件安全性级别判定依据及验证要点。———答案与解析———一、单选1.B 2.B 3.B 4.C 5.A 6.A 7.B 8.B 9.B 10.D11.C 12.D 13.C 14.B 15.D二、多选16.ABDE 17.ABD 18.ABDE 19.ABCD 20.ABCD三、填空21.524288;√(2/512)=1/16≈0.062522.normal23.下三角(或causal);−∞(或−1e9)24.∇wL_i(w)25.1.2;87.6四、判断26×27√28×29√30×31√32×33√34√35√五、计算与推导36.(1)H=⌊(64+2×1−4)/2⌋+1=32,同理W=32,C=32。(2)分组卷积g=8,每组输入通道16/8=2,输出通道32/8=4;每组卷积核尺寸4×4×2,参数总量:8×(4×4×2)×4=1024。37.(1)令p_i=σ(z_i),z_i=w^Tx_i,则∂L_FL/∂w=1/n∑[−(1−p_i)^2y_i(1−p_i)+p_i^2(1−y_i)(−p_i)]x_i=1/n∑[−(1−p_i)^2y_i(1−p_i)−p_i^3(1−y_i)]x_i。(2)当p_i→1,对正样本y_i=1,梯度系数→0,抑制易分样本;对负样本y_i=0,梯度系数→−1,仍保持较大梯度,实现难例关注。38.证明:E[∑_t∇logπ(a_t|s_t)b(s_t)]=∑_tE[∇logπ(a_t|s_t)b(s_t)]=∑_tE_{s_t}[b(s_t)E_{a_t|s_t}[∇logπ(a_t|s_t)]]而E_{a|s}[∇logπ(a|s)]=∑_aπ(a|s)∇logπ(a|s)=∇∑_aπ(a|s)=∇1=0,故整体期望为0。该结论表明引入基线不改变梯度无偏性,但可减小方差。39.(1)注意力权重矩阵尺寸:batch×h×L×L=8×12×512×512,FP16占2字节,显存=8×12×512×512×2/1024²≈48MB。(2)FlashAttention显存≈L·d·batch×h×2=512×768×8×12×2/1024²≈72MB,但此值含中间激活,实际节省比例≈(48−0)/48=100%(理论极端情况),实际工程约节省80–90%。40.(1)采用PCA+图卷积:将8条道排队长度拼接为80×8=640维,用PCA降至16维,保留95%方差。(2)DoubleDQN损失:L=(r+γQ(s',argmax_aQ(s',a;θ');θ'−)−Q(s,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论