2026年公需科目(人工智能伦理与治理)题库及答案_第1页
2026年公需科目(人工智能伦理与治理)题库及答案_第2页
2026年公需科目(人工智能伦理与治理)题库及答案_第3页
2026年公需科目(人工智能伦理与治理)题库及答案_第4页
2026年公需科目(人工智能伦理与治理)题库及答案_第5页
已阅读5页,还剩19页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年公需科目(人工智能伦理与治理)题库及答案一、单项选择题(每题1分,共30分)1.2026年《人工智能伦理与治理》国家指导文件首次把哪一项列为“不可接受风险”应用?A.医疗影像辅助诊断B.实时公共场所人脸识别C.基于生物识别的社会信用评分D.工业质检视觉系统答案:C解析:文件将“以生物识别数据对个人进行社会信用评分并引发歧视性后果”划入不可接受风险,直接禁止。2.在欧盟《AIAct》最终文本(2025版)中,被定义为“General-purposeAImodel”的参数量阈值是:A.≥10⁹B.≥10¹⁰C.≥10²⁵FLOPs训练累计D.≥10²⁹FLOPs训练累计答案:D解析:≥10²⁹FLOPs被认定为具有系统性影响,需接受额外评估。3.我国《生成式人工智能服务管理暂行办法》要求服务提供者对违法内容采取“先审后发”的时限为:A.1小时B.3小时C.24小时D.72小时答案:B解析:3小时内完成审核并阻断传播,是硬性时限。4.在算法审计中,用于衡量模型输出对敏感属性依赖度的常用指标是:A.ROC-AUCB.DemographicParityDifferenceC.PerplexityD.F1-score答案:B解析:DemographicParityDifference直接量化不同群体间正类率差异,是公平性核心指标。5.联邦学习场景下,哪一项技术最能缓解“梯度泄露”导致的隐私风险?A.差分隐私加噪B.权重剪枝C.知识蒸馏D.早停法答案:A解析:差分隐私在梯度上传前加入校准噪声,可给出隐私预算ε的数学保证。6.2026年《人工智能伦理与治理》提出的“红队测试”强制覆盖范围不包括:A.医疗AI三类器械B.自动驾驶L4系统C.智能推荐算法D.工业PLC控制器答案:D解析:工业PLC控制器若未嵌入AI模型,则不在强制红队范围。7.当AI系统出现“自动化偏见”时,最可能损害的原则是:A.可解释性B.人类监督C.公平性D.可持续性答案:B解析:过度依赖AI输出导致人类放弃监督,直接违背“人类在环”要求。8.在AI供应链安全评估中,SBOM指的是:A.软件物料清单B.安全基准操作手册C.系统边界对象模型D.智能业务运营监控答案:A解析:SBOM(SoftwareBillofMaterials)列出所有第三方组件,便于漏洞追溯。9.对于大模型“涌现能力”的可预见性,2026年伦理指南建议:A.禁止发布任何涌现模型B.训练前进行“能力预算”评估C.仅在封闭环境部署D.由企业自行定义风险答案:B解析:能力预算(CapabilityBudgeting)要求训练方在训练前估算模型可能涌现的危险能力,并备案。10.在AI事故分级中,造成“单一自然人死亡”被归为:A.轻微事故B.一般事故C.重大事故D.特别重大事故答案:C解析:依据《人工智能事故报告暂行规定》,死亡1人即达重大事故标准。11.以下哪项不属于“可解释AI”技术?A.LIMEB.SHAPC.Grad-CAMD.Dropout答案:D解析:Dropout是正则化手段,不直接提供解释。12.当使用合成数据训练医疗AI时,必须满足的伦理底线是:A.数据量≥1TBB.合成数据分布与真实分布KL散度<0.05C.通过差分隐私验收D.获得患者逐一授权答案:B解析:KL散度<0.05可确保合成数据不会引入显著分布偏移,降低误诊风险。13.在AI治理沙盒中,企业可申请的最长测试周期为:A.6个月B.12个月C.18个月D.24个月答案:C解析:沙盒指南允许一次延期,总时长不超过18个月。14.“算法备案”中要求提交的“影响评估报告”不包括:A.训练数据来源说明B.碳排放估算C.预期利润率D.风险缓释措施答案:C解析:预期利润率属于商业敏感信息,不在强制披露范围。15.对于深度伪造检测,2026年国家标准推荐的最低帧级检测准确率是:A.80%B.85%C.90%D.95%答案:C解析:帧级AUC≥90%方可获得“基础级”认证标识。16.在AI伦理审查委员会中,外部独立专家比例不得低于:A.20%B.30%C.40%D.50%答案:D解析:确保审查独立性,外部专家需过半。17.当AI系统用于招聘时,若对残疾人群体的召回率低于基准群体超过:A.2%B.3%C.5%D.10%答案:C解析:超过5%即触发“高风险”预警,需重新训练或调整阈值。18.对于开源大模型,以下哪项做法符合伦理要求?A.移除许可证B.提供模型卡(ModelCard)C.删除训练数据信息D.禁止商用答案:B解析:模型卡披露用途、限制、偏差,是负责任开源的基本要求。19.在AI碳足迹核算中,训练阶段排放占比通常:A.<10%B.10%-30%C.30%-50%D.>50%答案:D解析:大模型训练能耗集中,常占总生命周期排放50%以上。20.“人类在环”最低要求中,关键决策延迟不得超过:A.100msB.500msC.1sD.5s答案:B解析:500ms内必须允许人类介入,防止高速自动化失控。21.当AI系统输出涉及“重大公共利益”时,可解释性需在多少小时内提供?A.12B.24C.48D.72答案:B解析:24小时内提供可解释报告,是强制性义务。22.在AI伦理中,“双重用途”指的是:A.同一算法可在CPU与GPU运行B.同一模型可民用也可军用C.同一数据可分训练与测试D.同一API支持中英双语答案:B解析:双重用途强调技术军民两用风险,需额外出口管制。23.对于生成式AI,提示词过滤的误杀率上限为:A.1%B.3%C.5%D.10%答案:C解析:超过5%将影响正常用户体验,需调优。24.在AI治理中,采用“监管技术”(RegTech)最核心的价值是:A.降低合规成本B.提高模型精度C.增加参数量D.缩短训练时间答案:A解析:RegTech通过自动化报告、实时监测,显著降低合规人力成本。25.当AI系统用于司法量刑辅助时,必须通过的认证是:A.ISO9001B.ISO27001C.司法部级“公平性+可解释性”双认证D.国家网信办算法备案答案:C解析:司法场景需额外通过司法部联合认证,确保公平与解释。26.在AI事故调查中,最重要的“黑匣子”组件是:A.模型权重B.推理日志C.训练数据D.超参数答案:B解析:推理日志记录输入、输出、置信度,是还原事故过程的关键。27.对于AI系统更新,采用“影子模式”部署的主要目的是:A.节省算力B.对比新旧版本差异C.提高并发D.降低延迟答案:B解析:影子模式并行运行,收集差异数据,验证安全性。28.在AI伦理培训中,要求研发人员每年学时不少于:A.2学时B.4学时C.6学时D.10学时答案:C解析:6学时是国家继续教育学分底线。29.当AI系统用于儿童教育时,最需优先遵循的原则是:A.数据最小化B.商业机密C.算法复杂化D.模型压缩答案:A解析:儿童数据属敏感个人信息,必须最小化收集。30.在AI治理国际互认机制中,2026年启动的“一带一路AI伦理互认”首先覆盖的领域是:A.自动驾驶B.智慧医疗C.跨境支付D.智能港口答案:D解析:港口场景标准化程度高,易建立互认基准。二、多项选择题(每题2分,共20分)31.以下哪些属于《人工智能伦理与治理》提出的“高影响AI”判定标准?A.影响超过100万人B.涉及关键基础设施C.单次推理成本>1美元D.对个体产生法律或类似重大影响答案:A、B、D解析:成本不是判定标准。32.在差分隐私中,常用的两种噪声机制是:A.LaplaceB.GaussianC.BernoulliD.exponential答案:A、B解析:Laplace与Gaussian机制最常用,分别适用于不同敏感度。33.进行AI系统生命周期评估(LCA)时,需纳入的阶段包括:A.原材料开采B.芯片制造C.模型训练D.设备回收答案:A、B、C、D解析:全生命周期视角,必须覆盖硬件与软件。34.以下哪些做法可有效缓解“数据投毒”?A.训练前异常检测B.梯度范数裁剪C.多源交叉验证D.零知识证明答案:A、C解析:梯度裁剪针对隐私,零知识证明不直接防投毒。35.在AI伦理委员会审查流程中,必须有的环节包括:A.利益冲突披露B.公众意见征询C.技术文档审查D.财务审计答案:A、B、C解析:财务审计非强制。36.对于生成式AI,以下哪些内容属于“高风险输出”?A.自杀方法细节B.虚假医疗广告C.历史事件摘要D.暴力极端主义宣传答案:A、B、D解析:历史摘要若无误导,风险较低。37.在AI系统退役阶段,需完成的工作有:A.数据销毁B.模型封存C.用户通知D.碳排结算答案:A、B、C、D解析:完整退役需闭环处理。38.以下哪些指标可用于衡量AI可解释性优劣?A.局部保真度B.解释稳定性C.用户满意度D.模型参数量答案:A、B、C解析:参数量与解释性无直接正比。39.在AI治理沙盒中,监管方可豁免的义务有:A.数据跨境流动B.算法备案C.事故报告D.公平性测试答案:A解析:仅可在沙盒内临时豁免数据跨境,其余义务不减。40.以下哪些属于AI伦理“负责任创新”原则的具体体现?A.预见性治理B.包容性设计C.敏捷迭代D.事后补救答案:A、B、C解析:事后补救是被动措施,不属于“负责任创新”。三、判断题(每题1分,共10分)41.模型压缩一定降低公平性。答案:错解析:合理压缩可保持公平性,取决于方法。42.联邦学习无需再做数据出境评估。答案:错解析:若聚合服务器在境外,仍需评估。43.开源模型无需提供影响评估。答案:错解析:开源更需提供模型卡与影响说明。44.AI伦理审查可通过线上会议完成。答案:对解析:线上会议满足记录留存即可。45.碳排估算只需考虑训练阶段。答案:错解析:需全生命周期。46.解释性越高,模型性能一定越低。答案:错解析:现代技术可在保持性能同时提升解释。47.合成数据可完全替代真实数据。答案:错解析:需验证分布一致性。48.AI事故需在24小时内向监管部门报告。答案:对解析:特别重大事故立即报告,一般事故24小时。49.影子模式无需用户同意。答案:对解析:仅后台并行,不影响用户,可豁免同意。50.伦理委员会决议可替代法律判决。答案:错解析:伦理决议不具备司法效力。四、简答题(每题10分,共20分)51.简述“能力预算”机制在大模型训练前的实施步骤。答案与解析:步骤1:风险场景识别——列出模型可能被恶意使用的场景,如生物武器设计、网络攻击脚本生成。步骤2:能力量化——使用红队提前测试相似规模模型,记录触发危险能力的参数量、数据量、训练轮次。步骤3:预算设定——依据步骤2数据,为本次训练设定“能力上限”,例如禁止模型在蛋白质设计任务中取得<1nmRMSD的精度。步骤4:技术约束——在训练框架中嵌入“早停+阈值”脚本,当验证集在危险任务上性能突增即自动终止。步骤5:备案与审计——将预算报告、触发日志提交至国家AI备案平台,供事后审计。该机制通过“事前定量+事中监控+事后追责”闭环,降低涌现不可控风险。52.说明如何在联邦学习框架下实现满足(ε,δ)-差分隐私的梯度聚合,并给出噪声校准公式。答案与解析:设第i个客户端上传梯度g_i,其L2敏感度为S=max‖g_i‖₂。1.梯度裁剪:g_i′=g_i·min(1,C/‖g_i‖₂),其中C为裁剪阈值。2.本地加噪:g_i″=g_i′+N(0,σ²C²I),其中σ=√(2ln(1.25/δ))/ε。3.服务器聚合:G=1/n∑g_i″。4.隐私会计:使用MomentsAccountant,总隐私损失随轮数t线性累积,满足ε_total=t·ε,δ_total=t·δ。5.停止条件:当ε_total超过预算ε_budget时,自动终止训练。该方案在保持模型收敛同时,给出可量化的隐私保证。五、计算题(每题10分,共20分)53.某医疗AI模型训练阶段耗电5000kWh,推理阶段每年耗电800kWh,硬件制造碳排为600kgCO₂e,电力碳强度0.5kgCO₂e/kWh,设备生命周期5年,求年均碳排。答案与解析:训练碳排:5000×0.5=2500kgCO₂e5年推理碳排:800×5×0.5=2000kgCO₂e硬件制造:600kgCO₂e总碳排:2500+2000+600=5100kgCO₂e年均:5100/5=1020kgCO₂e/年54.已知某招聘AI在男性群体召回率95%,女性群体召回率88%,若男性样本占60%,女性占40%,求整体召回率及DemographicParityDifference,并判断是否触发高风险。答案与解析:整体召回率=0.6×0.

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论