2025年人工智能安全与伦理考试试题及答案_第1页
2025年人工智能安全与伦理考试试题及答案_第2页
2025年人工智能安全与伦理考试试题及答案_第3页
2025年人工智能安全与伦理考试试题及答案_第4页
2025年人工智能安全与伦理考试试题及答案_第5页
已阅读5页,还剩14页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年人工智能安全与伦理考试试题及答案一、单项选择题(每题2分,共30分)1.2024年欧盟《人工智能法案》正式生效后,下列哪一类系统被直接划入“禁止性AI实践”清单?A.基于深度伪造的娱乐换脸AppB.在公共场所实时进行生物识别的执法系统C.面向儿童的情感陪伴机器人D.用于信贷评分的梯度提升决策树答案:B2.在联邦学习场景下,恶意参与方通过上传缩放后的梯度符号矩阵诱导全局模型生成后门,该攻击方法被学术界称为:A.GradientInversionB.ModelPoisoningC.ByzantineAttackD.GradientReversal答案:B3.根据我国《生成式人工智能服务管理暂行办法》,对“训练数据合法性”进行审查时,下列哪一项不属于必须提交的合规材料?A.数据来源清单与授权链B.数据去重与过滤算法说明C.数据跨境传输安全评估报告D.数据主体对AI输出的追认同意书答案:D4.在RLHF(人类反馈强化学习)流程中,如果标注员偏好被模型逆向推断并泄露,最直接的隐私风险属于:A.成员推理B.属性推理C.偏好泄露D.模型反演答案:C5.2023年NIST发布的AI风险管理框架中,将“有害偏见”划分为三类,下列哪一项不在其列?A.计算偏见B.人类偏见C.系统偏见D.统计偏见答案:A6.当使用差分隐私训练GPT时,若噪声乘子σ=1.2、训练步数T=8000、采样概率q=0.01,则根据MomentsAccountant方法,ε的近似量级为:A.1.5B.3.8C.8.2D.15.6答案:B7.在自动驾驶伦理旋钮(EthicalKnob)设计中,若将“乘客最小化伤害”权重调至最高,可能导致下列哪一伦理悖论?A.隧道效应B.手推车难题反转C.道德外包D.责任真空答案:B8.多模态大模型在医疗影像报告生成任务中,将患者可识别头像意外嵌入输出,主要违反了:A.GDPR第5条1(b)目的限制原则B.GDPR第9条特殊类别数据禁令C.HIPAA安全规则中的加密条款D.我国《个人信息保护法》第13条最小必要原则答案:B9.针对Transformer的模型窃取攻击中,攻击者仅通过API返回的logits构造蒸馏损失,该方法被首次系统阐述于:A.“StealingMachineLearningModelsviaPredictionAPIs”,USENIXSecurity2016B.“KnowledgeDistillationfromFewSamples”,ICML2017C.“MembershipInferenceAttacksagainstMachineLearningModels”,S&P2017D.“DeepLeakagefromGradients”,NeurIPS2019答案:A10.在AI安全红队演练中,采用“双盲”机制的核心目的是:A.降低演练成本B.避免红队成员被溯源C.防止演练结果污染生产日志D.确保蓝队无法通过背景信息推断攻击来源答案:D11.若某国立法要求“所有高于10^25FLOPs训练算力的模型须在上线前完成国家级安全评估”,该条款属于:A.基于风险的分类管理B.基于算力的触发式监管C.基于应用的负面清单D.基于数据的本地化要求答案:B12.在模型卡(ModelCard)中披露“数据集包含约3%标注错误”主要体现哪一项伦理原则?A.可解释性B.透明度C.公平性D.可审计性答案:B13.当使用区块链记录联邦学习每轮聚合哈希时,为抵御长程攻击(LongRangeAttack),应优先采用:A.PoW共识B.DPoS共识C.VerifiableDelayFunctionD.PBFT共识答案:C14.在AI伦理影响评估(EIA)中,采用“利益相关者映射”工具时,首要识别的是:A.直接受影响群体B.间接受影响群体C.未来潜在用户D.监管机构答案:A15.对于生成式模型输出的“幻觉”内容,下列哪一项技术措施最能降低医疗误诊的伦理风险?A.输出置信度校准B.引入检索增强生成(RAG)C.提高温度参数D.使用Topp采样答案:B二、多项选择题(每题3分,共30分;每题至少有两个正确答案,多选少选均不得分)16.以下哪些行为可被认定为“算法歧视”在我国《互联网信息服务算法推荐管理规定》中的典型表现?A.基于种族的差异化定价B.基于性别的招聘过滤C.基于信用分的流量倾斜D.基于地理位置的外卖配送费差异答案:A、B17.在对抗样本防御中,下列哪些方法被证实对“自适应攻击”存在明显失效风险?A.梯度掩蔽B.特征压缩C.随机化输入变换D.certifiedrobustnessviarandomizedsmoothing答案:A、B、C18.关于“可撤销神经网络”(RevocableNeuralNetworks)描述正确的有:A.支持数据主体请求删除训练样本后无需重训B.依赖分片式权重存储与Shamir秘密共享C.通过权重缝合技术实现近似删除D.目前仅适用于全连接网络,无法扩展到Transformer答案:A、C19.在AI系统安全开发生命周期(AISDLC)中,以下哪些活动应被纳入“威胁建模”阶段?A.识别训练数据投毒路径B.评估模型蒸馏泄露风险C.制定红队演练计划D.设计日志审计策略答案:A、B20.针对深度伪造音视频,下列技术组合可用于提升检测鲁棒性的有:A.频域高通滤波+CNNB.生物信号rPPG提取+TransformerC.唇音同步检测+对比学习D.元数据哈希校验+零知识证明答案:A、B、C21.在“道德机器”(MoralMachine)实验中,全球样本显示出的跨文化差异包括:A.东方文化更倾向保护老人B.拉丁文化更倾向保护女性C.北欧文化更倾向保护行人而非乘客D.伊斯兰文化更倾向遵守交通规则而非保护数量答案:A、C22.关于“模型水印”技术,下列说法正确的有:A.白盒水印需访问模型参数B.黑盒水印通过API验证所有权C.功能型水印会改变模型原始任务性能D.对抗性水印对权重微调具有鲁棒性答案:A、B、D23.在AI供应链安全评估中,需重点审查的第三方组件包括:A.预训练权重文件B.开源算子库C.标注外包平台D.CUDA驱动版本答案:A、B、C24.以下哪些指标可用于量化“算法公平性”?A.人口统计均等(DemographicParity)B.机会均等(EqualizedOdds)C.校准性(Calibration)D.个体公平性(IndividualFairness)答案:A、B、D25.在“红队蓝队紫队”协同演练中,紫队职责包括:A.总结攻防两端知识库B.设计检测规则C.验证修复效果D.发起0day攻击答案:A、B、C三、判断题(每题1分,共10分;正确打“√”,错误打“×”)26.联邦学习中的SecureAggregation协议可以完全阻止中央服务器获知任一参与方的梯度明文。答案:√27.根据GDPR,数据主体有权拒绝完全基于自动化决策的信贷拒绝,但不得要求人工干预。答案:×28.在AI伦理审查委员会(AIIRB)中,必须包含至少一名法律背景成员和一名技术背景成员。答案:√29.使用模型剪枝技术会降低后门触发器的激活强度,从而提升后门鲁棒性。答案:×30.对于开源大模型,若权重文件采用GPL3.0协议,则基于其微调的衍生模型必须开源。答案:√31.在AI安全领域,“CAGE”距离常用于衡量两个数据集之间的分布漂移程度。答案:×32.我国《深度合成规定》要求,对生成内容必须添加肉眼可见的“数字水印”。答案:×33.对于高影响力AI系统,NIST建议采用“双轨制”治理:技术轨道+治理轨道并行。答案:√34.在模型可解释性研究中,IntegratedGradients方法满足“敏感性”与“实现不变性”公理。答案:√35.采用联邦学习即可天然满足数据跨境传输的“充分性决定”要求,无需额外评估。答案:×四、简答题(每题10分,共30分)36.场景:某医疗AI公司计划上线一款基于视网膜影像的青光眼筛查模型。请结合《人工智能伦理治理标准化指南》(2024版),列出至少五项必须在“伦理符合性声明”中披露的技术与治理要素,并给出可验证的量化指标示例。答案:1.数据多样性:声明需披露数据集地理覆盖率,指标示例:涵盖7大地理区域,每区域样本≥5000例,种族分布与全国人口普查误差<5%。2.标注质量:提供标注者间一致性κ值,指标示例:三位眼科医生κ≥0.85。3.模型性能公平性:报告各亚组AUC差异,指标示例:男性AUC=0.93,女性AUC=0.92,差异<0.02。4.可解释性:提供Top5影像区域热力图,指标示例:经临床医生评审,80%热力图焦点与视盘/视神经头区域重合。5.风险缓解:声明对抗样本检测机制,指标示例:在PGDε=4/255攻击下,误信率增加<3%。6.投诉与救济:设立30日内响应通道,指标示例:2024年试运行阶段投诉解决中位时间7天,满意度≥90%。37.简述“模型堆叠越狱”(ModelStackingJailbreak)攻击的原理,并给出两种防御方案及其成本评估。答案:原理:攻击者将目标大模型M0作为黑盒,利用若干辅助开源模型M1…Mn进行堆叠,每一层模型对输入进行改写或编码,使得最终输入到M0时绕过其安全对齐机制,诱导输出违规内容。防御方案:1.输入重构检测:在M0前端部署轻量级检测器D,采用对抗训练识别堆叠痕迹。成本:需额外GPU资源≈10%M0推理开销,延迟增加≈120ms。2.输出一致性校验:将M0输出再送入独立审核模型C进行二分类,若发现违规则拒绝返回。成本:需维护C模型,参数规模≈M0的20%,年运维费用≈$50k。38.结合2025年最新发布的ISO/IEC42005《人工智能系统审计指南》,说明对生成式大模型进行“供应链审计”时应重点核查的三类资产,并给出每类资产的抽样比例建议与审计方法。答案:1.数据资产:抽样比例≥30%训练数据桶,采用哈希一致性校验+来源授权链比对,使用SHA256与智能合约存证。2.代码资产:抽样比例100%第三方开源库,使用SCA工具(如FOSSA)扫描许可证冲突,重点核查GPL/AGPL传染性。3.模型资产:抽样比例100%版本迭代记录,采用reproducibilityaudit:重训10%数据量,验证损失曲线与报告误差<2%。五、综合案例分析题(共30分)39.案例背景:2025年6月,某跨国社交平台即将发布多语言大模型“NovaL”。该模型训练语料含公开网页、书籍、用户公开评论及经过去标识化的私信样本,总计4.8TB。平台计划在欧盟、拉美、东南亚同时上线,提供聊天、搜索增强、广告推荐三类服务。已知:训练过程采用联邦式预处理,数据分散在5国数据中心;模型参数量220B,使用MoE架构,激活参数量12B;已发现训练语料含0.7%儿童色情描述片段,已通过过滤脚本降至0.02%,但未完全清零;平台拟采用“用户举报+AI巡检”双通道内容审核,预计响应时间2小时;广告推荐模块基于用户画像实时生成,可能涉及政治竞选议题。问题:(1)从合规角度列出三项最紧迫的法律风险,并指出对应的法条或监管文件。(9分)(2)针对“儿童色情残留”问题,设计一套技术治理方案,要求给出数据清洗、模型去毒、上线监控三阶段的可量化指标。(9分)(3)若欧盟用户依据GDPR第22条提出“拒绝完全自动化决策”请求,平台应如何在广告推荐场景中实现“有意义的人工干预”?请给出流程图与关键节点时序。(9分)(4)从伦理沟通角度,撰写一份面向公众的200字声明,说明平台如何平衡创新与安全,需包含透明度、问责、救济三要素。(3分)答案:(1)a.违反《欧盟数字服务法》(DSA)第34条:未有效识别并移除儿童性虐待材料(CSAM),面临全

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论