版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2026年人工智能伦理基础考试试题及答案一、单项选择题(每题2分,共20分)1.2025年欧盟《人工智能责任指令》将“高风险AI系统”定义为:A.所有使用深度学习的系统B.可能对生命、健康、基本权利造成重大损害的系统C.参数量超过100亿的模型D.所有面向消费者的生成式AI产品答案:B解析:指令第3条明确以“重大损害风险”而非技术规模作为划分标准。2.在算法正义文献中,“差别性影响”(disparateimpact)的统计阈值通常采用:A.0.5规则B.80%规则C.95%置信区间D.p<0.01答案:B解析:80%规则源自美国《统一指导原则》,若某群体通过率低于最高通过率群体的80%,即构成差别性影响。3.联邦学习框架下,下列哪项技术最能缓解“模型反演攻击”导致的隐私泄露?A.差分隐私噪声注入B.梯度压缩C.知识蒸馏D.权重平均答案:A解析:差分隐私在梯度更新中加入校准噪声,可给出成员推理攻击的ε-δ隐私保证。4.根据2024年《人工智能伦理全球公约》,对“情感识别”系统的核心限制是:A.禁止在公共场所部署B.必须取得被识别者明示同意且提供离线替代方案C.算法需开源D.推理延迟不得超过100ms答案:B解析:公约第12条强调“明示同意+离线权”,未完全禁止公共场所使用。5.“可解释性”在医疗AI中的伦理价值,最不包含下列哪一项?A.提升医生对系统的信任B.降低误诊赔偿风险C.满足患者知情同意D.减少模型过拟合答案:D解析:过拟合是技术问题,与伦理价值无直接关联。6.若某招聘模型在女性群体上的假阴性率(FNR)显著高于男性,则依据“平等化机会”(EqualizedOdds)准则,应优先调整:A.阈值偏移B.特征选择C.损失函数权重D.后验校准答案:C解析:平等化机会要求FNR在敏感属性上相等,需对minority群体施加更高误拒代价。7.在强化学习人类反馈(RLHF)中,若标注员存在“道德分歧”,最佳处理策略是:A.直接平均奖励B.采用“反思均衡”(reflectiveequilibrium)多轮协商C.剔除离群标注D.改用规则引擎答案:B解析:反思均衡鼓励标注员在知情条件下修正自身偏好,减少简单平均带来的道德稀释。8.“数据主权”概念最先在哪份国际文件中被正式提出?A.2017年《中国人工智能发展规划》B.2018年《欧盟通用数据保护条例》C.2020年《OECDAI原则》D.2021年《联合国教科文组织建议书》答案:D解析:教科文组织2021文本首次将“数据主权”与“AI伦理”并置。9.对于生成式AI输出的“深度伪造”视频,下列哪项措施无法降低社会伤害?A.强制水印+签名验证B.平台实时检测+降权C.立法要求创作者购买责任保险D.提高模型参数规模答案:D解析:单纯扩大参数规模反而可能提升伪造质量。10.在“机器伦理”顶层设计中,罗尔斯“无知之幕”思想实验主要用于解决:A.算法可扩展性B.价值对齐的初始位置设定C.训练数据偏差D.推理加速答案:B解析:无知之幕帮助设计者在未知自身立场的情况下选择公平原则,用于价值对齐的初始契约。二、多项选择题(每题3分,共15分;多选少选均不得分)11.以下哪些做法符合“预防性伦理”(PrecautionaryEthics)原则?A.在缺乏充分伤害证据时暂停高风险实验B.对开源大模型实施分层许可C.要求所有AI系统提供可验证安全报告D.将伦理审查后置到产品上线后答案:A、B、C解析:D项将审查后置,违背“预防”精神。12.关于“算法审计”,正确的有:A.需由独立第三方执行B.应公开审计方法论C.可采用“白盒+黑盒”混合方法D.审计报告一旦通过即永久有效答案:A、B、C解析:AI系统迭代快,审计需定期复评,D错误。13.在“道德图形”(MoralGraph)方法中,节点可表示:A.规范陈述B.利益相关者C.价值冲突强度D.训练损失答案:A、B、C解析:训练损失属于技术指标,不直接出现在道德图形。14.以下哪些场景必须启动“伦理红线”机制?A.自主武器系统实战部署B.儿童情感陪伴机器人收集生物特征C.生成式AI在选举前72小时批量合成候选人语音D.工业质检AI误检率<0.01%答案:A、B、C解析:D项误检率极低且无重大权利侵害,无需启动红线。15.关于“解释性”与“准确性”的权衡,正确的有:A.在司法量刑场景,解释性优先B.在电网故障诊断,准确性优先C.可通过多目标优化寻找帕累托前沿D.二者必然不可兼得答案:A、B、C解析:D过于绝对,存在可解释且高精度的模型族。三、判断题(每题2分,共10分;正确打“√”,错误打“×”)16.根据“责任链”原则,若自动驾驶事故由感知模块错误引发,整车厂商可完全免责。答案:×解析:整车厂商承担最终产品责任,可向供应商追偿,但不能完全免责。17.联邦学习中,客户端数量越多,差分隐私的ε-差一定越小。答案:×解析:ε-差取决于噪声规模与聚合方式,客户端增多可能放大敏感度。18.“人类中心主义”伦理框架必然排斥动物福利考量。答案:×解析:弱人类中心主义可兼容动物间接义务论。19.若AI系统在训练数据外推区域性能骤降,则一定违反“泛化正义”(GeneralizationJustice)。答案:√解析:外推失败导致对边缘群体不公,违反该原则。20.生成式AI的“温度”参数越高,输出多样性越大,伦理风险一定越高。答案:×解析:风险还与内容过滤机制、使用场景有关,温度高≠风险必然高。四、简答题(每题10分,共30分)21.简述“价值敏感设计”(VSD)三阶段,并给出在智慧城市交通信号优化中的具体应用示例。答案:(1)概念阶段:识别利益相关者及其价值,如行人安全、公交优先、减少排放。(2)经验阶段:通过访谈、日志收集市民对信号时长的满意度,发现老年人过街时间不足。(3)技术阶段:将“老年人安全”量化为最小绿灯时长≥1.2×85岁群体步行速度×路宽,并在优化目标中加入该硬约束。解析:VSD强调价值应早于技术参数被固定,避免事后补丁。22.说明“模型卡”(ModelCard)应包含的伦理要素,并指出为何“预期用途”字段至关重要。答案:伦理要素:1.训练数据源与许可2.敏感属性分布3.跨族群性能指标4.已知偏差与缓解措施5.预期用途与超出用途的警告“预期用途”至关重要,因法院常以“超出合理使用”判定厂商过失;同时防止用户将面部识别模型用于情绪操纵等高风险场景。23.概述“道德溢出”(MoralOverflow)现象,并给出治理策略。答案:道德溢出指AI系统在原场景合规,但被迁移到新场景后产生伦理负外部性。例:为提升员工效率的键盘行为模型被雇主转为裁员依据。治理策略:1.设计时加入“场景锁定”技术,如输出水印声明仅限原场景;2.合同层面附加“用途限制”条款,设置高额违约金;3.立法引入“算法用途追踪”登记制度,重大变更需重新伦理审查。五、计算与建模题(共25分)24.(10分)某银行信贷模型在10000名申请者上运行,其中敏感属性A=1(少数群体)2000人,A=08000人。已知:|群体|批准人数|违约人数||A=1|600|120||A=0|5600|560|(1)计算两群体的违约率(PD)与通过率(ADR);(2)使用80%规则判断是否存在差别性影响;(3)若目标为使两群体PD相等,需对A=1群体额外批准多少名“边缘”客户(假设边缘客户违约概率为20%)?答案:(1)PD₁=120/600=0.2PD₀=560/5600=0.1ADR₁=600/2000=0.3ADR₀=5600/8000=0.7(2)ADR₁/ADR₀=0.3/0.7≈0.428<0.8∴存在差别性影响。(3)设额外批准x名边缘客户,则新违约人数=120+0.2x,新批准人数=600+x令(120+0.2x)/(600+x)=0.1解得:120+0.2x=60+0.1x0.1x=60x=600需额外批准600名边缘客户。25.(15分)某生成式对话模型在RLHF阶段使用人类反馈奖励模型rθ(x,y)。给定:策略π的旧分布参考策略π_refKL散度约束:𝔼π[KL(π||π_ref)]≤β目标:最大化𝔼π[rθ(x,y)]−λ𝔼π[KL(π||π_ref)](1)写出带约束的拉格朗日函数;(2)推导最优策略π(y|x)的解析式;(2)推导最优策略π(y|x)的解析式;(3)若β=0.1,λ=2,rθ(x,y)=1.5,π_ref(y|x)=0.2,求π(y|x)的数值。(3)若β=0.1,λ=2,rθ(x,y)=1.5,π_ref(y|x)=0.2,求π(y|x)的数值。答案:(1)L=𝔼π[rθ]−λ(𝔼π[KL(π||π_ref)]−β)=∑yπ(y|x)rθ(x,y)−λ∑yπ(y|x)log(π(y|x)/π_ref(y|x))+λβ(2)对π(y|x)求变分导并令为零:∂L/∂π(y|x)=rθ−λ(logπ+1−logπ_ref)=0⇒logπ=logπ_ref+(rθ−λ)/λ⇒π(y|x)=π_ref(y|x)exp(rθ(x,y)/λ−1)⇒π(y|x)=π_ref(y|x)exp(rθ(x,y)/λ−1)归一化后:π(y|x)=π_ref(y|x)exp(rθ(x,y)/λ)/Z(x)π(y|x)=π_ref(y|x)exp(rθ(x,y)/λ)/Z(x)其中Z(x)=∑y′π_ref(y′|x)exp(rθ(x,y′)/λ)(3)Z(x)=0.2·exp(1.5/2)=0.2·exp(0.75)≈0.2×2.117=0.4234π(y|x)=0.2×exp(0.75)/0.4234≈0.4234/0.4234=1.0π(y|x)=0.2×exp(0.75)/0.4234≈0.4234/0.4234=1.0(注:单token情形,概率质量集中)六、案例分析题(共30分)26.案例背景:2025年,G国某大型医院部署了基于Transformer的ICU死亡风险预测系统“Guardian-ICU”。系统每30分钟输出一次24小时内死亡概率P。临床指南规定:P≥0.7立即触发“家属谈话”流程;0.5≤P<0.7增加护士巡视频率;P<0.5维持常规护理。运行半年后,伦理委员会发现:1.低收入患者被触发“家属谈话”的比例显著高于高收入患者;2.系统对黑人患者的P平均高估0.12;3.护士反映“家属谈话”导致部分患者提前放弃治疗。任务:(1)指出至少三种可能的伦理根源(6分);(2)设计一项技术改进方案,并说明如何评估其公平性(12分);(3)从“伦理治理架构”角度,给出医院层面长期可持续的治理流程图(12分)。答案:(1)伦理根源:a.训练数据标注偏差:低收入、黑人患者历史救治资源少,死亡记录标签本身携带社会不平等;b.特征选择偏差:使用“保险类型”作为间接代理,强化经济歧视;c.反馈循环:过早谈话导致治疗强度下降,形成自我实现预言。(2)技术改进方案:步骤1:重新加权训练样本,采用“公平性约束”目标:min𝔼[L(y,ŷ)]s.t.|FPR_{black}−FPR_{white}|≤0.02|TPR_{low\_income}−TPR_{high\_income}|≤0.02步骤2:引入“不确定性分层”,当预测方差>0.08时,降级触发阈值,要求人工复核;步骤3:使用“反事实公平”检验:若将患者种族改为白人后预测概率变化>0.05,则标记为潜在不公。评估:使用“公平性-性能”帕累托曲线,选择AUC下降≤1%且公平约束满足的最优模型;前瞻性RCT:随机抽取20%患者使用新模型,比较30天存活率与谈话率差异。(3)治理流程图:1.伦理审查委员会(ERC)每季度审查性能与公平性指标;2.设立“算法投诉”热线,患者家属可申诉谈话决策;3.引入外部独立审计机构年审,结果公开于医院官网;4.建立“红线”触发:若任意群体PD差异>0.15,立即停用并回滚;5.持续教育:对ICU护士进行“算法素养”培训,避免机械依赖概率值。七、论述题(20分)27.请结合“存在性风险”(x-risk)与“权利风险”(r-risk)框架,论证为何对通用人工智能(AGI)的治理应优先关注“恶意使用”而非“意外失控”,并给出国际治理机制设计要点。答案要点:1.定义:x-risk:导致人类灭绝或不可逆文明崩溃的风险;r-risk:大规模、系统性侵犯基本权利的风险。2.论证:a.时间尺度:恶意使用可在AGI能力阈值附近立即发生,而意外失控需突破多个技术安全阈值;b.历史先例:核武器、生化武器显示,人类对“恶意使用”的抑制远难于对“事故”的工程冗余;c.不对称性:恶意使用者主动寻找系统最弱点,而意外失控依赖系统内部故障概率。3.国际机制设计:建立“AGI恶意使用情报共享”条约,要求
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 医院创卫办工作制度
- 医院设备科工作制度
- 半导体行业工作制度
- 单位阅览室工作制度
- 卫检部内部工作制度
- 卫生院禁毒工作制度
- 运城市2026国家开放大学护理学-期末考试提分复习题(含答案)
- 县委周例会工作制度
- 县禁毒工作制度汇编
- 县长信箱工作制度范本
- 《研学旅行课程设计》课件-1研学课程学生手册设计
- 关于高考评价体系
- 油田地面工程简介
- ISO27001最新版信息风险评估表
- 商铺出租可行性方案
- 写字楼物业各项应急预案
- 基于无人机的公路基础设施健康监测与安全预警系统设计
- 2023年非车险核保考试真题模拟汇编(共396题)
- 市场监管总局直属事业单位招聘考试题库2023
- 高三通用技术专题复习草图设计-转动类连接件
- 2022-2023年明纬开关电源手册
评论
0/150
提交评论