2026年人工智能伦理(规范实操)试题及答案_第1页
2026年人工智能伦理(规范实操)试题及答案_第2页
2026年人工智能伦理(规范实操)试题及答案_第3页
2026年人工智能伦理(规范实操)试题及答案_第4页
2026年人工智能伦理(规范实操)试题及答案_第5页
已阅读5页,还剩13页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2026年人工智能伦理(规范实操)试题及答案一、单项选择题(每题2分,共20分)1.2026年欧盟《人工智能责任指令》将“高风险AI系统”定义为:A.所有使用深度学习的系统B.可能对生命、健康、基本权利造成重大损害的系统C.参数量超过1000亿的模型D.所有面向消费者的聊天机器人答案:B解析:欧盟立法以“损害可能性”而非技术规模作为风险分级核心,避免“一刀切”。2.在联邦学习场景下,以下哪项做法最符合“数据最小化”原则?A.各参与方上传完整原始梯度B.使用差分隐私噪声掩盖梯度C.将数据集中至云端再训练D.允许模型记忆个人ID答案:B解析:差分隐私可在不暴露原始信息的前提下完成协同训练,严格满足最小化。3.当AI用于信用评分时,根据2026年《算法公平合规指引》,应优先采用哪项指标评估歧视?A.准确率B.AUC-ROCC.均等机会差异(EqualOpportunityDifference)D.F1-score答案:C解析:均等机会差异直接衡量不同群体间真阳性率差异,与信贷公平高度相关。4.某医院使用AI辅助诊断,患者要求“拒绝AI参与治疗”,医生正确的做法是:A.告知患者AI准确率更高,劝其接受B.尊重患者意愿,切换纯人工流程并记录C.让患者签署“后果自负”声明后继续使用AID.拒绝收治该患者答案:B解析:患者自主权优先是《医疗AI伦理公约》第5条明文规定。5.在生成式AI输出检测中,以下哪种水印技术对二次编辑鲁棒性最高?A.最低有效位(LSB)B.频率域扩频水印C.明文哈希D.时间戳答案:B解析:扩频水印将信号嵌入频域,可抵抗裁剪、压缩、重采样等编辑。6.2026年《人工智能环境影响评估规范》要求,训练单模型能耗超过多少度电必须披露碳足迹?A.100B.500C.1000D.10000答案:C解析:1000度电约对应0.5tCO₂,是触发强制披露的阈值。7.当AI系统出现“幻觉”导致用户经济损失,开发者援引“技术中性”主张免责,法院通常如何认定?A.一律免责B.仅当开发者证明已采取“最佳实践”且损害不可预见时部分免责C.开发者承担全部责任D.由用户承担答案:B解析:2026年《AI产品责任司法解释》第7条引入“可预见性+最佳实践”双重测试。8.以下关于“可解释性”描述正确的是:A.所有模型都必须提供全局解释B.仅金融风控模型需要解释C.解释需与风险等级成正比,高风险场景须提供局部+全局解释D.黑盒模型天然不符合伦理答案:C解析:比例原则避免过度解释带来的商业机密泄露与性能损失。9.在AI招聘工具中,若发现性别变量被“代理变量”间接还原,最合规的处置是:A.删除代理变量后重新训练B.降低女性样本权重C.引入公平约束优化目标D.直接关闭系统答案:C解析:代理变量难以穷尽,公平约束可在优化阶段限制歧视幅度。10.2026年《生成式AI服务管理办法》规定,服务提供者应保存用户输入与输出日志至少:A.7天B.30天C.6个月D.3年答案:C解析:6个月是追溯侵权、违法内容的最短周期,兼顾存储成本与监管需求。二、多项选择题(每题3分,共30分;多选少选均不得分)11.以下哪些行为构成“算法共谋”?A.多家企业使用同一第三方定价AI,AI自发形成价格联盟B.企业高管明示AI供应商“参考竞争对手价格”C.AI系统通过公开数据学习后输出一致高价D.企业定期手动调整规则,但规则与AI输出高度一致答案:A、B、D解析:C属于市场自然结果,缺乏主观故意,不构成共谋。12.在AI伦理审查委员会(AI-IRB)的组成中,必须包含:A.法律专家B.数据科学专家C.终端用户代表D.企业财务总监答案:A、B、C解析:财务总监与伦理审查无直接关联,不必强制加入。13.关于“红队测试”描述正确的有:A.应在模型部署前完成B.需模拟恶意使用者行为C.只需测试一次即可终身有效D.结果应形成书面报告并归档答案:A、B、D解析:模型更新后需重新测试,C错误。14.以下哪些技术可有效降低深度伪造(Deepfake)的滥用风险?A.内容溯源元数据(C2PA)B.人脸活体检测C.区块链时间戳D.强制降低视频分辨率至240p答案:A、B、C解析:降低分辨率无法阻止伪造,反而影响正常用途。15.在AI辅助司法量刑中,必须遵循的原则有:A.公开源代码B.被告有权质疑模型决策C.法官可完全依赖AI结论D.提供替代性量刑情景答案:B、D解析:源代码公开可能泄露专利,A非强制;法官需保留最终裁量权,C错误。16.以下属于“AI伦理影响评估”(AIA)核心维度?A.人权影响B.环境可持续性C.股东回报率D.供应链劳工标准答案:A、B、D解析:股东回报率属于财务指标,与伦理评估无直接关联。17.当AI用于儿童教育时,需额外关注:A.认知发展适宜性B.数据监护权C.广告植入数量D.模型推理速度答案:A、B、C解析:推理速度影响体验,但不属于伦理核心。18.关于“模型卡”(ModelCard)必须披露的信息有:A.训练数据来源与规模B.适用人群与限制C.碳排放估算D.模型参数商业价值答案:A、B、C解析:商业价值非伦理披露要求。19.以下哪些做法有助于实现“包容性设计”?A.使用方言语音数据B.为视障者提供语音接口C.将默认头像设为白人男性D.提供多文化语境测试答案:A、B、D解析:C反而强化刻板印象。20.在AI医疗临床试验中,属于“数字孪生”伦理风险的有:A.虚拟患者可能泄露真实病人特征B.模拟结果误导医生C.减少动物实验D.降低试验成本答案:A、B解析:C、D是收益而非风险。三、判断题(每题2分,共20分;正确打“√”,错误打“×”)21.2026年后,所有AI系统都必须在欧盟设立“算法代表人”。答案:×解析:仅高风险系统需设代表。22.使用合成数据可完全消除隐私泄露风险。答案:×解析:合成数据仍可能通过成员推理攻击还原真实信息。23.“人类在环”(Human-in-the-loop)意味着每一步决策都需人类确认。答案:×解析:仅需在关键节点保留人类干预权。24.联邦学习不需要GDPR合规,因为数据不出本地。答案:×解析:模型参数也可能包含个人信息,仍需合规。25.可解释性越高,模型性能一定越低。答案:×解析:新技术如可解释Boosting可在保持性能的同时提供解释。26.AI系统若开源,则开发者不再承担伦理责任。答案:×解析:开源豁免商业责任,但不豁免伦理及安全责任。27.“算法审计”只能由第三方机构完成。答案:×解析:企业可先做内部审计,再接受第三方复核。28.在AI生成内容中嵌入隐形水印属于“技术保障措施”。答案:√解析:符合《生成式AI服务管理办法》第12条。29.2026年起,中国要求所有AI产品必须通过“国家算法备案”才能上线。答案:×解析:仅具有舆论属性或社会动员能力的算法需备案。30.使用AI进行情绪识别时,必须获得数据主体的“明示同意”。答案:√解析:情绪数据属于敏感个人信息,需明示同意。四、简答题(每题10分,共30分)31.简述“差别性影响”(DisparateImpact)与“差别性对待”(DisparateTreatment)在AI招聘中的区别,并给出各自的一个例子。答案:差别性影响指表面上中立的做法对受保护群体产生不成比例的负面影响,例如:AI筛选简历时以“距离公司通勤时间”为特征,间接导致偏远地区(多为少数族裔)被大量淘汰。差别性对待则是算法明确使用受保护属性进行区分,例如:系统直接降低“女性”简历评分。前者无需主观故意,后者存在明显歧视意图。32.说明“红队测试”与“对抗样本测试”在目标、方法、输出三方面的差异。答案:目标:红队测试旨在发现伦理、安全、政策违规风险;对抗样本测试专注于模型鲁棒性。方法:红队采用社会工程、提示注入、角色扮演等多手段;对抗样本通过数学扰动生成。输出:红队生成风险场景报告与修复建议;对抗样本提供扰动示例与鲁棒性曲线。33.某市部署“AI情绪识别”系统用于地铁安检,引发舆论争议。请从必要性、比例性、替代性三方面提出伦理改进方案。答案:必要性:重新评估是否真需情绪识别,若仅为提升安检效率,可改用物品识别AI,降低侵入性。比例性:将“实时识别”改为“事后抽查”,减少大规模监控;准确率低于85%时禁用。替代性:引入“自愿快速通道”,乘客可选择传统人工安检,避免强制采集生物特征。五、计算题(共20分)34.某银行使用AI进行信贷审批,训练数据含10000条样本,其中女性4000条,男性6000条。模型批准后,女性批准3200条,拒绝800条;男性批准5400条,拒绝600条。(1)计算女性与男性的批准率。(4分)(2)计算均等机会差异(EqualOpportunityDifference,EOD)。(4分)(3)若监管机构要求|EOD|≤0.05,判断是否合规,并给出调整思路。(4分)(4)假设女性违约率为5%,男性为4%,利用贝叶斯公式计算P(违约|女性)与P(违约|男性),并讨论是否影响公平性判断。(8分)答案与解析:(1)女性批准率=3200/4000=0.8;男性批准率=5400/6000=0.9。(2)EOD=女性批准率−男性批准率=0.8−0.9=−0.1。(3)|−0.1|>0.05,不合规。调整思路:在训练目标中加入均等机会约束,使用阈值优化或重加权,使两群体真阳性率差异降至0.05以内。(4)设事件G表示女性,B表示男性,D表示违约。已知P(D|G)=0.05,P(D|B)=0.04。由贝叶斯公式:P(G|D)==P(B|D)=1−0.4545=0.5455。结论:违约人群中女性占比45.45%,男性54.55%,与人口比例(女40%,男60%)接近,说明违约率差异不大。若模型因违约率微小差异而设置不同阈值,可能引入不必要的歧视,应进一步检验阈值差异是否显著影响EOD。六、案例分析题(共30分)35.背景:2026年,A公司上线“AI作文批改”SaaS,面向中小学。系统收集学生作文原文、打字节奏、摄像头表情,输出评分与点评。家长投诉:1.孩子作文被用于训练未获同意;2.系统推荐“模板化”表达,抑制创造力;3.摄像头持续开启疑似侵犯隐私。问题:(1)列出涉及的主要伦理原则冲突。(6分)(2)从“数据治理”角度提出三条整改措施。(6分)(3)若公司希望保留表情分析功能,如何获得“监护人明示同意”?(6分)(4)设计一项“创造力保护”算法机制,避免模板化误导。(6分)(5)建立“学生申诉”通道,需包含哪些功能模块?(6分)答案与解析:(1)冲突原则:a.知情同意vs商业再利用;b.儿童最佳利益vs利润最大化;c.隐私权vs行为数据增值;d.教育多样性vs模板效率。(2)数据治理整改:a.建立“儿童数据专用池”,默认不用于后续训练;b.引入可撤销同意机制,家长一键删除;c.对打字节奏、表情数据做本地预处理,仅上传匿名特征向量。(3)明示同意流程:a.提供“视频演示+图文”说明数据用途、存储期限、第三方共享情况;b.采用“双因子确认”:家长短信+学生账号密码双重验证;c.设置“分级同意”,允许家长仅开启作文批改而关闭表情分析。(4)创造力保护机制:a.采用多样性强化学习目标,奖励与范文差异度高的表达;b.引入“创造性分数”与“规范分数”双轨制,前者权重≥40%;c.对连续三次使用同一模板的学生触发“创意提示”,推送开放性写作素材。(5)申诉通道模块:a.身份核验(学生学号+家长手机);b.申诉类型(隐私、评分、创意抑制);c.72小时内人工回访;d.处理结果可导出PDF用于教育局投诉;e.匿名案例公开,形成透明度报告;f.申诉期间冻结相关数据使用。七、论述题(共20分)36.2026年,生成式AI已能创作高质量学术论文。请论述:(1)“作者身份”认定的伦理挑战;(5分)(2)学术期刊如何建立“AI贡献披露”制度;(5分)(3)同行评审环节如何识别AI生成内容;(5分)(4)如何平衡“技术便利”与“学术诚信”。(5分)答案与解析:(1)挑战:传统作者需对研究诚信负责,AI无法承担道德与法律责任;生成式AI可能隐藏重大缺陷,导致责任真空;多人协作时难以界定“谁对哪部分负责”。(2)制度:期刊在投稿系统增设“AI贡献声明”字段,强制填写AI名称、版本、提示词、使用段落;引入ORCID式“AI-ID”,为每款AI分配永久标识;对隐瞒使用者,一经查实5年禁投。(3)识别:采用“红蓝对抗”评审,蓝队使用AI检测工具(如基于水印、统计特征、困惑度);评审专家随机收到“AI改写”与“人工原文”对照,提升识别敏感度;对高可疑稿件要求提供原始数据、代码、实验日志

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论