2025年人工智能伦理法规知识竞赛试卷及答案_第1页
2025年人工智能伦理法规知识竞赛试卷及答案_第2页
2025年人工智能伦理法规知识竞赛试卷及答案_第3页
2025年人工智能伦理法规知识竞赛试卷及答案_第4页
2025年人工智能伦理法规知识竞赛试卷及答案_第5页
已阅读5页,还剩23页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2025年人工智能伦理法规知识竞赛试卷及答案一、单项选择题(每题1分,共30分。每题只有一个正确答案,错选、多选均不得分)1.2024年3月欧盟议会正式通过的《人工智能法案》将“实时远程生物识别系统”在公共场所的使用默认归类为A.最小风险类B.有限风险类C.高风险类D.禁止类答案:D解析:法案第5条明确禁止在公共场所使用实时远程生物识别系统,除非符合极少数例外(如恐怖袭击预警),故默认属于禁止类。2.我国《生成式人工智能服务管理暂行办法》要求服务提供者对违法内容采取“3小时”处置措施,该时限起算点为A.用户上传完成时B.系统首次抓取到时C.监管部门转办通知书送达时D.服务提供者自发现或接到投诉时答案:D解析:办法第14条第2款规定“自发现或接到投诉举报之时起3小时内采取处置”,体现“自知悉”标准。3.下列哪一项不属于欧盟AI法案规定的“高风险AI系统”部署者义务?A.进行基本权利影响评估B.向用户公开算法源代码C.确保人类监督D.保存自动生成的日志答案:B解析:法案第29条要求透明度、监督、日志留存等,但并未强制公开源代码,仅要求提供足够信息以便监管。4.2025年1月起施行的《深圳市人工智能产业促进条例》首创的“伦理审查绿色通道”适用于A.所有医疗AI产品B.列入市科技重大专项的AI项目C.已获FDA认证的进口AI器械D.注册资本低于1000万元的初创企业答案:B解析:条例第38条规定,对市科技重大专项且通过伦理初审的项目,可进入绿色通道,缩短审批时限50%。5.根据OECD2023年修订的AI原则,下列哪项最能体现“稳健性(Robustness)”要求?A.算法可解释性报告公开B.对抗样本测试纳入研发流程C.设立AI伦理委员会D.建立用户申诉通道答案:B解析:对抗样本测试直接检验系统在异常输入下的稳健性,是OECD对“robust”定义的核心技术措施。6.我国《深度合成规定》要求对“可能导致公众混淆或误认”的深度合成内容必须A.添加数字水印B.获得被合成对象书面同意C.在画面左上角标注“AI合成”D.向网信办备案算法模型答案:A解析:规定第17条强制添加“显著标识”并鼓励使用数字水印,实现可追溯,而非仅文字标注。7.欧盟AI法案对通用大模型(GPAI)设定的“系统性风险”阈值是A.参数量超过10亿B.训练算力高于10^23FLOPsC.月活用户超过4500万D.年营收超过1亿欧元答案:C解析:法案第51条采用“月活4500万”作为触发额外义务的门槛,与DSA保持一致。8.2025年《韩国AI基本法》规定的“AI灾难”最高罚款额度为A.30亿韩元B.50亿韩元C.70亿韩元D.100亿韩元答案:D解析:该法第94条将“AI灾难”罚款上限设定为100亿韩元,并可以按销售额5%叠加。9.我国《个人信息保护法》第62条授权国家网信部门牵头制定“人脸识别技术”专门规定,该授权期限为A.1年B.2年C.3年D.5年答案:C解析:第62条明确“三年内”出台专门规定,2021年11月生效,故2024年11月前需完成。10.下列关于“AI沙盒”监管工具的说法正确的是A.仅适用于禁止类AI系统B.企业进入沙盒即豁免所有民事责任C.欧盟法案允许3年期内暂停部分条款适用D.我国目前尚未建立任何AI沙盒机制答案:C解析:欧盟法案第57条创设“AI监管沙盒”,允许3年内暂停部分条款以测试创新,但民事责任不免除。11.根据ISO/IEC23894:2023,AI风险管理中“影响度(Impact)”评估不包括A.对生态环境的潜在破坏B.对股东短期股价的影响C.对基本权利的侵害D.对关键基础设施的干扰答案:B解析:标准聚焦安全、人权、基础设施等,股价波动属于市场行为,不在影响度评估核心范围。12.我国《科技伦理审查办法(试行)》要求对“具有舆论社会动员能力”的算法,伦理审查委员会必须包含A.法律专家B.心理学专家C.社会学专家D.以上全部答案:D解析:办法第12条要求跨学科构成,对涉及舆论动员的算法需法律、心理、社会三方专家。13.欧盟AI法案中,下列哪项属于“生物识别分类系统”被禁止的情形?A.区分员工与访客B.按性别推送广告C.推断种族或政治观点D.识别VIP客户答案:C解析:第5条第1款(c)禁止依据生物数据推断种族、政治倾向等敏感属性,无论场景。14.2025年4月,我国首例“AI文生图”著作权侵权案判决中,法院认定AI生成物可受保护的核心要件是A.模型参数超过百亿B.用户通过提示词体现个性化选择C.平台方进行人工二次修改D.生成内容具备“视听作品”形式答案:B解析:北京互联网法院强调用户对提示词、参数、迭代次数的个性化选择体现独创性,符合著作权法。15.根据《人工智能伦理风险指引(2024)》,企业应建立“红队测试”制度,其测试频次至少为A.每季度一次B.每半年一次C.每年一次D.仅在上线前一次答案:B解析:指引第5.3.2条要求高风险系统每半年组织一次红队测试,并出具报告。16.欧盟AI法案对“情感识别系统”在职场环境使用的核心限制是A.必须获得工会书面同意B.必须向雇员提供算法解释C.必须取得雇员明示同意且不得用于不利决定D.必须匿名化处理答案:C解析:第5条第1款(f)禁止基于情感识别做出对雇员不利决定,且需明示同意。17.我国《数据出境安全评估办法》规定,包含“人脸信息”1万人以上即触发A.自评估B.省级网信办评估C.国家网信办评估D.行业主管部门评估答案:C解析:办法第4条将“人脸信息”纳入敏感个人信息,1万人以上需报国家网信办评估。18.2025年G7广岛进程发布的“生成式AI企业自律十条”中,不包括A.公开训练数据来源B.禁止生成儿童色情C.限制模型容量D.部署前后安全测试答案:C解析:十条聚焦内容安全、透明度、测试,但未对模型容量做数值限制。19.根据《上海市促进人工智能产业发展条例》,对“AI+医疗”产品实行A.上市前强制第三方伦理认证B.上市后两年内持续监测C.豁免临床试验D.仅备案即可销售答案:B解析:条例第42条创设“上市后两年持续监测”制度,收集真实世界数据。20.欧盟AI法案对“高风险系统”的CE标识有效期为A.1年B.3年C.5年D.10年答案:C解析:根据法案第48条,CE证书有效期5年,期满需重新合格评定。21.我国《互联网信息服务算法推荐管理规定》要求具有“舆论属性”的算法备案需在A.上线前30个工作日B.上线前10个工作日C.上线后30个工作日D.上线后10个工作日答案:B解析:规定第24条明确“上线前10个工作日”履行备案。22.欧盟AI法案对“通用大模型”提出的“版权披露”义务要求公开A.训练数据完整列表B.受版权保护作品数量C.用于训练的版权作品摘要D.已采取的版权授权措施答案:D解析:第53条要求提供“足够详细的版权授权摘要”,而非完整列表。23.2025年《新加坡ModelAIGovernance3.0》将“可验证审计”技术列为A.自愿最佳实践B.强制技术要求C.仅适用于政府项目D.仅适用于金融AI答案:A解析:3.0版保持“自愿”属性,但首次引入“可验证审计”技术指南。24.我国《网络安全标准实践指南—人工智能伦理安全风险防范》将“算法歧视”分为A.数据、模型、应用三层B.个体、群体、社会三层C.技术、制度、文化三层D.直接、间接、系统三层答案:A解析:指南第4.1条提出数据偏见、模型偏见、应用偏见三层框架。25.欧盟AI法案对“AI监管沙盒”企业提出的“退出报告”需在结束测试后A.15天内提交B.30天内提交C.60天内提交D.90天内提交答案:B解析:第57条第6款要求30天内提交包含风险评估与缓解措施的退出报告。26.我国《个人信息保护法》第55条规定的“个人信息保护影响评估”保存期限至少A.1年B.2年C.3年D.5年答案:C解析:第55条第2款明确保存3年,以备监管检查。27.欧盟AI法案对“高风险系统”的人类监督要求中,允许A.完全自动化决策B.关键决策需人类确认C.仅上线前人类审查D.仅日志阶段人类介入答案:B解析:第14条要求“人类监督”必须能在关键节点推翻系统输出。28.2025年《印度数字个人数据保护法》将“AI自动化决策”同意的形式限定为A.书面签名B.电子签名C.可验证的明示同意D.默示同意答案:C解析:第7条排除默示,要求“可验证”的明示,包括点击、生物识别等。29.我国《科技伦理审查办法》规定,伦理委员会作出“修改后重审”决定,企业可在A.10日内补充材料B.20日内补充材料C.30日内补充材料D.60日内补充材料答案:C解析:第22条设定30日补充期限,逾期视为撤回。30.欧盟AI法案对“禁止AI实践”的罚款最高可达A.1000万欧元或全球营业额2%B.1500万欧元或全球营业额3%C.2500万欧元或全球营业额4%D.3500万欧元或全球营业额7%答案:D解析:第99条第1款设定最高3500万欧元或全球营业额7%,以高者为准。二、多项选择题(每题2分,共20分。每题有两个或两个以上正确答案,多选、少选、错选均不得分)31.以下哪些场景属于我国《生成式人工智能服务管理暂行办法》所称的“向公众提供服务”?A.企业内部知识库问答B.面向公众的免费AI绘画小程序C.需登录才能使用的付费AI写作SaaSD.开源模型仓库仅提供下载答案:B、C解析:办法第2条以“向公众提供”为核心,B、C均面向不特定公众;A为内部使用,D未直接提供服务。32.欧盟AI法案对“高风险系统”合格评定程序包括A.内部质量控制B.第三方公告机构评审C.欧盟议会听证D.技术文档审查答案:A、B、D解析:法案第43条允许内部控制或第三方评审,并需提交技术文档;无需议会听证。33.我国《深度合成规定》要求深度合成服务提供者应当A.建立辟谣机制B.对使用者进行真实身份认证C.保存合成日志不少于6个月D.对合成内容添加隐式水印答案:B、C解析:规定第15、16条要求实名与日志留存6个月;辟谣非强制,隐式水印仅为鼓励。34.根据ISO/IEC42001:2023,AI管理体系“PDCA”循环中“C”阶段包括A.内部审核B.管理评审C.风险再评估D.纠正措施答案:A、B、C解析:标准第9条“检查”阶段含内部审核、管理评审、持续风险再评估;D属于“A”阶段。35.2025年《中国人工智能伦理规范(修订)》新增“绿色AI”要求,具体包括A.训练能耗披露B.碳排放抵消C.使用可再生能源比例目标D.模型压缩技术指引答案:A、C、D解析:修订版第6条引入能耗披露、可再生能源比例、模型压缩;未强制碳抵消。36.欧盟AI法案对“通用大模型”提出的系统性风险缓解措施包括A.红队测试B.供应链审查C.模型权重加密D.向当局报告严重事件答案:A、B、D解析:第55条要求红队、供应链、事件报告;权重加密未强制。37.我国《互联网信息服务算法推荐管理规定》禁止的“诱导沉迷”手段包括A.无限下拉刷新B.时间戳提示C.弹窗诱导青少年打赏D.个性化推送学习资料答案:A、C解析:规定第8条禁止诱导沉迷;时间戳提示为鼓励,学习推送不受限。38.根据《人工智能伦理风险指引(2024)》,企业伦理委员会应具有的职能包括A.伦理审查B.合规审计C.技术标准制定D.社会责任报告发布答案:A、B、D解析:指引第7.1条明确审查、审计、报告;技术标准由技术部门主导。39.欧盟AI法案对“AI监管沙盒”设定的保护性措施包括A.测试数据不得用于商业推广B.参与者免于所有民事赔偿C.主管当局全程监督D.测试周期最长4年答案:A、C解析:第57条要求数据隔离、当局监督;民事赔偿不免,周期最长3年。40.我国《个人信息保护法》规定的“敏感个人信息”包括A.行踪轨迹B.金融账户C.14岁以下儿童信息D.宗教信仰答案:C、D解析:第28条明确儿童信息与宗教信仰为敏感;行踪轨迹、金融账户需结合场景判断。三、判断题(每题1分,共10分。正确打“√”,错误打“×”)41.欧盟AI法案允许成员国在公共场所临时部署禁止类实时生物识别系统以寻找走失儿童。答案:×解析:法案第5条第2款仅允许“恐怖袭击或重大刑事”例外,走失儿童不在列。42.我国《生成式人工智能服务管理暂行办法》要求服务提供者建立投诉举报入口,并在显著位置公示。答案:√解析:办法第15条强制公示投诉入口。43.根据ISO/IEC23894:2023,AI风险矩阵中“可能性”维度仅考虑技术故障概率,不考虑人为滥用。答案:×解析:标准第6.2条明确需综合技术、人为、环境等多因素。44.2025年《北京市人工智能伦理规范》首次将“AI幻觉”纳入产品缺陷范畴。答案:√解析:规范第3.2条把“幻觉导致误导”列为产品缺陷,可触发召回。45.欧盟AI法案对“高风险系统”的技术文档可用中文编写,无需翻译。答案:×解析:第11条要求使用欧盟官方语言之一,中文不被接受。46.我国《深度合成规定》要求平台对“显著标识”至少覆盖画面5%面积。答案:×解析:规定未量化面积,仅要求“显著”。47.根据《上海市促进人工智能产业发展条例》,伦理审查意见可作为科创板上市问询回复材料。答案:√解析:条例第39条明确伦理审查报告可作为合规证明。48.欧盟AI法案对“通用大模型”提出的“版权披露”义务适用于开源模型。答案:√解析:第53条不区分开源与闭源,均须披露授权措施。49.我国《个人信息保护法》规定,处理敏感个人信息必须获得“单独同意”,但“书面同意”不是强制形式。答案:√解析:第29条允许“单独同意”可通过电子形式,不强制书面。50.2025年《中国人工智能伦理规范》将“AIforGood”纳入企业ESG强制披露指标。答案:×解析:规范为自愿性,ESG强制披露尚未立法。四、填空题(每空1分,共10分)51.欧盟AI法案将AI风险分为________、________、________、________四类。答案:禁止、高风险、有限、最小52.我国《生成式人工智能服务管理暂行办法》规定,发现违法内容应立即采取________、________、________等处置措施。答案:停止生成、停止传输、消除53.ISO/IEC42001:2023中,AI管理体系的最高管理者应确保建立________方针,并与组织战略________。答案:AI伦理、一致54.根据《人工智能伦理风险指引(2024)》,红队测试报告应至少保存________年,并向________部门备案。答案:3、省级科技伦理55.欧盟AI法案对“高风险系统”的人类监督必须保证________权,即在关键节点可________系统输出。答案:否决、推翻五、简答题(每题6分,共18分)56.简述欧盟AI法案对“通用大模型(GPAI)”设定的两项新增义务及其立法理由。答案:1.版权披露义务:须公开用于训练的版权作品授权摘要,旨在解决大规模文本挖掘带来的著作权争议,提升产业链透明度。2.系统性风险缓解:当月活超4500万时,需进行红队测试、供应链审查、事件报告,防止大模型被滥用产生社会级风险,如深度伪造、极端内容生成。立法理由:平衡技术创新与公共利益,防止“黑箱”训练数据侵权及模型能力失控,借鉴DSA平台治理经验,采用“大即责任”思路。57.我国《生成式人工智能服务管理暂行办法》如何构建“政府—企业—社会”三元协同治理机制?答案:政府:国家网信部门牵头,会同发改、教育、公安等建立部际联动,制定分类分级监管清单,对违法企业实施罚款、暂停服务。企业:履行主体责任,建立语料安全、模型调优、用户举报、版权审核等全链条制度,指定算法责任人,定期提交风险报告。社会:鼓励用户举报违法内容,支持行业协会制定团体标准,推动第三方检测机构开展合规审计,形成舆论监督。通过“备案+抽查+信用”方式,实现快速响应与精准监管,避免“一刀切”。58.简述ISO

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论