计算与人工智能通识(微课版)-课件 第8章 人工智能伦理与安全_第1页
计算与人工智能通识(微课版)-课件 第8章 人工智能伦理与安全_第2页
计算与人工智能通识(微课版)-课件 第8章 人工智能伦理与安全_第3页
计算与人工智能通识(微课版)-课件 第8章 人工智能伦理与安全_第4页
计算与人工智能通识(微课版)-课件 第8章 人工智能伦理与安全_第5页
已阅读5页,还剩42页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第8章

人工智能伦理与安全CONTENTS目录8.1

人工智能伦理概述8.2

人工智能的安全挑战8.3

典型案例分析8.1

人工智能伦理概述8.1.1

人工智能伦理的概念和发展1.伦理与人工智能伦理“伦理”指的是人伦道德之理,指人与人相处的各种道德准则。科技伦理指的是科技活动中人与人、人与机器之间的道德准则和行为规范。人工智能伦理指的是人工智能相关活动中引发的道德和伦理问题,是伦理在人工智能这一特定领域的应用和延伸。1.伦理与人工智能伦理人工智能伦理的发展与计算机伦理的发展紧密相连,大致经历以下三个阶段。①20世纪40年代至90年代的孕育奠基期,但人工智能伦理尚未形成。②20世纪90年代至2016年的分化独立阶段,推动人工智能伦理从计算机伦理中分化并走向独立。③2016年至今的全球治理阶段,全球正致力于构建完善的治理体系和法律框架,力求在技术快速发展与伦理规范之间达成动态平衡。2.人工智能伦理困境(1)数据隐私与保护困境人工智能系统的决策和训练依赖海量数据,个人隐私保护在整个数据处理的流程中出现的问题众多,包含数据收集、存储、使用等环节。(2)算法偏见与歧视困境算法也存在偏见。人工智能算法设计时,数据不全面、数据标注和算法设计者的主观意识等,使得设计中出现偏见。不同人群在人工智能系统中得不到公平对待。2.人工智能伦理困境(3)责任归属不清困境当人工智能系统出现错误或造成损害时,权责如何划分也是一个难题。(4)透明度与可解释性困境人工智能使用的众多深度学习算法模型,由于深度太深,模型复杂,难以解析内部的决策过程,这一过程被称为决策过程的“黑箱”属性。(5)道德主体地位困境具有自主意识的人工智能或机器人,其不当行为对人类造成伤害时,责任界定将会变得更加复杂。2.人工智能伦理困境(6)技术滥用风险困境人工智能技术就像一把双刃剑,一旦被滥用,就会对社会造成严重的危害。(7)就业结构冲击困境当前生成式人工智能技术的突破性发展,正对知识密集型行业的程序化工作产生颠覆性影响。(8)数字鸿沟困境不同国家、地区、行业、组织及社区之间,在数字基础设施覆盖、核心技术应用、数据资源获取等方面形成显著差异。8.1.2

数据隐私与伦理问题1.数据隐私的概念数据隐私包含在数据收集、存储、传输、共享与使用、挖掘和预测过程中需要保护的、不宜公开的信息。8.1.2

数据隐私与伦理问题2.数据隐私泄露的方式(1)数据采集的合法性数据采集是数据进入人工智能系统的入口,其合法性是保护用户隐私的前提。(2)数据存储的安全性数据存储中涉及的硬件、软件以及系统安全策略存在缺陷都可能成为安全漏洞。2.数据隐私泄露的方式(3)数据传输的安全性首先,合法的授权流程是数据传输安全的基础。其次,传输协议的安全性对数据传输至关重要。最后,遵循相关行业规范与法律法规进行数据传输是保障数据安全的必要条件。(4)数据共享与使用的合规性合法合规的数据共享与使用能够推动社会进步,违规的数据共享和使用将损害用户的权益,还可能带来不可预估的风险和危害。2.数据隐私泄露的方式(5)数据挖掘和预测的透明性人工智能技术应用的核心环节是数据挖掘和预测。如何确保这一过程的透明性,是避免对个人隐私造成侵犯的关键所在。3.数据泄露与隐私保护问题的治理(1)法律法规全球各国政府和组织已制定与数据隐私保护相关的法案和条例,旨在强调数据主体的权利,规范组织对个人数据的合理规范使用行为,要求数据控制者和处理者采取必要的安全措施保护数据,并追究违法违规的相关法律责任。3.数据泄露与隐私保护问题的治理(2)技术手段数据全生命周期保护离不开先进技术的支撑。通过对数据进行编码处理,防止传输与存储环节的数据被窃取的加密技术就是重要的手段之一。凭借去中心化、不可篡改的特性的区块链技术,是数据隐私保护的一种新兴手段。(3)公众意识提升公众数据保护意识是数据安全治理的重要环节。8.1.3

算法偏见与公平1.算法偏见及其面临的挑战算法偏见(Algorithmic

Bias)是指在设计、训练或应用人工智能算法过程中,可能产生的对某些群体或个体的不公平的输出,相应表现出的不公平或歧视性行为。数据中的偏见、开发者的主观影响和算法本身的局限性是产生算法偏见的三大来源。8.1.3

算法偏见与公平2.算法偏见的伦理问题(1)公平性与正义性算法偏见引发的公平性问题已成为当前社会面临的伦理问题之一。(2)透明性与可解释性算法的决策过程难以被人类理解和追溯,这一特性进一步加剧了伦理争议。2.算法偏见的伦理问题(3)隐私与数据权利算法优化需求与隐私保护要求形成直接冲突,提升模型精度需要扩大数据维度,而个人权利保护却要求严格限制信息使用范围。(4)责任归属算法决策的责任归属问题是人工智能伦理领域的困境之一。3.算法偏见的治理(1)法律法规保护法律框架是算法偏见治理的制度基石。(2)行业举措企业作为技术应用主体,积极构建并推进伦理标准,持续提升治理体系实施质量。(3)技术手段保护技术手段是算法偏见和歧视治理当中的关键,可以从数据、模型和评估三个方面入手。8.2

人工智能的安全挑战8.2.1

对抗攻击与模型的鲁棒性1.对抗攻击的定义与原理对抗攻击向正常数据(如文本、图像、音频等)注入精心设计的微小扰动,使得深度学习模型产生错误的输出,从而破坏模型的正常功能和决策。这些微小扰动就称为对抗样本,人类对对抗样本的微小扰动几乎感知不到与原始数据的差别。2.对抗攻击的类型(1)快速梯度符号法快速梯度符号法(FastGradientSignMethod,FGSM)通过计算损失函数关于输入的梯度,然后根据梯度的符号来确定扰动的方向,以快速生成对抗样本。2.对抗攻击的类型(2)投影梯度下降法投影梯度下降法(ProjectedGradientDescent,PGD)是多步迭代的FGSM。其核心思想是‌多步梯度优化与扰动约束‌。(3)Carlini-Wagner(CW)方法CW方法将生成对抗样本的问题转化为一个优化问题。首先设计一个目标函数,再通过最小化目标函数寻找最优扰动。8.2.1

对抗攻击与模型的鲁棒性3.对抗攻击的危害(1)交通领域针对自动驾驶领域的对抗攻击可以直接瓦解其感知系统。由于自动驾驶系统采用的是‌多模态融合架构,对抗样本不仅可干扰摄像头数据,还可通过伪造激光雷达点云或毫米波雷达信号,误导车辆对障碍物距离与运动轨迹的预测。3.对抗攻击的危害(2)人脸识别领域有研究证明,通过定制一副带有特殊对抗样本的“眼镜”,利用人脸识别算法中的缺陷,可以逃逸识别或者被误识为另一个人,使得广泛用于手机、门禁和支付上的人脸识别系统变得非常不安全。3.对抗攻击的危害(3)医疗系统医疗领域的对抗攻击直接危及患者生命健康。医学影像分析、疾病预测已经引入了人工智能辅助诊断系统,攻击者向医疗影像数据注入对抗样本,干扰人工智能辅助诊断系统的判断。此外,向工业控制系统发送恶意指令、干扰智能监控系统中的摄像头、干扰无人机系统中的导航/通信或视觉系统、破解政务系统中的“人脸识别”认证并利用他人信息注册公司等行为,均会对系统造成危害。8.2.1

对抗攻击与模型的鲁棒性4.模型鲁棒性的提升策略(1)对抗训练对抗训练的基本原理是在模型训练时主动引入对抗样本,让模型在训练过程中同时学习识别和应对这些对抗样本。这样模型就能逐渐学会识别对抗样本的特征,提高对对抗攻击的抵抗力,之后运用快速梯度符号法、迭代快速梯度符号法等技术生成对抗样本。4.模型鲁棒性的提升策略(2)模型正则化正则化技术常常用于防止模型的过拟合,同时它也能有效提升模型的鲁棒性。(3)多模型融合多模型融合(ModelEnsemble)将多个异构模型的决策结果融合在一起,从而分散对抗攻击的风险。其基本思想是融合‌多样的模型形成防御互补‌。4.模型鲁棒性的提升策略(4)数据增强数据增强(DataAugmentation)的基本思想是让经过变换后的数据参与模型的训练过程,扩充数据的多样性,提升模型对输入扰动的适应能力。8.2.2

人工智能在安全系统中的应用与风险1.人工智能安全系统基于人工智能的安全系统利用了人工智能算法,增加了系统的数据分析、模式识别与决策能力,对传统安全系统从被动的监控管理进行智能化升级,具备了更多的主动管理和预防功能。如何在享受它们带来的便利时,有效应对这些风险,成为亟待解决的问题。8.2.2

人工智能在安全系统中的应用与风险2.人工智能在安全系统中的应用(1)具有目标识别与追踪功能的智能监控摄像头智能监控摄像头的应用使得传统的安全系统具备了主动追踪功能。其工作过程由图像采集和特征提取、目标识别和数据匹配、目标跟踪三步完成。(2)自主导航的安防巡逻机器人安防巡逻机器人的自主导航系统融合了多种传感器的数据,再结合智能算法,使得机器人能在复杂环境中灵活工作。3.人工智能在安全系统中面临的风险(1)算法决策的脆弱性与误判风险人工智能算法的应用覆盖了安全系统的大部分应用场景,然而在复杂的应用场景下,存在外部因素干扰、算法局限性以及场景适应性不足等问题,会产生算法误报现象。3.人工智能在安全系统中面临的风险(2)数据泄露与隐私侵犯在人工智能安全系统的应用中,数据安全至关重要,一旦出现隐私泄露,将导致个人隐私以及商业秘密泄露等问题,引发严重的信任危机。安全系统中的每一个环节如数据的存储、传输和使用等环节均可能存在泄漏风险。(3)系统的安全漏洞人工智能安全系统的开发高度依赖第三方硬件、算法库及云服务。这些环节当中存在漏洞都可能导致系统性的风险。4.人工智能在安全系统中的治理策略(1)加强技术创新,提升安全性能在安全系统的算法、系统漏洞的防护方面开展技术研发,不断深化技术创新。(2)完善流程管理,规范数据使用在系统层面,设置相关的数据管理级别,分层级地设置数据访问权限;在管理层面,切实提高工作人员的数据安全意识。(3)多方协同治理,构建安全生态为了有效化解人工智能安全系统的风险,构建安全的生态屏障,需要政府、行业和科研机构多方协同的治理体系。8.2.3

人工智能失控的可能性1.人工智能失控的技术与伦理问题在技术层面,代码漏洞、算法复杂性、数据依赖、自主系统漏洞等问题是引发人工智能失控的主要因素。在伦理层面,人工智能技术的应用正面临日益复杂的价值冲突与道德困境。8.2.3

人工智能失控的可能性2.预防人工智能失控的策略预防人工智能失控要兼顾技术措施和伦理规范,从技术层面守护人工智能系统安全,从伦理层面规范人类的行为,努力抑制人工智能的负面因素。8.3

典型案例分析8.3.1

面部识别技术与伦理问题1.面部识别技术概述面部识别技术(FacialRecognitionTechnology)是生物识别技术中的关键技术之一。基于深度学习算法,对人的面部关键特征点进行提取与分析,从而实现对人面部的精准识别和验证。面部识别技术由图像采集、人脸检测、特征提取以及比对识别四个步骤组成。8.3.1

面部识别技术与伦理问题2.典型案例近年来,人脸识别技术广泛应用于银行业务,尤其是资金业务场景。但这项技术一旦出现问题,不仅会让客户遭受财产损失,更会影响人们对于人脸识别技术的信心。3.技术滥用与伦理问题面部识别技术虽然为人们的生活提供了高效快捷的服务,但是也逐渐暴露出众多伦理问题,具体表现为以下几方面:隐私侵犯、数据安全风险、算法偏见、社会信任危机。8.3.2

自动驾驶技术与伦理问题1.自动驾驶技术概述自动驾驶控制系统通常由环境感知、决策规划和执行控制三个模块组成。环境感知模块传感器采集车辆周边的信息,再基于环境感知的信息,结合车辆自身的状态和目标,在遵守交通规则的情况下,由决策规划模块确定车辆的行驶方向、速度和路径,执行控制模块则通过控制车辆的动力系统、转向系统和制动系统完成具体的车辆操作。8.3.2

自动驾驶技术与伦理问题2.典型案例一起自动驾驶致人死亡事件,引发了公众对自动驾驶技术安全性和可靠性的广泛质疑,同时也暴露出一系列人工智能伦理问题。8.3.2

自动驾驶技术与伦理问题3.自动驾驶的伦理挑战自动驾驶汽车在快速发展与推广应用时,因技术风险和伦理难题的双重制约,导致其广泛应用受阻。(1)自动驾驶面临“电车难题”在紧急情况下,自动驾驶的决策系统面临“电车难题”(TrolleyProblem)的典型伦理困境。3.自动驾驶的伦理挑战(2)责任划分的复杂局面​当自动驾驶汽车发生交通事故时,可能有设计制造商的车辆本身的技术问题、软件设计者相关的软件漏洞或用户操作不当等多方面原因。在跨国企业参与的情况下,不同国家的法律规定不同,进一步加剧了责任认定的复杂性。3.自动驾驶的伦理挑战(3)用户隐私安全的挑战为了安全行驶,自动驾驶汽车会收集大量数据,包括行驶路线、车内情况等,这些数据很容易泄露个人隐私。自动驾驶还面临数据跨境传输的隐私挑战。当车辆在不同国家和地区行驶时,数据可能会被传输到境外服务器进行处理和存储,这就涉及不同国家隐私法规的差异。3.自动驾驶的伦理挑战(4)人类与机器协作的伦理困境在人机共驾模式下,如何界定人类和机器各自的决策权限

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论