人工智能与未来 课件 12.2 人工智能带来的安全问题_第1页
人工智能与未来 课件 12.2 人工智能带来的安全问题_第2页
人工智能与未来 课件 12.2 人工智能带来的安全问题_第3页
人工智能与未来 课件 12.2 人工智能带来的安全问题_第4页
人工智能与未来 课件 12.2 人工智能带来的安全问题_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

FutureEthics第12章

未来伦理2035齐兵辉12.112.212.312.4人工智能伦理概念人工智能带来的安全问题人工智能引发的就业挑战人工智能带来的权责划分问题目录CONTENTS12.5人机关系问题12.2.1数据隐私安全问题

12.2.2技术滥用问题12.2.3一些建议

12.2.1数据隐私安全问题

谈起隐私,很多人脑海中首先想到的是以下场景,但是又无法准确表述他的含义。接下来我们首先了解数据隐私的含义。身份证照片、电话号码、家庭住址、体检报告、个人邮箱。讨论:你觉得还有哪些隐私数据需要保护?12.2.1数据隐私安全问题接下来我们首先了解数据隐私的含义。数据隐私是指个人或组织对其所拥有或控制的数据保持私密性和保密性的权利。这些数据包括但不限于个人身份信息(如姓名、地址、电话号码)、财务信息、医疗信息、社交媒体活动、电子邮件、通信记录、位置数据等。

数据隐私安全是指个人信息的保密性和完整性,保护我们不受外部威胁的侵害‌。12.2.1数据隐私安全问题

与传统的数据隐私安全问题相比,人工智能时代的数据隐私安全问题展现出了一系列新的特征。隐私泄露的渠道更多更加隐蔽数据匿名化的挑战与局限12.2.1数据隐私安全问题由于AI系统的智能化和自动化,隐私侵犯行为可能更加隐蔽。生物识别技术和物联网设备提供的实时数据也被广泛收集,进一步增加了隐私泄露的复杂性。0304AI采用包括网络爬虫在内的多种数据采集技术,自动捕获公共和个人数据。AI系统依赖于大数据进行训练和优化,因此需要收集和处理海量的个人信息,这增加了数据泄露和滥用的风险0102AI时代隐私泄露渠道更加隐蔽在人工智能技术尚未普及的时代,数据匿名化被视为一种有效的隐私保护措施。人工智能时代,尽管数据匿名化在一定程度上保护了个人隐私,但AI系统仍有可能通过模式识别和预测建模等技术重新识别出个体,从而对匿名化数据进行去匿名化处理,使得原本看似安全的匿名数据变得不再安全。0102AI时代数据匿名化的挑战12.2.1数据隐私安全问题

接下来我们看几个隐私泄露的案例:他们涉及到IT领域的两个巨头:亚马逊、谷歌公司和国内多起事件。12.2.1数据隐私安全问题案例1:美国媒体2019年爆料称,亚马逊雇佣上千名员工收听和分析被智能音箱录下来的对话。他们每天工作9个小时,每人分析多达1000段音频。亚马逊表示这样做的目的是提升语音助手的语言理解能力,改善用户体验。尽管亚马逊表示员工不会获取用户的姓名等信息,但这种做法还是引起人们对隐私安全的关注。他们担心,一旦这些信息被泄露给第三方,后果将不堪设想。12.2.1数据隐私安全问题案例2:2018年5月,美国的某个亚马逊智能音箱用户丹尼尔说,她与丈夫在家里的谈话内容,居然被一位朋友听到了。经过排查,丹尼尔发现,这段对话是亚马逊“回声”智能音箱录制并发送给这位朋友的。亚马逊公司调查后认为,因为丹尼尔在说话时某些词语正好唤醒了智能音箱,而智能音箱又“误解”了丹尼尔的谈话内容,所以错误触发了指令,导致了这一事件。丹尼尔认为,智能音箱侵犯了自己的隐私,以后不会再使用类似的设备。12.2.1数据隐私安全问题案例3:谷歌公司曾经也承认其雇佣的外包合同工会听取用户与其人工智能语音助手的对话,用于让语音服务支持更多语言、音调和方言。12.2.1数据隐私安全问题案例4:广东某员工为省事,将包含客户信息的内部文件上传至公共AI工具,导致数据泄露。律师指出,这种行为可能构成“侵犯商业秘密罪”,公司因此全员禁用AI。12.2.1数据隐私安全问题案例5:多个城市安装的AI摄像头不仅识别人脸,还通过分析步态、穿着等推断职业和收入。这些数据被用于商业广告推送,市民感叹“连散步都被算计”。2020年,青岛某售楼处因强制使用人脸识别系统引发争议。购房者需在入口处“刷脸”才能进入,售楼处内安装9个摄像头全程无死角抓拍,甚至通过口罩和虹膜识别技术完成身份判定。此举旨在区分“自然到访客户”与“中介渠道客户”,导致购房优惠差异高达30万元。为保护隐私,购房者被迫戴头盔看房,引发社会广泛关注。12.2.1数据隐私安全问题12.2.2技术滥用问题带着这两个问题,我们开始下面的学习。什么是技术滥用呢?AI为什么会引发技术滥用呢?12.2.2技术滥用问题

技术滥用是指人们在利用技术进行分析、决策、协调、组织等一系列的活动中,其使用目的、使用方式、使用范围等出现偏差并引发不良影响的行为或情形。太专业了,让我们来举一个例子吧!冶炼技术和钻木生火的广泛使用既可以给人类带来便利也会给人类带来灾难12.2.2技术滥用问题

人工智能技术同样也是一把双刃剑,以科技向善和人类福祉为目的,则会提高生产效率,创新发展方式,给社会带来巨变。但是,人工智能也可能被不法分子或者恶意人员使用,以谋取不合理利益,在违法犯罪的领域更会造成不可估量的后果,这些行为称为人工智能的技术滥用。人工智能的技术滥用表现在以下两个方面:数据过度收集和算法设计偏见问题12.2.2技术滥用问题(1)数据过度收集问题是如何形成的?

人工智能算法需海量训练数据,现场采集是其重要方式,广泛应用于自动驾驶、智慧城市等领域。企业在公开环境部署传感器进行无差别实时采集,但难以预判数据类型和范围,易引发过度采集问题。

例如自动驾驶车辆采集街景数据时,可能涉及行人隐私、敏感基础设施甚至军事区域信息,导致隐私泄露及国家安全风险。12.2.2技术滥用问题案例:某医院AI诊断系统要求患者填写包括家庭住址、职业等非必要信息,并因数据过载误判肿瘤为良性,导致治疗延误。事后调查发现,系统收集的冗余数据未用于诊断,反而增加了泄露风险。此类案例显示医疗AI数据收集与功能需求的严重脱节。(1)数据过度收集问题是如何形成的?12.2.2技术滥用问题(2)算法设计偏见问题是如何形成的?

算法偏见是指在算法设计、开发或应用过程中,由于数据、模型或人为因素导致的结果不公平或歧视性现象。12.2.2技术滥用问题数据偏见如训练数据存在历史性别失衡特征选择偏见如算法选择地区作为判断特征模型设计缺陷如面部识别对深色皮肤人群准确率低评估偏差忽视群体差异而仅关注整体准确率人为主观影响设计者文化背景引入隐性偏见

这些偏见可能加剧社会不平等,需通过数据清洗、公平性指标评估及多方监督机制进行系统性优化。(2)算法设计偏见问题是如何形成的?12.2.2技术滥用问题案例1:奔驰驾驶辅助系统和主动安全部的某负责人曾说,按照无人驾驶汽车的编程思路,如果在行驶途中面临一个道德困境,要么撞到马路上的一名儿童,要么急打方向盘以避免撞到儿童、但可能撞到其他车道的汽车以致本车人员伤亡,那么无人驾驶汽车会“果断”选择优先保护车内人员、宁愿撞到儿童。当然,如果在交通事故当中可以避免伤亡那就再好不过了。此说法被媒体报道后,引起了巨大的争议。12.2.2技术滥用问题案例2:以色列军方使用“薰衣草”和“福音”AI系统自动识别加沙地带目标,导致超45,000名平民伤亡。系统通过海量数据分析标记“武装分子”,但因算法偏差和速度优先原则牺牲准确性,违反国际人道法“区分原则”。此案例凸显战争自动化决策的伦理困境及“有意义的人类控制”缺失问题。12.2.2技术滥用问题案例3:不法分子花1分钱就能用AI生成7篇虚假文章。例如,一篇虚构的“化工厂爆炸”文章2小时内获百万点击,引发当地居民恐慌。这种“谣言工厂”严重扰乱社会秩序。12.2.3一些建议针对以上问题,我们提出了三个建议第一:加大人工智能对社会的影响研究。人工智能社会影响研究受关注,虽部分影响已现,但全面变革尚有时日。需政府加强跨学科研究投入,协同攻关为政策制定提供理论支撑。12.2.3一些建议第二:提高人工智能算法的公正性与透明性。具体做法如下所示:(1)构建深度学习透明化监控机制,破解模型黑箱效应难题(2)规范数据源披露标准,保障训练数据多维覆盖与样本均衡(3)建立人工复核流程,

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论