版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
人工智能伦理浙教版信息技术在21世纪的今天,人工智能(AI)正以前所未有的速度融入我们的生活,从智能手机到自动驾驶,从个性化推荐到医疗诊断,AI的应用无处不在。但随之而来的是对隐私、公平、责任等伦理议题的深刻反思。2022年11月17日外交部发言人毛宁主持例行记者会WPS,aclicktounlimitedpossibilities汇报人:WPS提问:什么是人工智能伦理?为何要关注人工智能伦理?伦理一般是指一系列指导行为的观念,是从概念角度上对道德现象的哲学思考。它不仅包含着处理人与人、人与社会、人与自然关系时遵循的行为规范,还蕴含着依照一定原则规范行为的深刻道理。由于人们缺乏对人工智能设计与使用过程中伦理问题的考量,所以伴随着人工智能的发展,人工智能涉及的伦理问题逐渐凸显出来。思考:日常生活中是否存在因人工智能引起的伦理问题?设想以下情景:你正坐在无人驾驶汽车内享受着旅途的欢愉,突然,前方行驶的卡车上跌落一件巨大的货物,而你的汽车已无法及时刹停。因此它自动选择急转弯,转而冲向了街边露天的咖啡店,此时咖啡店的孩子们却浑然不知,与家里人惬意嬉闹,后果自然不敢想象。又或者,汽车能快速转向另一边,但撞向的却是孤身一人的摩托车车手。试问,面对此情此境,你的无人驾驶汽车怎样抉择才是最优?1.“伦理困境”抉择问题由于机器采用算法模型对数据进行自主深度学习的过程是不透明的,所以人工智能可能在使用过程中形成无意识、不可预见的偏见,如肤色偏见、性别偏见等。若有偏见的人工智能处于决策地位,则会导致特定人群受到不公正待遇,从而造成社会伦理问题。肤色偏见人工智能领域中,肤色偏见是指某些人工智能算法或产品对某种肤色具有偏见,导致处理结果存在不公平的现象。2.算法偏见问题COMPAS是一种在美国广泛使用的算法,它通过预测罪犯再次犯罪的可能性指导判刑,而这个算法或许是最臭名昭著且最能凸显肤色偏见问题的算法。早期,美国一家获得普利策奖的非营利新闻机构曾在报道中指出,COMPAS算法存在明显的肤色偏见问题,该算法预测的黑人被告再次犯罪的风险要远远高于白人,甚至达到了后者的两倍,如下图所示。COMPAS算法预测结果此外,在人脸识别的应用过程中也出现过肤色偏见的问题。例如,早期一名黑人软件开发人员在某社交平台上说,谷歌的照片服务(GooglePhotos)把他和一个黑人朋友的照片打上了“大猩猩”的标签。性别偏见除了肤色偏见,人工智能算法或产品也出现过对某种性别具有偏见的问题。例如,亚马逊曾开发过一套用于筛选简历的人工智能工具,在应用过程中就表现出了性别偏见问题,即通过该人工智能程序筛选出的简历中男性远多于女性。不仅如此,该人工智能程序还会降低包含女性字样的简历权重,甚至下调女子学院的毕业生评级。由于性别偏见问题的出现,亚马逊便决定停止使用该人工智能招聘工具。此外,麻省理工学院与微软的研究人员曾联合开展了一项针对机器学习算法是否存在性别与肤色偏见的研究,结果发现当主流面部识别软件面对女性照片时,差错率会变得更高。此外,当对象为皮肤颜色较深的女性时,差错率会进一步上升。为有效地处理算法偏见问题,美国国防高级项目研究计划局投入7000万美元用于“可解释AI”新计划,意在了解深度学习原理,从而为进一步解释人工智能算法“黑箱”,消除算法偏见提供支持。研究人员测试微软、IBM、Facebook三家企业产品中的人脸识别功能,发现它们识别白人男性的正确率均高于99%,但识别肤色较深的黑人女性则错误率在47%左右。服务型机器人的投入使用,便利了人们的生活,增进了人与机器人的情感联系,但过度沉溺人工智能将带来心理依赖、能力退化、情感异化等问题。例如,陪伴教育机器人(见图1)容易造成儿童过度依赖,导致儿童出现社交障碍、性格孤僻等问题。又如,若医疗人员过度依赖协助医疗的机器人(见图2),则会造成医疗人员医疗能力退化的局面。再如,情侣机器人(见图3)容易使人们对机器人产生异样的情感,从而导致一部分人想要与机器人步入婚姻。图1陪伴教育机器人图2协助医疗机器人图3情侣机器人3.过度依赖问题通过前面几个问题的学习及讨论,我们可以明显的感觉到人工智能伦理存在的问题。现在,让我们通过一个视频,来具体分析这些伦理问题如何在实践中显现,以及我们应如何应对挑战,采取哪些措施来确保技术的负责任使用。视频出处:/video/BV1bQ4y1t7rc/?spm_id_from=333.337.search-card.all.click&vd_source=2484663cccf521c63305bcad4f1a0b0b中国驻新加坡大使馆公益广告应该如何制定人工智能伦理规范?
当前,人工智能已经展现出巨大的变革力量,只有建立完善的人工智能伦理规范,处理好机器与人之间的新关系,人们才能更多地获得人工智能红利,从而让技术造福人类。如何更好地解决人工智能的伦理问题,需要人们认真思考与提前布局。针对人工智能存在的伦理问题,人们应从人工智能内部和外部两个方面建立合理的伦理约束机制。(1)进行合乎道德伦理的算法设计,将国家的法律规范和人的道德情感规则嵌入人工智能系统设计。(2)建立人工智能群体伦理决策框架,加强对内部算法的监管,规范人工智能产品的研发过程。(3)设立人工智能事前监督和事后评估制度,制定产业研发人员伦理工作标准,强化专业责任意识。(4)针对隐私权建立健全的法律规范体系,切实保护人工智能使用者的隐私。拓展链接:人机社会规范举例:机器人三定律:第零定律:机器人必须保护人类的整体利益不受伤害。第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管,除非这违反了机器人学第零定律。第二定律:机器人必须服从人给予它的命令,当该命令与第零定律或者第一定律冲突时例外。第三定律:机器人在不违反第零、第一、第二定律的情况下要尽可能保护自己的生存。道德图灵测试:道德图灵测试是一种尝试评估机器人或人工智能实体是否具有道德判断力的测试方法。它基于图灵测试的基本原理,即如果一个机器在与人类进行文字交流时表现出与人类相似的智能水平,那么我们就可以认为这个机器具有智能。道德图灵测试将这一概念扩展到了道德领域,试图通过一系列道德相关的问题和情景来判断机器是否能够像人类一样做出道德判断和行为。人机社会规范举例:课堂小结:作业练习:随着科技的发展,智能助手例如Siri、小爱同学等已经成为我们日常生活中不可或缺的一部分。它们可以帮助我们设定闹钟、查询天气、甚至完成在线购物。然而,这些智能助手的便利性背后,是对我们个人隐私的潜在威胁。它们需要访问我们的位置信息、联系人、甚至是个人习惯,以便更好地为我们服务。作为一名高中生,你在享受这些便捷服务的同时,是否考虑过
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026届安徽省利辛县阚疃金石中学高一生物第一学期期末学业水平测试模拟试题含解析
- 绿化植被选择与配置方案
- 老旧小区无障碍设施改造方案
- 智能家居设计师面试宝典及答案
- 面试题及答案集针对注册经理岗位
- 职业规划师面试流程及常见问题解答
- 能源环保项目部经理面试题及答案
- 中航集团财务管理考试题集
- 2026届齐鲁名校教科研协作体山东、湖北部分重点中学生物高二上期末学业水平测试试题含解析
- 2025广西梧州市龙圩区招(补)录公益性岗位人员11人备考考试试题及答案解析
- 北京市顺义区2024-2025学年八年级上学期期末生物试题
- 公交车站设施维护管理方案
- 医疗保险政策与医院运营管理
- 公司安全生产考核细则表
- 玻纤拉丝工创新应用知识考核试卷含答案
- 2025广东广州市越秀区流花街招聘残联辅助人员1人笔试备考试卷附答案解析
- 白介素6相关课件
- 2025年及未来5年中国聚酰亚胺纤维行业市场深度评估及投资策略咨询报告
- 2025中国融通资产管理集团有限公司社会招聘考试笔试参考题库附答案解析
- 竖井通风管道安装施工技术方案
- 眼眶疾病教案
评论
0/150
提交评论