版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
-13-人工智能发展中伦理追问报告目录TOC\o"1-3"\h\u137人工智能发展中伦理追问报告 128943第一节弱人工智能阶段的伦理追问 220121一、隐私问题 28299二、安全问题 38817三、责任问题 415067四、歧视与偏见问题 518268五、智能型失业与贫困问题 619720第二节强人工智能阶段的伦理追问 729994一、人工智能的权利划分问题 824906二、人工智能的道德地位如何界定 932646三、人工智能的情感落地问题 113179四、人工智能的生态伦理追问加强 1416545第三节超级人工智能阶段的伦理追问 167740一、“人”是否将重新被定义 1613794二、人类现行的商业伦理是否会被颠覆 1816382三、黑科技的发明是否破坏人类传统的伦理价值 1920世纪40年代以来,科技所带来的伦理问题层出不穷,其都对人类的生存和发展产生了重大的影响与挑战。历史上,人和机的关系经历了两次重大崛起,第一次崛起是英国工业革命,大量的机器被生产出来运用到人类的生产生活之中,人和人之间的关系被机器所改变。而现如今,第四次工业革命迅速发展,人工智能冲破技术的桎梏成为炙手可热的前沿产品,因此人机关系再一次遭受考验。作为人类,我们应当在创造人工智能的同时,对其从道德、法律、社会制度等各方面加以防范和管控,伦理规范便是其中必然的手段第一节弱人工智能阶段的伦理追问弱人工智能作为人工智能发展的最初期的产物,用于帮助人类解决特定领域的特定问题,而并不真正具备思考能力,尽管如此,在给予人类生活巨大便利的同时,也不可或缺的会有技术背后的漏洞,造成隐私、安全、责任、歧视等一些列问题。一、隐私问题在人工智能的发展中,信息共享化成为了一件不可避免之事,人类也逐渐在信息被共享的社会现状中成了行走的“透明信息体”。人工智能技术背后是庞大的数据支持以及基于数据的算法,而当数据被收集并由机器进行深度学习后,人类个体及其相互间的联系便会被不同程度的剖析。工业社会中,人与人之间的交往长期处于礼貌的分寸感之间,对于个人隐私的侵犯则通常被认为不礼貌,严重甚至可以被认为是不道德的。安全感和私密性作为人类社会最基本的需求,现在已然正处于被迫于他人共享的境地,这也成为了科技进步后首要面临的问题。随着全球一体化以及我国对外开放领域的不断扩大,保护个人隐私已经不单单是对我们个体隐私权利的保护,更关系到国家层面的信息安全问题。以手机隐私泄漏现象为例,中国消费者协会于2018年发布《100款个人信息手机与隐私政策测评报告》,报告中将近百分之五十的APP隐私条款显示并不达标,涉嫌过度手机或使用个人信息。随后的2019年,中央电视台315晚会,又对手机隐私泄漏问题进行了深入的专题报道。大数据在人工智能应用中起着巨大的作用,其体量之大、模样之多、速度之快,通过大量的数据加持与深度学习,其学习和解决问题的能力得到显著提升。于此同时,本就具有动态变动性的人类隐私也逐渐开始受到威胁。例如,过去不被传播的私人信息现在于网络被挖掘出后肆意复制于传播;在个人信息被大量储存于云端的现代社会,人类的位置信息、网络搜索痕迹与健康状态都被大数据技术实时提取更新并保存。当大数据形成一定规模,数据掌握者便可从模糊且碎片化的数据中提取到相应具有价值的个人信息。也正因为如此,个人也开始逐渐丧失对个人隐私全的掌控,甚至一些隐私已然被不法分子所窥视。例如,闭路电视摄像头,一方面可以帮助警察识别犯罪,但另外以当面,也可以利用这项技术对他人进行跟踪,个人的隐私也将受到设计者的威胁。因此,作为伦理学研究者,我们必须对人工智能发展中对于个人隐私保护以及数据管控相关的问题上予以关注。二、安全问题人类对机器人与人工智能可能形成的威胁的忧虑由来已久,不过这些担忧大多主要表现科幻作品之中。但是,随着科学技术的快速发展,机器人与人工智能技术可能导致的安全问题似乎离我们越来越近了。美国太科学家乔伊在《为何未来不需要我们》一文中对机器人技术、纳米技术与基因技术等可能产生的危害表示忧虑。他认为,这些高新技术可能导致的危险比核武器、生物武器、化学武器等更为严重。JoyBill,“WhytheFuturedoesn’tNeedUs,”./2000/04/joy-02/.这篇文章得到广泛关注,引发了许多讨论。许多人也会担心,人工智能是否会成为人类“最后的发明”。《功利主义》作者穆勒认为,JoyBill,“WhytheFuturedoesn’tNeedUs,”./2000/04/joy-02/.穆勒.功利主义.徐大建译[M].上海:上海人民出版社,2008:55.我国国务院于2017年7月8日印发了《新一代人工智能发展规划》,对人工智能安全问题进行了明确的指出:“人工智能发展的不确定性带来新挑战在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,如加强前沿预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展。”作者或主编单位?新一代人工智能发展规划作者或主编单位?新一代人工智能发展规划[M].北京:人民出版社,2017:4.王国豫、赵宇亮.敬小慎微:纳米技术的安全与伦理问题研究[M].北京:科学出版社,2015:导论、53.总体而言,我们既不要过分夸大人工智能的安全性问题,也不能过分乐观。在弱人工智能阶段,人工智能尚未导致比较普遍与严重的安全问题,在这样的情况下,进行充分的理论研究和公开讨论是非常必要的。三、责任问题目前人类已经熟练掌握弱人工智能技术,并且造福于人类社会。虽然人类对于弱人工智能已经进入到熟练掌握的状态,并应用其技术造福于社会,但从另外一个角度考虑,人工智能也会给人类社会带来不少关于责任划分问题。以无人驾驶汽车技术为例,著名的无人驾驶汽车品牌特斯拉于2016年发生了一起震惊世界的事故。美国佛罗里达州中部的一段公路上,一辆正在自动驾驶状态中的ModelS于当时一辆正在横穿高速公路的拖拉机挂车迎面相撞,事故最终造成了驾驶员的当场死亡。这场车祸的悲剧所导致的问题之所以区别于以往所有的车祸事故是因为人们没有办法第一时间来判定责任机制归属。人们就事故所应当承担的责任体究竟是设计出自动驾驶算法的“命令者”,还是通过算法执行命令的“执行者”人工智能机器本身争论不休。然而如果人工智能机器本身有责任,人们又应该如何判定处罚?这场事故给人们带来人类讨论的同时,也给伦理学届的学者们带来了冷思考。责任(Responsibility)一词是法律和伦理学研究的核心概念并由不同的学者赋予多种解释。通俗而言,责任代表这个体所应当达成做到之事。伦理学视阈下的责任更多于道德层面的责任,其有两层含义:一是指行为主体对他人和社会所应自觉履行的责任;二是指行为主体对自身选择的过失及不良后果在道义上所应承担的责任。罗国杰.伦理学基础[M].北京:首都经济贸易大学出版社,2004:65罗国杰.伦理学基础[M].北京:首都经济贸易大学出版社,2004:65以军用机器人为例,美国机器人研究专家阿金用“炸弹、纽带和奴役”来形容三种引起较多社会关注的机器人,即军用机器人、情侣机器人与工业(服务)机器人。在这三种机器人当中,目前弱人工智能发展进路下,关于军用机器人的伦理问题争论最为激烈。而且,军用机器人对未来战争的影响也将是革命性的。军用机器人具有非常显著的优势,其具有较高的智能,并且可以全方位和全天候的进行作战,在极端恶劣的情况下也可以代替士兵完成极限与正常工作,极大降低伤亡概率,具有较强的战场生存能力更加节约了作战成本。然而这样的机器人一旦失控,所造成的安全隐患不容忽视,并且容易陷入更大的责任困境中去。人工智能的研发者、生产商以及使用者都他应该为军用机器人之类的人工智能体所造成的的不良后过进行负责。而责任的分担细则,则需要伦理学研究者进行更深入的研究,无论如何,研发者、生产商以及使用者作为责任分配网络中的一部分都应被分配到相应的法律与道德责任。综上所述,智能化的社会已然到来,人们在享受人工智能所带来福祉的同时,也应当为其所产生的一系列事故担负起相应的责任,努力搭建责任分配的地基,更好的为接下来智能机器的发展指明方向。四、歧视与偏见问题近年来,人类无数次面对一个事实,即有偏见的算法系统会导致严重的不公正与歧视。人工智能的产生基于背后的算法,看似是纯理性数字的表达,但却不可避免的会造成一些主观的偏见,例如性别和种族的歧视问题,在谷歌算法中,高薪职位中对于女性的招聘广告非常少,而搜索非洲裔美国人的名字便会产生是否有犯罪记录的提示。这样的偏见来源也是多方面的,既有可能来自于数据本身,也可能是算法设计者在编程到系统的过程中隐含偏见。由于算法会利用已收集的数据对未来模型进行预测,因此人工智能计算机在后续的深度学习中便会受到原有数据模型的影响。同理可证,若人类降含有偏见的算法录入人工智能机器,随着机器未来自主化地深度学习后,带有偏见的算法数据只可能会愈发严重。较为忧虑的现状是,目前有绝大部分人群,都没有即使到自身存在的歧视问题,,经过数据的捕捉精准深度学习出带有歧视结果的数据,也同时进一步加大了歧视。不仅如此,人工智能与人类相比,在决策层面上少了非常多主观意愿与偏见,但我们也应该重视,人的偏见是有针对性的个体性偏见,不仅如此,人工智能在决策层面缺少与人类相同的主观意愿与偏见,人类应意识到自我偏见是有针对性的个体偏见,而人工智能却会将个体偏见映射到整体系统中,从而导致偏见根植于整体系统,从而对人工智能决策的偏差性产生重大影响。因此,为了确保我们开发的人工智能技术在之后使用系统中尽可能的公平与符合道德,人们需要采取相应的措施来识别偏见并减少偏见。五、智能型失业与贫困问题对于公众来说,最紧要的问题可能是在人工智能等科技的影响下,哪些职业可能消失,哪些职业会有较好的发展前景,从而提前做好相应的准备。从第一次工业革命到如今,每一次新的技术革命都会产生新的就业转移,就业市场都会发生新的变化。牛津大学2016年发表了一份研究报告指出,到2043年,美国47%的现有工作岗位将会因为人工智能技术而被取代,而中国被取代岗位率将达到69%,邻国的印度也将有75%的岗位被替代。欧盟委员会也曾预测,在外来90%的工作岗位将具备最基本的数字功能,因此新的技术革命在产生就业转移问题的同时,贫富差距过大的问题也随之而来。目前在许多领域,已经出现了人工智能代替人类本身劳动的现象,例如智能物流机器人可以通过一站式物流服务取代人类,提高物流效率的同时,大量降低了人类劳动成果,但会导致大量的快递员失业;人工智能翻译的出现,人与人之间交流的屏障缩小,但与此同时也造成了大量的翻译人员失业等。然而也有一些学者持有相对乐观的态度。奥特尔(DavidAutor)认为,过去两个世纪的自动化与技术进步并没有淘汰人类劳动。一些记者和专家夸大了机器代替人类劳动力的程度,而忽视了自动化与劳动力之间存在的巨大的互补性,正式这种互补性提高了生产率,增加了收入,扩大了对劳动力的需求。计算机可以代替人类完成常规性、程序性的工作,同时也突显了人类在解决问题的技巧性、适应性与创造性等当面的相对优势。AutorDavid,”AutorDavid,”WhyAreThereStillSoManyJobs?TheHistoryandFutureofWorkplaceAutomation,”JournalofEconomicofPerspectives,2015,Vol.29,No.3,pp.3-30.王君,张于喆,张义博,洪群联.人工智能等新技术进步影响就业的机理与对策[J].宏观经济研究,2017(10):169-181.对于哪些职业更容易为人工智能所取代,也是一个众说纷纭的话题。弗雷(CarlFrey)等人认为,美国有大约47%的工作处于高风险类别,比如运输和物流行业,办公、管理协助人员,以及制造行业等风险最大。过去十年来就业岗位增长最多的服务业,也由于服务机器人的广泛应用等原因处于高风险行业之列。也就是说,将来对低技能、低薪酬行业的从业人员需求量会打打减少,人们需要转向更具有创造性和社会技能的工作,比如健康护理、教育、法律、艺术、管理以及科学技术等行业。而卡普兰(JerryKaplan)则认为:“有些你认为绝对不会被自动化取代的工作,可能最终还是会小时。研究中经常被引用的一个例子是,需要优秀的人际交往能力或说服能力的工作是不太可能在不远的未来实现自动化的。但是事实并不一定如此。”卡普兰.人工智能时代[M].李盼译.杭州:浙江人民出版社,2015:130-131.虽然人工智能科技发展日新月异,但目前人们还是倾向于认为人类与人工智能存在很大程度上的互补性。在常规的重复性工作方面,人类已经没有任何优势,但在语言表达、情感、艺术、创造性、适应性以及灵活性等方面,人类还是略胜一筹,这种优势思维在短期内人工智能还难以超越。布莱恩约佛森认为:“思维能力、大框架的模式识别和最复杂程度的沟通是认知领域中人类仍然拥有优势,且未来一些时间里还将继续保持这种优势的几个方面。”布莱恩约佛森、麦卡菲布莱恩约佛森、麦卡菲.第二次机器革命[M].蒋永军译.北京:中信出版集团,2016:265.长远来看,人工智能的确是推动社会生产力前进的力量,并且可以创造出巨大财富。但是,人们对于人工智能引发的智能型失业问题的担忧并非杞人忧天。在智能化过程中,有人收获财富,也可能有人因智能化发展而失去工作并陷入技术贫困。强人工智能阶段的伦理追问在人类可以熟练掌握弱人工智能的基础上,强人工智能的发展又引发了学界深思,原有的伦理问题探讨已不足以对抗新形势下的伦理道德困境。强人工智能时代,智能机器拥有了和人类一样学习、推理、认知的能力,也成为了真正意义上的人工智能机器,但由此引发的权利划、道德地位界定等问题依旧争论不休。一、人工智能的权利划分问题人权建基于对人的内在价值和尊严的承认,是构建道德体系的基石,也是伦理学的思想归宿。谌章明.人权与伦理学:科技、尊严与跨文化视野——“第五届人权与伦理学论坛”述要[J].哲学动态,2016(03):110-111.谌章明.人权与伦理学:科技、尊严与跨文化视野——“第五届人权与伦理学论坛”述要[J].哲学动态,2016(03):110-111.强人工智能时代的到来,此时的人工智能机器已经大范围融入现代人的生活,被赋予情感意识的机器自主性与智能性的程度显著提升,其逐渐开始具有主体性相关的道德问题,即拥有自我意识的强人工智能是否可能成为道德的主体,且若成为道德主题又改如何进行道德权利的划分?权利的外延有道德权利与法律权利,道德权利视域下,人类的评判更多来自于伦理规范的确立与道德主题的道德水平。传统的自然权利论认为所谓人权,应当是从人所为的固有属性或自然属性推演出的某种权利与规范,简而言之,即是个体作为人类的一份子所拥有的权利,而这一切仅仅是因为他是人类,而不是其他非人存在物。从这一角度而言,人工智能并不能够拥有权利。而人工智能被创造之初的目的则是为了更好保障人类的权利,即便赋予人工智能权利也应该遵守以人为本的原则,因此人工智能的权利划分必然会受到制约。关于人工智能权利划分的问题,目前学术界也存在三种不同的观点。第一种观点是坚决反对。持有该观点的人认为,我们生活中不需要强大的只能机器人,智能水平再高的机器人也还是及其,不是人。因此,给予机器人“人的权利”是一件荒唐的是。如果让机器人拥有了所谓的“人权”,就违背了阿西莫夫的“机器人三定律”。“机器人三定律”即:第一定律,机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;第二定律,机器人必须服从人给予它的命令,当改名领域第一定律冲突时例外;第三定律,机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存。如果人类对于机器人过于放纵,就会损害到人类自身。第二种观点是同意给予。持此观点者认为应该给予智能机器人“人的权利”。他们提出,如果机器人可以拥有道德修养,可以自主和人类产生互动,那么它就应该享有“人的权利”。例如,斯坦福大学教授克利福德.纳斯曾认为,生命是特别的,我们不应该去虐待那些及其、动物等非人类生命,非人类生命也应该有相应的“人权”。第三种观点是可有限给予智能机器人“人权”。持这个观点的人认为,是否给予智能机器人“人权”不能采取极端化的认识,应该对“人权”的过程中有一个最根本的原则,就是智能机器人智能造福人类,而不能伤害人类。二、人工智能的道德地位如何界定目前人们关于人工智能伦理的相关讨论就有人针对人工智能的道德地位提出了探究,特别是关于人工智能的道德主体的定位,通过参看和分析该问题的讨论结果,进而应用到人工智能的设计中,使得伦理设计能够更为客观,也就是说在进行人工智能设计时需要通过一定的逻辑处理能力定位人工智能道德判断能力。机器人是人工智能里面非常重要的组成部分之一,其英文单词“robot”一开始取意为“奴隶、奴仆”。因此,机器人在设计之初的目的便是为人类服务,后续演化发展的人工智能也不例外。然而随着人工智能水平发展程度的提高以及应用范围的不断扩大,逐渐转化到强人工智能时代,人类与人工智能之间的关系也愈发密切。2017年10月26日,世界上第一个机器人在沙特阿拉伯被授予公民身份,这就是由香港汉森机器人公司研发出来的机器人“索菲亚”。索菲亚拥有跟人类女性相似度极高的仿生橡胶皮肤,并且面部可以表现出超过62种表情,其“大脑”中采取的人工智能算法能够对人类面部进行识别,并和人类进行眼神接触。这是人类在法律意义上第一次承认人工智能机器人拥有公民的身份,可是否代表机器人已经和真实人类一样拥有人格与道德主体呢?事实上,不同的学者对道德行为体的标准界定也不太一样。美国哲学家沃森经过研究表示,要想转化为道德行为体,就需要满足六项标准:第一需要具备一定的自我意识;第二,需要能够对当前的权利和义务有相应的理解能力;第三,能够遵守一定的义务原则,并通过这些原则规范自己的行为;第四,可以理解义务原则的内容;第五,能够具备履行相关义务的行为能力;第六,具备一定的思维意识,可以对特定义务原则做出遵循或者拒绝的判断。WastonRichard,”Self-ConsciousnessandtheRightsofNonhumanAnimalsandNature,”EnvironmentalEthics,1979,Vol.l,No.2,pp99-120.泰勒在研究之后,借助能力层面,阐述了道德行为体的定义,从其观点来看,若是生命体存在部分能力,并且可以通过拥有的能力,实现一定的道德或者非道德行为,能够实现一定的责任或者义务,那么此时就可以将这种生命体归类为道德行为体。从这些具备的能力内容来看,主要包括,能够对正确以及错误进行判断的能力;可以考虑道德原则与水平的能力,也就是对一定的道德原则发表看法,从道德层面考虑一项事物;面对一项决定具备执行决心的能力;可以解释自己的未执行行为WastonRichard,”Self-ConsciousnessandtheRightsofNonhumanAnimalsandNature,”EnvironmentalEthics,1979,Vol.l,No.2,pp99-120.部分学者通过责任伦理层面进行分析提出,当前人们的社会发展不应该将机器人定位于道德行为体方面,如果机器人转化成了道德行为体,那么机器人在日常生活中也需要承担一定的义务与责任,但是对于机器人本身来说,它是无法承担责任,所以从理论层面上分析,不能够让人工智能发展成一个道德行为体,如果发生转化,也会给设计者提供一定的责任推卸空间。帕特里克.休经过研究之后提出,通过对当前的技术进行预测能够了解AMAs提出的设想是不能够实现的。他表示,若是行为体因为部分行为得到相应的赞许或者批评,那么该行为体就应该承担道德责任,只有达到这种水平,才能够称它是道德行为体。只是从目前研究成果来看,人们的研究仅仅是将道德原则强加到人工智能中,使得人工智能机械性的执行道德行为,并不是由人工智能主动完成的道德行为。这种人工智能并不是真正的道德行为体,而是一种人工行为体,所以在这种情况下,应该是人类承担全部的义务与责任。美国学者约翰逊(DeborahJohnson)等人认为,我们不应该制造AMAs。他们认为,关于人工智能系统是否可以成为道德行为体的争论,实质上是人们对正在发展中的智能系统的不同理解之争,也是对其未来发展的方向之争。事实上,智能系统是由人类创造出来执行人类的任务,由人类涉及并使用的,既是它们可以独立运行,但仍然而且也应该与人类联系在一起。约翰逊等人表示,若是推广AMAs,那么有极大的可能会使得人工智能的研究人员以及使用对象不承担自身责任,给予了他们较大的责任推卸空间与机会。美国国家计算机专家杨珀尔斯基认为,给智能系统赋予道德地位是一种舞蹈,这种做法以为可以通过束缚仁人工智能的行为来限制其产生负面影响,他主张应该为人工智能简历一种新的安全工程科学,由此保证人类的价值最大化。在印度尼西亚《雅加达邮报》(Qusthan,2018)上,雅加达比奴斯商学院的一名科学家从伦理的角度分析了人工智能是否受到伦理约束的问题。作者认为,只要人工智能在一定程度上可以模拟人类的智力并因此获得一套相应的价值观,这就意味着人工智能所作出的决策是具有价值导向的。然而,由于目前为止人工智能并没有自然权利,只存在人为的权利,因此,人工智能不应该和人类本拥有的伦理原则来进行同向衡量。基于此,人工智能将被视为一种道德代理人。也有学者认为,人工智能伦理的推理方案并不能和人类伦理的推理方式划上等号。人类的道德判断需要情感与意识等因素,而对于人工智能来说,这些因素未必是必须的,因此,人工智能未必一定要向人类伦理的推理模式看起,在这样的情况下用人类的道德推理模式来要求人工智能,未必合理。其实,日益向我们走来的“强人工智能时代”已经使人工智能伦理问题不再是哲学思辨的伦理问题,更是日益紧迫的现实问题。目前,世界各国都高度重视机器人、人工智能及相关产业的发展,竞相加大投资力度。毫无疑问。机器人与人工智能将迎来新的投资热潮并取得快速发展。随着当下科技水平的发展,人工智能的技术只会越来越高,机器人也会具备更高的自主能力。正如英国皇家工程院(TheRoyalAcademyofEngineering)在2009年8月发布的报告中强调那样,自动系统在未来的生活中可能会大量出现在不同的领域中,从现在出现的无人驾驶汽车,发展到以后可以上战场的机器人,又或者是可以取代医生手术的自动机器人等,这些设备不再需要人类操作,就可以主动学习相关的行为并作为行为决策,这些技术是目前社会中正在研发与进步的。TheRoyalAcademyofEngineering,AutonomousSystems:Social,LegalandEthicalIssues,.uk/publications/reports/autonomous-systems-report.在这样的历史背景下,让人工智能拥有一定的道德判断与行为能力,从而使其更好地为人类服务,尽量减少甚至避免负面影响,成为必然之需。TheRoyalAcademyofEngineering,AutonomousSystems:Social,LegalandEthicalIssues,.uk/publications/reports/autonomous-systems-report.三、人工智能的情感落地问题随着自然语言处理技术的加强和深度学习技术的发展,进入强人工智能时代,人工智能设计中也逐渐加入大量哲学与心理学的概念,其中,人工情感便是研究者们争先讨论的对象。Picard教授在1995年第一次通过研究之后对情感计算进行了定义阐述,然后将情感计算认为是一种能够对情感产生一定的计算方法,发表于1997年的《AffectiveComputing》PICARDRW.Affectivecomputing[M].London:MITPress,1997.书籍中。当前人们设计的多种机器人类型中,情侣机器人较为特殊,能够与人进行亲密接触。2011年,《麻省理工科技评论》(MITTechno;ogyReview)进行了一次民意调查,内容是关于人们与机器人相爱的思想的态度,19%的人认为他们可能会爱上机器人,45%的人认为不会,还有36%的人认为不确定。在2013年进行的有一千名美国成年人才加的调查中,有9%的人认为他们可能会与机器人发生性行为。这些调查表明,已经有很大一部分人群在思考人类与机器人之间的关系问题。PICARDRW.Affectivecomputing[M].London:MITPress,1997.第一台情感机器人诞生于2008年,是由美国麻省理工学院的研究者设计出来的,人们称它为“Nexi”。Nexi可以根据人们所说的话语进行情绪识别,并能反应出相应的喜怒哀乐,通过丰富的面部与肢体动作表现出各式各样的感情。到了2019年,日本GrooveX公司正式推出了一款适宜居家使用且具有情感疗愈功能的情感机器人,即伴侣机器人“lovot”。Lovot拥有可爱的外表,通过身体的触敏机制能使人在触摸机器人的过程中表达出特定的音效与情绪,使得人们可以和机器人更加亲密进行接触。不仅如此,lovot和以前的情感机器人不一样的是,Groove赋予其索取与嫉妒的能力,让主人更直观的感受到机器人的感情。人工情感是通过给予设备一定的算法,使得设备能够通过算法对人的情感进行识别或者表达情绪,实现人与机器设备的友好交互,提升计算机设备的智能化设计水平,可以有效促进计算机科学技术的进步与发展。对比传统计算机以及现在的计算机来看,早期的计算机只是展示一种固定算法的理性思维,也就是对人类的脑部进行设计,但是通过现在计算机中应用的人工情感技术,能够使得设备具有更多的感性思维,设计师按照人心的形式进行设计,人工情感中涵盖了情感智能,情感智能指的是人类思维智能技术发展中的一种高水平的智能技术。在当前的人工智能领域中,人工情感有着较好的发展以及应用前景,能够通过该种技术为服务型机器人设计更强的情感以及意识水平,使得机器人能够实现更好的人性化搜索,与人之间形成更为和谐的人机交互环境。简而言之,人工智能如果能够对人类的情感进行识别,且对人类的感情做出相应的回应,将会更容易被人类所接受。哲学家也一直到讨论情感与道德两者存在的联系,部分哲学家提出,道德主要是依靠情感形成的,而不是理性创造出来的,所以形成了情感主义伦理学的观点。就连康德这种纯粹的理性主义者都无法否定情感在德道中的存在。有学者提出,情感是道德的核心内容,对于人们的行为规范以及遵守原则有着非常重要的引导意义张曦.道德能力与情感的首要性[J].哲学研究,2016(05):121-126.现代任职神经科学也通过研究之后,提出了情感对于道德活动有着十分重要的地位。格林(JoshuaGreene)与他人合作通过研究,在认知神经科学的基础上借助功能性磁共振成像技术分析了人们是如何进行道德结果的判断的,进而通过研究成果能够看到,在人们的道德认知判断中,情感占有非常多的决定因素占比。张曦.道德能力与情感的首要性[J].哲学研究,2016(05):121-126.Greenjoshua,etal,”AnfMRIInvestigationofEmotionalEngagementinMoralJudgement,”science,2011,Vol.293,No.5537,pp.2105-2108.若是人与机器人结婚,那么在当前的社会中,就需要面临传统婚姻伦理观念的批判和否认,从这方面来看,不管是那种机器人,只要涉及到婚姻,就会与传统宗教婚姻产生认知冲突,从冲突方向来看,主要是影响婚姻的神圣性。比如伊斯兰教的婚姻,他们的婚姻通常需要保障双发均为穆斯林的身份,有着一致的宗教信仰。而机器人当前还无法确定具体的宗教属性,此外还需要考虑婚姻忠诚以及机器人的婚姻地位方面的多种问题,这就会导致人与机器人的婚姻会与传统宗教婚姻产生极为尖锐的冲突。情侣机器人的设计能够治疗部分人群的社交困难,帮助社会群众解决一定的心理障碍,也可以缓解性张力,这体现出来的是情侣机器人的积极作用,但是人们长时间与机器人恋爱,这种恋爱算不算谎言呢?有人认为,机器人会欺骗人们去爱它们,事实上无论人们把何种社交技巧植入机器人,其实都是一种错觉,只不过利用精巧的设计使得人们轻信机器人而已;这可能会使人们生活在一个混乱的世界之中,并影响我们做出更准确的判断。虽然人工情感研究受到不少学者的高度重视并取得了一些重要成果,但是,当前的科技能力较差,我们目前并没有对人脑有非常充分的研究和认知,而且人的情感十分复杂,所以如果想要使得机器人的情感与人极为相似是不可能的。然而强人工智能时代即将向我们走来,现阶段,人机交互技术的滥用问题频发,人工智能的情感落地问题也引发了新的问题,比如,与机器人相处时,面对同种问题,是否可以通过人类之间的非道德方法处理与机器人之间的矛盾,是否可以对机器人产生虐待行为,若是可以虐待,那么虐待的限度又该如何设置。尽管当前并没有形成统一的伦理道德规范,但其所引发的伦理问题是涉及到生活的各个方面的,不是仅靠纯粹的学术研究就可以很好的解决。在即将到来的强人工智能时代,人工智能的情感落地问题方面的伦理研究对学者们来说依旧是一个十分紧迫的任务。四、人工智能的生态伦理追问加强由于弱人工智能不具有自主意识,造就了其在人与自然之间只能扮演着联结桥梁的媒介角色。而在强人工智能阶段,该问题将发生质的变化。强人工智能是达到人类思维水平的机器智能,拥有知觉和意识。所以,在考量该阶段人工智能的生态伦理本质时,就需要将人工智能放在与人、自然同等的地位进行探究。因此,强人工智能阶段的生态伦理本质主要体现为一种与人类、自然平等的主体属性,而不再是一种工具属性。在弱人工智能阶段,我们只需要考虑人与自然两个维度,而在强人工智能阶段,由于有自主意识的人工智能的加入,使得人与自然的关系变得更加复杂。在环境伦理学的发展历程中,道德对象的范围该如何确定一直是人类中心主义与非人类中心主义争论的焦点。学者佩珀(DavidPeper)认为,人类中心主义是把人类放在一切生物世界的中心,把人当作一切价值的来源,自然的价值由人赋予;美国环境伦理学家波斯勒(RichardG.Botzler)与阿姆斯特朗(SusanJ.Armstrong)指出,作为哲学观点的人类中心主义把人的需要和利益当作最高宗旨,对非人实体的关注亦仅仅是因为它们自身的工具价值;埃克斯利(R.Eckersley)表示,人类中心主义认为人类是万物的主宰,是所有价值的来源和万物的尺度。人类中心主义认为,人是自然界中唯一具有内在价值的存在,大自然对人类而言只具备工具价值,人是自然的主人和所有者,人类天生具有优越性,超越自然万物且与其他生物无伦理关系,所以道德是属于人文的范畴,道德关怀的对象只能是人。各种非人类中心主义流派则提出了不同的见解。以彼得·辛格(PeterSinger)和汤姆·雷根(TomRegan)为代表的动物解放和权利论者主张把道德关怀对象延伸至具有感知生命的动物身上。泰勒(PaulW.Taylor)的生物中心主义则提倡把道德关怀的对象扩大到一切有生命的存在。以利奥·波德(AldoLepold)的大地伦理学为代表的更加激进的环境主义者认为,自然界的所有事物都应是道德的关怀对象,这也被称为生态中心主义或生态整体主义。从非人类中心主义对道德对象的划分标准来看,虽然人工智能并非传统意义上的天然存在的东西,但是其具有和人类一样的独立思维和意识,甚至是行为能力,能对环境产生各种可能的影响,所以,在强人工智能阶段,人、人工智能与自然在道德上完全具有地位平等的可能性,不能片面地认为人永远是人工智能与自然的主人,也不能说人工智能是自然的主人。在分析了直接涉及人的伦理问题后,我们还需分析人工智能与自然之间的道德关系。在前文我们论述了强人工智能与人共同成为道德主体的可能性,强人工智能是有理性的非人存在,自然是无理性的非人存在,那么无理性的非人存在的自然是否有成为道德主体的可能性呢?如前文所述,拥有理性的强人工智能具有内在价值,因而具有成为伦理关照对象的可能。那么同样是非人类存在的无理性的自然是否拥有内在价值呢?如果有,则其具有成为道德关照的对象的可能性,反之则不能。关于内在价值,西方伦理学家一般有以下四种解释:一是可以让主体感受到愉悦的内在价值,也就是说某物或某种状态能直接让人或有意识的存在物具有愉快体验,该物或该状态就具有内在价值,这种意义的内在价值离不开有意识主体的评价;二是基于其内在属性而具有的价值,即一个客体因为固有属性而拥有的价值;三是内在价值是一种客观价值,独立于评价者的主观评价;四是指一种非工具性的价值,如果客体存在自身就是一种目的,而不是为了他者实现其目的,那么它就拥有内在价值西方环境伦理学通常采用第四种概念,并称之为天赋价值,当一个存在物将自身当作目的来维护时,它自存在的那刻起就具有了内在价值。从西方伦理学角度来看,自然物只要拥有生物学意义上的自我繁衍能力、生态学意义上的自我维持倾向、控制论意义上的自动平衡功能,其就具有内在价值。从这个角度看,无理性非人类存在的自然万物拥有内在价值,亦能成为道德关照的对象。虽然目前强人工智能与自然之间还没有实现事实上的地位平等,但是,在强人工智能面世的未来的道德构建中,二者之间平等的主体关系一定会得以体现。综上所述,在未来的强人工智能阶段,无论是就强人工智能体自身而言,还是从它与人类和自然界的关系来看,它都具备了成为道德主体的资格。因此,在从弱人工智能向强人工智能转变的过程中,人工智能在生态伦理关系中的本质也必将从“媒介”转变为“主体”。第三节超级人工智能阶段的伦理追问乔伊在2000年4月份发表了一篇名为《为何未来不需要我们》的文章?在文章中,他主要是对当前的机器人技术、基因工程等方面的发展提出了未来社会的担忧,通过他提出来的这些问题使得人们在这方面产生了较为激烈的讨论。有很多著名的研究学者都对人类的发展做出了警示,比如霍金或者盖茨等,他们认为人工智能的发展对人类在社会中的地位会产生一定的威胁,通过《巴拉特》中所讲述的观点来看,人工智能的发展将是人类在技术研发方面所形成的最后一种发明成果。他认为,人工智能技术的发展会使得社会呈现智能爆炸的现象,进而设计出超级人工智能,但是人类目前在防御超级人工智能方面并没有非常绝对的法和手段。除非人类在社会发展中有着较好的运气和准备,否则面对超级人工智能的出现,我们是无法抵抗它对社会所带来的改变的。人工智能“威胁论”出现的来源也被社会公众进行了讨论。从这种观点内容的本质上来说,带有一定的技术决定论特点,所以部分学者面对这方面的观点讨论也提出了批评,只是当前各位研究学者在分析人工智能发展时所体现出来的忧虑思考是经过他们严肃认真分析之后所形成的。这对人类技术的研究应该起到一定的警示作用。一、“人”是否将重新被定义人工智能的出现,使得“人”的概念更为模糊,如果未来真的出现了超级人工智能,那么“人”的定义就可以分为三类:一类是自然人;另一类是生物机器人;还有一类是机器人。如果从更为尖锐的层面探究问题的结论,当未来社会中真的出现超级人工智能,未来人们对于人的概念认知是否会发生变化。假设真的到达了人工智能的“奇点”,这对于人们社会的发展来说到底是一种福利,还是一种威胁。从这方面来看,应该会产生两种结论:第一种结论是这种人工技术的发展给人们社会带来的是更多的福音。第二种结论就是对人类社会的发展带来取代的威胁。首先,这种技术的出现会使得人们的生活更为舒适,有更高的便利性,我们对于人类所研发出来的这些技术创新会有更高的惊叹度。其次,就算这种技术十分高级,但人类也能够对他们产生一定的控制,所以在未来的生活中,通过这种技术,人类可以不需要大量的劳作也能够提升较好的物质生活质量。就像赫拉利在《未来简史》中提到的,人类技术的发展使致力于实现长生不老以及获得更高的快乐体验。人工智能技术的发展所创造出来的机器能够听从人类的指令,作为人类的仆人,帮助人类享受更为便利化的生活,通过人工智能的应用能够使得人类有更多的闲暇时间。人工智能仅仅是提供物质服务,而人类可以实现较多物质财富的涌动,不需要考虑衣食住行等多方面的问题,每个人都能够结合自己的需求得到相应的物质,实现真正的社会公平,建设大同社会。甚至人类在这种社会中能够具备不会被打破的物质基础环境,我们可以在社会环境中随时“死去”和复活。还可以将自己的身体冷冻,然后选择合适的时机,在未来的社会中重新生存。又或者人们可以随意更换自己的身体器官,也可以运用一些不会产生损坏的躯体代替器官或者身体肢干。这样人们在生活中不会再遭受恶劣环境的影响,可以进入到其他的星球环境中开展生活活动。也可以将自己变为巨人,或者是缩小到无形。在人类未来社会中摆脱空间限制的时候,时间对于人类的发展也就失去了意义,或许人们在未来能够封存自己的人生记忆,随意选择自己的生活方式,但是在这种社会发展环境中,人们原有的情感以及伦理和自然关系都会被打破。人们在生活中将会享受绝对的自由,不会被任何物质和规则所约束,在人们的生活中,将不需要理解命运以及悲剧的存在。在这种生活环境中,物的力量无法发生作用,可以说是机器具备了物的力量,他们将作为我们新社会中的一种道德代理人,为人类提供服务。但是人们与人工智能之间所形成的平等关系也会消失,他们在对待人类时可能也会产生一定的差异,但是人类在选择人工智能方面却没有了明确的标准,人工智能可以选择头脑简单,没有太强反抗能力的人类留存在社会中。他们也能够对人类保存的客观产物进行阅读和记忆,比如图书或者音乐等,甚至他们能够读取人类的主观记忆。但是人类并不能够判断人工智能是否能够真正理解这些产物的含义。人类也无法评判人工智能对这些产物的兴趣,他们在生活中是否会继续进行技术的创新与创造,他们也许会继续创造物质,但是有较大的概率不会遵循人类的创造意义进行物质的创新。因为他们毕竟与人类还是存在一定的差异,所以人工智能的发展应该更加倾向于人工智能的社会。当然,从当前的人们态度来看,支持极端观点的人类群体较少,多数人还是站在中立的态度上看待这方面的问题,或者稍稍偏向乐观与悲观。但多
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年医院门诊部工作计划(3篇)
- 2026年大数据培训教育合作协议
- 2026年AI加盟SaaS 服务协议
- 2026年咨询顾问安全生产培训协议
- 预警中心工作制度汇编
- 领导休假协助工作制度
- 领导干部调研工作制度
- 风貌业态联审工作制度
- 食品安全标准工作制度
- 黄岛城管梯次工作制度
- 商法学第二版核心知识点笔记详解
- 机关食堂调研课题申报书
- 地理信息安全在线培训考试系统题库
- DB12T 688-2016 机动车维修业开业条件
- 宿舍用电安全班会课件
- 办税大厅礼仪培训
- DB37∕T 4383-2021 混凝土结构硅烷浸渍技术规程
- 事业单位公开招聘考察工作方案
- 2026年大连职业技术学院单招职业技能考试题库附答案
- 欢迎词模板讲座范稿
- 红楼梦第五回赏析
评论
0/150
提交评论