人工智能主体资格论分析研究 计算机专业_第1页
人工智能主体资格论分析研究 计算机专业_第2页
人工智能主体资格论分析研究 计算机专业_第3页
人工智能主体资格论分析研究 计算机专业_第4页
人工智能主体资格论分析研究 计算机专业_第5页
免费预览已结束,剩余12页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、摘 要人工智能作为科技发展的突破口,正以迅猛的劲头改变着人类的生活方式和生产方式。人类的科技水平和知识能力也推动了人工智能的快速的发展。以实现人类的智能为目标,人工智能所产生的利弊也在一定程度上超越我们的想象。其最大的影响力在于创造一个崭新的主体,不仅具有智能,还能够处理各种日常生活问题。通过对人工智能的现实问题的探讨研究,逐步厘清人工智能可能带来的损害所产生的相关的法律责任,参照现有的法律主体的制度,探究人工智能是否能够被赋予法律主体资格,从而达到地更好处理其与其他法律主体之间的关系的目的。关键词:人工智能;法律主体;权利能力;法律人格AbstractArtificial intellige

2、nce, as a breakthrough in the development of science and technology, is changing the way of life and production mode of human beings with rapid strength. The level of human technology and knowledge also promote the rapid development of AI. In order to achieve human intelligence, the advantages and d

3、isadvantages of artificial intelligence also transcend our imagination to a certain extent. Its greatest influence lies in the creation of a new body, not only intelligent, but also able to deal with all kinds of daily life problems. Through the study of the practical problems of artificial intellig

4、ence, we will gradually clarify the relevant legal responsibilities arising from the possible damage caused by artificial intelligence, and refer to the existing legal subject system to explore whether artificial intelligence can be given the qualification of the legal subject, so as to better deal

5、with the relationship between the artificial intelligence and other legal subjects. The purpose of the Department.Keywords: artificial intelligence; legal subject; right capacity; legal personality.第1章 绪 论1.1 课题来源、背景及研究的目的和意义1.1.1课题来源在高校各类课程的研究中,人工智能主体资格引起了我极大的兴趣,对其研究和分析有着高涨的热情,我查阅了相关文献,在导师的指导下共同商定了

6、本文的课题。1.1.2课题背景及研究的目的和意义我国目前正处于人工智能发展的蓬勃时期,然而由于法律的滞后性和模糊性对于人工智能的界定划分以及相关各方之间责任承担划分不明,发生事故或者造成侵害时由谁承担责任或者如何做到减少损害到目前为止是不明确的,而承担法律责任首先应当具备法律主体资格,是否可以赋予机器人虚拟的法律人格使其承担责任是本文的中心论点。未来人工智能与人类社会生活不可分割是必然的,解决现已存在的问题,预防未来可能发生的问题,在可控范围内减少问题。1.2 国内外研究动态1.2.1 国内研究动态人工智能的法律地位学说:工具论认为人工智能是人类为生产和日常使用而发明的技术,其存在的而根本目的

7、和意义是作为人类服务的工具,并不具备独立的意思表达能力。否认人工智能是一个独立的法律主体资格。电子奴隶说认为人工智能在工作中不具备人类特有的情感特征和生理特点,不需要休息等现实需要,可以看作是不屈不挠的机器,具有行为能力但没有正确的能力。代理人说认为,人工智能的所有行动都是由人类控制的,人工智能的行动和后果最终必须由该机构承担。1.2.2 国外研究动态人工智能作品的著作权等知识产权问题(1)工具说:人类利用人工智能技术创作的作品,其作品归属毫无疑问归创作的人类所有(2)雇主理论:人工智能的所有者拥有人工智能独立创作的作品权利,人工智能作为被雇用者,其权利归雇主所有(3)非人类创造的作品应该归公

8、众所有1.3 拟解决的主要问题(1)人工智能的法律地位(2)相关各方之间的责任划分(3)未来有关人工智能的法律规范的立法方向1.4 研究步骤和方法1.4.1研究步骤第一步,综合分析国内外司法现状,确定研究对象;第二步,确定论文题目;第三步,查找相关文献、书写大纲;第四步,提交导师,由导师提出修改意见;第五步,反复修改、最终定稿。1.4.2研究方法案例分析法,选用当下热门案例进行分析,得出自己的观点第2章 问题提出:人工智能实体能否成为法律实体2.1人工智能的“进化之路”人工智能 (/item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/9180 t /item/%

9、E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/blank)的定义分为“人工 (/item/%E4%BA%BA%E5%B7%A5 t /item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/blank)”和“智能 (/item/%E6%99%BA%E8%83%BD t /item/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD/blank)”两部分。“人工”指的是“人工系统”,这通常是人工系统的含义。“智能”包括意识、自我、思维(包括无意识思维)等问题。人们普遍认为,人类所知道的唯一智慧就是人自己的智慧。但是,我们

10、对自己智力的理解是非常有限的,更不用说人类智力的基本要素了,而由人制造的机器经过无限发展所能达到的智慧的高度无法预估,因此区分由人制造的某种超越人类本身智力的机器是不太现实的。人工智能是一门关于现代新型科技的独立学科,它是以人的推理、计划等特有的智力行为和思维过程为参照对象,通过计算机这种媒介来模拟参照对象的研究学科。它涉及到了诸多学科知识,范围涵盖了自然人文社会等各个门类,触及到现代人类社会知识体系的方方面面。人工智能作为新的领域,人工智能的研究是以人类各方面的数据为依托,他的发展势必参与到人类生活的方方面面,因此对于人工智能的研究范围不能仅仅止步于自然学科方面。人类独有的思维方式是人工智能

11、重要的研究对象,通过对人的思维模式的科学研究,总结人类通用思维应用到人工智能的发展中。现今社会关于人类思维的研究学科已经发展较为成熟,这能够作为人工智能的参照理论应用到人工智能的发展中去。将研究人类社会思维的学科成果应用到人工智能的领域中,统观思维领域,人工智能吸纳了人类思维并有可能发展自身的逻辑思维,并依靠科技吸纳形象思维和灵感思维等不同的思维方式,这对人工智能的发展速度和发展潜能有着不可估量的巨大成就。1611年,“机器人”是那个时代人类丰富想象力的产物之一,它指的是利用时钟齿轮技术而创造出来的自动机器人娃娃。虽然这个娃娃还没有任何“智能”的感觉,但它体现了人工智能最终将成为现实的理念:人

12、体和大脑最终可以被机器模拟。1886年,法国作家维里亚-亚当出版了他的科幻小说未来的夏娃.他把这台看起来像人类的机器命名为“人形造物”。后来,在自然科学特别是物理学的突破性发展的基础之上,法国哲学家孔德开始作出假想,通过对人类行为以及人类社会组织部门的研究,使得这门学科最终能像物理学一样达到成熟的状态。通过观察社会现象、统计数据和分析社会行为,人们可以得到与自然规律相类似的社会规律,从而“研究现状,推断未来”。 HYPERLINK javascript:; 1956年夏天,以麦卡锡和申农为首的科学家共同探究了一系列机器模拟人类大脑以及行为有关的问题。首次提出“人工智能”这个词汇,标志着人工智能

13、这一个新的学科正式诞生。自20世纪70年代以来,人工智能被公认为是世界上三大最先进的技术之一,它也被认为是21世纪三大前沿科技之一。其原因是在过去的这一段时间里人工智能发展的极为迅速,并其他多个领域许中得到了广泛科学的应用,取得了相当优秀的结果。人工智能已逐渐成为一个独立于其他学科的科学。千禧年以后,人类社会的文明演进呈现出加速发展的趋势。21世纪初,随着互联网的普遍应用,社会结构发生了重组,人类社会与物质社会广泛地联系在一起。从此,它开启了网络社会的大门。到2010年,在传感技术、云储存和通信技术应用的基础上,数据规模呈几何增长,人类社会已经踏入大数据时代。随着计算机数据处理能力的迅速提高,

14、人工智能已经深入人类社会各行各业,世界正在向人工智能时代迈进。人工智能是结合脑力劳动和体力劳动、感知和思考、决策和执行于一体的系统,从而让机械更趋向于一个完整的人类。以物联网、大数据和云计算作为人工智能的支撑,你可以通过它的传感器获取你想得到的数据,利用有网络的计算机和大数据云存储来收集和统计数据,利用算法和深度学习功能来处理数据,并在此基础上做出选择和“决策”。目前,人工智能在两大领域显示出它不可思议的发展速度:一个是综合智能领域,即机器学习、神经网络、大数据、认知系统、进化算法等要素的综合应用。不是传统意义上的编程,换句话说,它突破了一台机器只能做程序员能做的事情的限制,你只需要给它一堆人

15、们在一生中无法浏览的数据,或者在互联网的帮助下。您将其连接起来,并将其编程以搜索数据,包括人类智能根本无法理解的非结构化数据,并设定特定目标。系统的最终结果将是完全不可预测的,不受创建者的控制。围棋特工“阿尔法狗”击败了李世石和柯洁,这只是人工智能小试牛刀的一个例子。另一个领域是“人工劳动者”,它是一种传感器和执行器的组合,可以执行各种人工任务,从海底采矿到外层空间维护,再到战场杀戮。当然,最接近我们生活的例子就是自动驾驶。这两个区域的结合意味着“机器人”的“大脑”和“四肢”是强大的且可以分离。在“物联网”时代,只有与物联网没有联系的事物,才是人工智能所无法控制的。2.2问题的产生:人工智能是

16、否具备法律主体资格法律是人的理性产物,法律规则本身也反映和符合人的局限性。即使一个人充满了善良,他也可能会伤害自己和他人,因为他受到自己能力的限制。法律规则的设计和执行将考虑到这种有限的能力。不得不承认, HYPERLINK javascript:; 人类社会的所有规则包括游戏规则,都是由有局限性的人设计给有局限性的人的。由于人们意识到自己的局限性,所以在设计规则时考虑的都是普通人的标准,即以中等智力和体力的正常人作为判断标准。此外,为了建立一个稳定的社会秩序,法律往往规定一个低于一般人水平的安全线。从这个意义上讲,法律是一种保守的社会力量, HYPERLINK javascript:; 不能

17、满足创新精神和能力追求的“更快、更高、更好”的目的。在技术发展和社会经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律在维持社会稳定方面发挥了良好的作用。但在人工智能时代,它使法律落后于技术和经济的发展,使那些抓住机遇的人获得了巨大的边际收益。其次以婚姻为例,目前我们是自然人之间的婚姻关系,现在有人提议娶智能的机械人偶作为妻子,那么这种婚姻关系是否应该受到婚姻法的保护?当自动驾驶汽车发生事故时,该如何分担责任?是汽车制造者还是使用者?这是交通法规必须面对的一个新问题。如果机器人伤害人体,法律会做什么?如果机器人夺走了人类的工作,职能部门如何处理它?为了追求利润, HYPERLINK

18、 javascript:; 商业公司倾向于购买机器人而不是雇佣人类。过去华尔街有成千上万的交易员,现在只剩下两名人力经理了。力桥集团基本上实现了无人驾驶,智能卡车在卫星导航下按照固定轨迹工作,为公司节省了大量开支。由此导致的工人失业以及对智能制造机器人征收特别附加税的必要性也值得讨论。这要求侵权责任法、劳动法和税法及时作出反应。在人工智能给人类生活带来的一系列变化中,这几个案例只是对传统法律应对模式的直接挑战的冰山一角而已。人工智能应用领域的正在不断扩大,对现代法律体系和现有的道德伦理规范的冲击会越来越强烈。我们需要思考未来人类应当如何与人工智能和平共处?人工智能到底是主体还是客体?人工智能是

19、否有人格? HYPERLINK javascript:; 章小结:西南政法大学侯东德教授认为现在的人工智能技术还是弱人工智能,未来可能实现强人工智能,甚至是通用人工智能,进化出有自主意识的人工智能。从人工智能的整体发展历程来看,人工智能会越来越接近人类,不仅在工业行业取代人类劳动力还将走入人类家庭生活,在服务行业或者其他方面占有重要地位,因此人工智能将会产生各种各样的社会关系,如何处理这些关系使我们所需要面对解决的问题。第3章 人工智能与法律:未来VS已来人工智能的法律人格是有限的, HYPERLINK javascript:; 这意味着人工智能的主体资格与自然人或公司不同,并不具有承担全部责

20、任的能力和地位。人工智能虽然可以取得权利和承担一定的义务,但其价值观的形成与人类有着根本的区别。人工智能的深度学习与应用主要依靠的是各种复杂的算法和数据应用,在运行算法的过程中,很难保证人工智能都能够对每次独立自主行为均能作出合理合法的价值判断。人工智能的规制必须依靠立法的系统安排, HYPERLINK javascript:; 才能保证人工智能在合理范围内的发展和应用。基于人工智能法律人格有限,国外立法作了一定的尝试:第一,立法者和执法人员应确保人工智能系统不被滥用,法律必须在公民隐私保护与新兴技术发展间寻找到恰当的平衡。在数据使用方面,已存在不少习惯法,如明确的目的、最低限度的充分性、公开

21、通知、个人同意等原则。1998年数据保护法和2016年欧洲联盟个人数据保护总条例禁止公民未经同意非法使用个人数据。这些法律规则是非常实用的,并提议建立沙箱区域以在控制所有可能的变量前提下,安全地控制和引导错误使用数据的行为。在“大数据”时代,数据是宝贵的财富,也直接关系人身安全,已有利用人工智能非法窃取网络信息的先例。在人工智能系统中使用个人数据必须遵循标准准则,滥用数据或窃取隐私将受到惩罚,在发展人工智能时,必须考虑保护公民数据和隐私的能力,平等对待每个公民的数据,并确保公民个人信息的完整性。非公开数据的使用需要得到数据所有者的同意。第二,延伸身份保证范式,以保持法律责任链条的明确性。个人识

22、别信息是个人拥有绝对控制权的资产,法律应优先保护。 HYPERLINK javascript:; 2009年5月12日,欧洲联盟委员会制定并通过了关于RFID技术应用中的隐私和数据保护原则的建议,明确了包括信息和透明度要求以及零售商使用数据的特殊要求。设计师应采用身份标签,否则将不被允许访问。第三,个人信息保护规制需要完善,以尊重个人数据完整性的前提下设计并应用人工智能系统。1995年, HYPERLINK javascript:; 欧盟颁布了关于涉及个人数据处理的个人保护以及此类数据自由流动的指令等多项个人数据保护指令,建立了严格的的个人数据保护体系。根据德国现行法律,车辆中所积累的数据所有

23、权原则上属于车主。2016年4月,欧盟一般个人数据保护条例发布,明确扩大了数据主体的权利,包括获取数据的权利、修改的权利、删除的权利、限制处理的权利以及可移植的权利等。相对而言,我国的个人信息与隐私保护制度建设相对滞后。2012年全国人民代表大会常务委员会关于加强网络信息保护的决定在实践中仍然十分有限。更加严厉制裁措施的个人信息保护法与相关刑法修正案亟待出台。人工智能具有独立思考能力是与其他科学技术最大的区别,但人工智能作为一种工具仍然存在,只能具有有限的法律人格。即使人工智能已经发展到了自我意志的程度,它的结构和生产方式也与人类有着根本的不同。 HYPERLINK javascript:;

24、人工智能具有有限的权利义务,更应适用特殊的法律规制标准。从哲学角度分析,人工智能毕竟只是人类为追求更美好生活创造出的智慧型工具。以人工智能创作的作品为例,人工智能创作的文学作品已经付诸实践(例如,人工智能创作的小说甚至通过了日本文学奖的第一次评审)。特别是在视觉艺术领域,人工智能已经完全独立于人类来生成原创内容。美国宪法第一修正案规定:作者与创作者在限定的时间内具有科学发明与艺术创作的排他权利。例如人工智能创造的作品的版权,假设人工智能具有完整的法律人格,那么人工智能是否是知识产权的主体?因此出现的法律真空地带,只能依据现有规制进行推论。人工智能创造的作品可分为两种,一种是人类利用人工智能技术

25、创作的作品,其作品归属毫无疑问归属创作的人类所有。例如使用电脑编写的曲谱,人工智能仅作为工具使用,在伯罗吉尔斯光刻公司诉萨罗尼案中,法院裁定相机的使用者拥有照片的著作权,而不是相机制造者;另外一种是人工智能是在不受人类意志干扰的情况下自行创造出来作品的。有些学者认为“雇主理论”是可以应用的,即人工智能的拥有者有权拥有人工智能独立从事创造的工作成果,人工智能作为被雇用者,其权利归雇主所有。还有判例认为非人类创造的作品应该归公众所有,在2011年的Naruto v. Slater案例24中,一名叫Slater的野生动物摄影师将相机放在印尼的雨林中,结果,一只雌性猴子拿起相机,按下快门,留下了许多珍

26、贵的照片。斯莱特主张这些照片归他们所有,动物爱好者协会则坚称由雌性永久猴子拥有。法院的结论是,由于猴子不是人,不能出庭或具有法律主体资格,而照片也并非Slater拍摄,因此将照片的所有权归于公众。无论上述何种观点,均不认为机器或动物等非人类具有着作权。在人工智能自主创造的情况下,可以应用人工智能的揭开面纱的原理,证明人工智能背后的实际控制主体是正确的主体。人工智能虽然具有法人人格,但这种人格是有限的,并不是完全的法人人格。归根结底,人工智能是人类为发展服务而创造的一种智能工具。即人类自身的权利优位于人工智能。人工智能的工具属性决定了其法律地位。苹果公司现在出产的个人电脑软件已经可以根据现场环境

27、独立编曲,在此环境下产生的作品并非由苹果公司或软件制作者享有着作权,而是由使用该个人电脑的主体所有。采用“揭开人工智能面纱”的理论,将极大地激发人类利用人工智能创作的积极性,同时也将促进人工智能产业自身的发展。 除了对人工智能的法律地位作出必要的规定外,还必须明确在发生侵权行为时确定相应的法律责任的原则。由于人工智能的法律人格有限,无法独立、完整地承担侵权责任。联合国教科文组织关于机器人伦理的初步报告草案提出了机器人责任的共同解决方案。分担所有参与机器人发明、授权和使用的主体的责任。基于侵权的系统设计的初衷是迫使机器人系统的设计者和生产者内化人工智能侵权的成本,促使系统的设计者、参与者和生产者

28、自愿履行安全义务。确保受害者能够找到自己的主体并获得赔偿。借助侵权行为法的分配监管路径可以使其应用于人工智能,为人工智能安全属性的建立提供积极的指导作用,强化人工智能的产品责任。基于人工智能法律人格的有限性,通过侵权责任的杠杆,将人工智能系统的外部性安全成本内部化,鼓励人工智能的销售商、零售商、设计者、使用者、监管者,认真履行人工智能的安全责任,确保上下游链条不会随意更改人工智能系统。为了确保人工智能是可以被问责的,人工系统必须具有程序层面的可责依据,证明他的运作方式事可行的。由于人工智能研发具有高度的秘密性、分散性、不连续性及不透明性,任何一个拥有电脑或智能手机的个体都可能参与到人工智能的开

29、发或研制中去。因此,必须对数据进行留存,要求所有参与开发、制作、生产人工智能系统所产生的数据必须妥善记录并永久保存,在事中授权或事后问责时向主管机关提供。由于人工智能系统复杂,普通民众甚至主管机关的业务人员可能无法了解人工智能的所有缺陷,因此在发生事故后追寻原始数据将成为最有力的定责与索赔依据。现代存储材料的便携性与高容量性使得数据记录成为低成本的事情。在有强制责任保险配套的情况下,如果人工智能的开发者无法提供完整的科学的数据,则由其承担无过错责任并进行赔偿。没有妥善储存数据的责任人需要承担严格的人工智能产品责任。关于举证责任问题,一般使用者针对人工智能很难承担过高的举证标准与诉讼成本,应当考

30、虑采用较低的举证责任标准,即使用者证明有损害发生、并且这种损害是由人工智能造成的即可。正如尼古拉斯卡尔所指出的那样,人工智能是人类工效学的最新发展,具有悠久的历史,而人机工程学是艺术与科学相结合的产物。它的目的是追求真善美。人类不能被人工智能日益增长的力量所牵制, HYPERLINK javascript:; 甚至进入一个完全不受控制的未来。为了更好地应对人工智能带来的新风险,同时在保护创新的同时确保人类生活的良好质量,可能的法律发展包括以下几个方面。第一,现有的法律模式并没有摆脱传统的形象化甚至拟人化思维方式, HYPERLINK javascript:; 只将有形的智能机器或机器人纳入监管

31、范围。但是,这些有形的机器只是人工智能的其中之一,它们都是由一种无形的、分散的智能所控制。算法、网络和大数据被称为“复合智能”,是人工智能的智能。正如李彦宏和其他人敏锐地指出的那样,也许这真的是需要高层设计的算法来防止负面后果。人工智能技术不仅仅是科学和工程专业人员的领域,法律人也需要学习人工智能知识,这就对法律人提出了较高的技术要求。法治管理需要与生产环节相结合,例如进行管理算法或生产资源处理的数据,以防止产生负面后果。“这种“顶级设计”,我们可以称之为人工智能协会的章程,需要法律人员和程序员、人工智能专家的合作,才能将算法转化为法律,将法律转化为算法。 HYPERLINK javascri

32、pt:; 使人工智能的基本操作系统符合人类的伦理道德规范和法律规制。政府应加大对人工智能发展的投入力量,吸收更多的相关技术人员参与立法、行政和司法工作。如果这些人才大多转向为商业机构服务,则对人工智能朝着为社会公共利益服务的发展方向产生不利影响。 HYPERLINK javascript:; 从现有的国家立法模式来看,欧盟和德国直接修改民事法规和交通法规是在事实不清、问题不明确的情况下仓促作出的选择,不利于鼓励创新,也不利于保护公民的权利。在这一阶段,更好的解决方案是美国式的公法模式,指定一个现有的政府部门来建立相关的行业技术标准、安全标准和个人数据保护标准。这一标准不应自上而下任意强加,而应

33、是行业本身制定的标准,是保护公共利益和个人权利的标准。最后,德国的自动驾驶汽车规划道德准则是一个可取的想法。由于人工智能的核心在于算法,算法的设计决定了智能机械的行为。对于普通民众和大多数立法者、执法者和司法人员来说,算法是一个遥远且不可理解的领域。人们只能看到它的结果,却看不到它的运行过程。 HYPERLINK javascript:; 制定严格的规范来约束算法设计者的行为,要求程序员用自然语言解释算法的设计原则,并在出现不良后果时追究他们的责任。但是,德国模式只是将这一理念作为一种建议的道德准则付诸实施一样,这一规则仍然很难成为法律,因为这一切都是建立在立法者、执法人员、司法机构和公众对人

34、工智能有一定了解的基础之上,能够及时发现算法可能造成的有害后果。在人工智能知识像普遍法律一样普及之前, HYPERLINK javascript:; 一种过渡性做法是设立由相关领域的专家和法律专业人员组成的道德委员会或“人工智能法院”。按照风险防范的理念,而不是解决纠纷的相关规则的执行。这是流行创新的时代。创新反映的不只是人与自然的关系,也反映了人与人之间、人与社会之间的关系。人们在生产力、生产关系和上层建筑等各个领域的创造性活动,即技术进步和制度变革,都是创新的过程。知识革命刚刚开始,主题是法律、政策和伦理。我们要做到的不只有知识创新,还需要对理论创新和制度创新。 HYPERLINK jav

35、ascript:; 法律人需要秉持理性主义精神,去发现和探索一种符合社会需求的法律制度。我们相信,科技的智慧之光和法律体系的理性之光将在人工智能时代融为一体。章小结:目前我国有关人工智能方面的立法制度还不够完善,借鉴国外立法模式,取长补短,尽快建立严格的法律体系解决社会现实问题,并对人工智能作出理性思考,妥善处理人与智能机械的关系。关于人工智能责任承担与监管思考4.1人工智能责任承担的设想4.1.1澄清责任产生缘由责任的产生源于法律主体采取作为或不作为行为导致法律所不容的后果出现。前文已阐述人工智能不能作为法律意义上的劳动者资格角色,但其确实参与了劳动环节的分工,也可能会导致一系列劳动责任事故

36、的产生,因此,不能因其不具备劳动法律主体资格就放任不管。其背后的生产者、使用者、监管者如有过错还是要为此付出法律的代价,只不过此种情况的归责原则、承担方式等更需专业考究。4.1.2.引入商业保险基于人工智能没有独立的财产,其发生致损后果时,如有第三方能代为履行赔偿责任,这将大大抵消人们使用上的顾虑和风险。商业保险的引入为破解这一难题提供了选项。作为合同契约行为的保险,它是一种为特定风险的后果提供经济保障的风险金融转移机制。保险关系的建立至少应包括可保风险的存在、公平、合理、适度和稳定的保险费率、保险合同的订立、保险索赔和索赔。从以上要素来看,关键是要实现可保风险的存在。随着科学技术的进一步稳定

37、发展,人工智能作为成熟的产品进入前景广阔的劳动力市场指日可待,这蕴含着体量庞大的可保市场,相信届时保险产品的创新行为会出现在人工智能身上。4.2人工智能监管司考4.2.1由谁监管鉴于人工智能投入市场的特殊性, 以行业技术自律为主体,以政府监管为补充是一条可行的选择路径。这样既能尊重市场在经济活动中起决定性作用的效果,构建新型企业组织结构和运营方式, 充分相信技术的力量,激发技术人员的创造热情,同时,也能规避市场的盲目性, 有效把控人工智能在劳动服务市场的合理规范运行。因此,建议成立人工智能行业协会,配合监管部门督促会员自律,维护行业利益,为会员提供服务,全面提高人工智能服务劳动市场的能力。同时

38、,组建政府监督部门,该部门应包含人工智能的质量监督、行为监控及定责等职能。双管齐下,促进劳动领域的人工智能行业发展。4.2.2监管什么国家应出台关于人工智能技术在劳动领域的产品质量标准指引,确立生产者、销售者、使用者三方的行为原则和伦理道德底线。政府监管部门应当对责任事故现场进行勘验、检查,收集证据,并委托专门机构对技术和专业事项进行评估; HYPERLINK javascript:; 根据责任事故现场勘验、检查、调查情况和有关的检验、鉴定结论,及时制作事故认定书,作为处理人工智能发生责任事故的证据。4.2.3如何监管一是增强风险意识,建立人工智能服务大数据平台,构建人工智能安全监测预警机制,

39、强化虚拟环境和实体环境协同融合监管思路 ;二是落实人工智能产品研发设计者、销售者、使用者的道德规范和行为守则的执行监管 ;三是培养适应人工智能监管环境的复合型人才队伍,大力开展人工智能科普活动 ;四是建立行业、政府监管部门、商业保险公司连调联动运行机制,保证信息有效沟通,实现 1+1+1 3 的工作效率和工作质量。章小结:在人工智能还不能解决人类情感问题和独立财产承担责任之前,它只能取得有限的法律主体资格,如何分担责任并使受害人得到合理赔偿是我们需要慎重思考的问题。俗话说:没有规矩,不成方圆。法律之下的自由才是真正的自由,要想事物想好的方向发展必须要有严格的监察体制归正其发展轨迹,监管人工智能

40、要做到行业与政府相结合,共同努力。结 论人工智能是一种新兴的技术,涉及的范围也十分广泛 ,不同的人与不同的行业之间也会有不同的认识和定义。如今,像Siri语音识别、Google自动驾驶、机器人着护等人工智能产品已经或正在走入人类的生活。随着使用频率的增多,对人类造成侵害的可能性在增大,因为这些人工智能不仅仅是客体对象,受人类控制成影响,它们也能通过自已的意志決策和行动,具有法律主体的特征。然而迄今为止,没有法律制度承其法律主体的地位。人工智能系统能够独立作出决定,并随时介入到人类的生活中。毫无疑问,在人工智能作出决定和采取适当行动时,将影响人类的自由意志和生活方式。因此需要赋予人工智能以法律人

41、格。当它们在社会中积极行动时,如果造成了损害,即使它们的行为是出于善意 ,也必须被限制或阻止,以防止对其他主体的权利造成干涉.由于人工智能与其他法律主体间可能发生一定的法律关系,对双方权利义务的有效保护需要明确人工智能的法律地位。根据现行法律,人工智能只被视为法律关系客体对象,人工智能造成损害的赔偿责任问題尚不明确。人工智能具有学习、记忆、积累经验、自主运筹、决策、行动等等众多特点,満足代理制度的一般要求,在现行法律制度对其主体地位尚未认可的现状下,可以尝试通过代理制度逐步将人工智能引入,再逐步构建人工智能法律主体的完整框架.不失为一种有用的方法。 由于人工智能产生的特殊性,如果被认定为法律主体,其权利义务范围与其他法体主体的权利义务范围不一定相同。因

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论