【人工智能对传统法律体系的挑战及应对策略探究(论文)7100字】_第1页
【人工智能对传统法律体系的挑战及应对策略探究(论文)7100字】_第2页
【人工智能对传统法律体系的挑战及应对策略探究(论文)7100字】_第3页
【人工智能对传统法律体系的挑战及应对策略探究(论文)7100字】_第4页
【人工智能对传统法律体系的挑战及应对策略探究(论文)7100字】_第5页
已阅读5页,还剩4页未读 继续免费阅读

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能对传统法律体系的挑战及应对策略研究目录TOC\o"1-2"\h\u23449人工智能对传统法律体系的挑战及应对策略研究 1570一、引言 16812二、人工智能对传统法律体系的挑战 220889(一)法律主体地位尚未明确 232105(二)法律责任认定困难 421520(三)法律监督难以奏效 57302三、人工智能法律挑战的理性应对 53540(一)确立人工智能有限法律主体地位 62574(二)完善人工智能致害责任认定标准 621599(三)健全人工智能法律监督制度 727162四、结语 9[摘要]人工智能技术的迅猛发展给人类生活带来便利,但同时也为人类社会带来了诸多风险因素。在传统的法律体系下,人工智能的出现将给法律主体地位、法律责任认定以及法律监督带来挑战。因此,需要确立人工智能的有限法律主体地位,厘清人工智能的致害责任主体及因果关系,完善全方位、多角度的法律监督体系,设置专门的人工智能监督机构,从整体上理性应对人工智能对传统法律体系的挑战。[关键词]人工智能法律主体地位法律责任法律监督[中图分类号]D90引言人工智能作为当代科技的研究前沿,其迅猛发展已如行进的车轮般不可阻挡。毋庸置疑,人工智能的诞生为人类生活提供了诸多便利,极大提高了人们的工作效率。然而,人工智能的许多法律活动很难继续适用于传统的法律法规,如何应对人工智能给传统法律体系带来的挑战,已然成为学术界和实务界的重要课题。解决人工智能法律问题的首要任务在于明确人工智能的法律地位。目前学界对于人工智能的法律地位进行了广泛的讨论,主要形成了客体说、完全主体说和有限主体说三种观点。有学者提出人工智能的行为和意志都是人工赋予的,因此将人工智能定义为人工类人格,仍是物的属性[[]杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018,45(04):91.];有学者借鉴欧盟的规定,提出确立新的法律主体类型“电子人”,以表征人工智能机器或系统[[]郭少飞.“[]杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018,45(04):91.[]郭少飞.“电子人”法律主体论[J].东方法学,2018(03):40.[]张绍欣.法律位格、法律主体与人工智能的法律地位[J].现代法学,2019,41(04):62.人工智能的出现颠覆了传统法律责任体系的种种原则,人工智能的致害责任应当如何分配仍是亟待解决的问题。对此,有学者认为人工智能的致害责任应当由制造者和使用者承担,而人工智能不承担责任[[]梁鹏.人工智能产品侵权的责任承担[J].中国青年社会科学,2018,37(04):13.];腾讯研究院的学者提出“赋予某些智能机器人电子人格,使其享有特定的权利和义务,并可以对其行为承担法律责任”[[]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,35(05):173.[]梁鹏.人工智能产品侵权的责任承担[J].中国青年社会科学,2018,37(04):13.[]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,35(05):173.[]许中缘.论智能机器人的工具性人格[J].法学评论,2018,36(05):163.人工智能的运作程序难以被人察觉,具有隐蔽性和不可解释性,正因如此,人工智能的法律监督才更加难以奏效。针对这些缺陷,有学者提出从事前预防、事中管控到事后监督三方面建立法律监管和评价体系,“采用严格慎重的原则,并且法律监管措施应贯穿全过程”[[]马治国,徐济宽.人工智能发展的潜在风险及法律防控监管[J].北京工业大学学报(社会科学版),2018,18(06):69.];还有学者认为应当建立专门机构,在网信办中设置算法审查委员会以实施有效的法律监督;亦有学者建议通过专业审计人员的协助,“聘请独立的第三方算法审计机构对算法进行定期检测”[]马治国,徐济宽.人工智能发展的潜在风险及法律防控监管[J].北京工业大学学报(社会科学版),2018,18(06):69.[]刘东亮.技术性正当程序:人工智能时代程序法和算法的双重变奏[J].比较法研究,2020(05):78.综上所述,学者们对于人工智能的种种挑战已经展开了讨论,然而迟迟未得出一致的结论。若不以审慎的态度应对人工智能带来的挑战,很容易一味追求科技进步而忽视社会整体的和谐,从而对国家安全、社会秩序和公民利益造成威胁。因此,需要合理应对人工智能可能带来的法律挑战,使得人工智能更好地适应法律体系,实现人与人工智能的和谐共处。二、人工智能对传统法律体系的挑战在大数据、区块链、超级计算、传感网等新技术的驱动下,人工智能飞速演进,呈现出深度学习、跨界融合、自主操控等特点。我们应当清晰地认识到,在把握人工智能发展机缘的同时,还需要警惕这一技术可能对传统法律体系造成的挑战。具体而言,人工智能对传统法律体系的挑战主要有以下三方面。法律主体地位尚未明确在我国传统法律体系中,法律主体主要分为三类,即自然人、法人和国家,而法律客体主要包括物、人身、行为结果和精神四种类型。现阶段对于人工智能的法律地位,学术界众说纷纭,观点云集,主要存在客体说、完全主体说和有限主体说三类学说。客体说从人工智能的工具属性出发,兼顾人工智能缺乏思考能力和道德能力,归根结底人工智能只是服务于人类的工具,主要基于缩减人力提高效率、辅助人类生活、促进社会进步的目的而产生,不能作为法律主体参与法律活动。在这种观点之下,显然人类是法律关系中的主体,而人工智能是作为客体对象的存在。一直以来,法律主体的特点就是具备独立思维,自然人乃至法人在法律上都有独立思考的能力,可以享有权利、负有义务和承担责任,并通过实践完善自己的能力,然而人工智能本身并不具备独立思维,即便人类在开发和设计之初编写了完备的算法和程序,足以支撑人工智能完成大量的工作和困难的任务,它仍然是人类本身实践的产物。现阶段多数国家的现行法律法规和司法实践活动中都坚持人工智能客体说的观点,但客体说主要针对弱人工智能,很难将强人工智能涵盖其中。完全主体说认为人工智能有着人类的特征并在一定程度超越了人类的极限,如寿命、疾病等方面,极大地补充人类在生物特征上的缺陷。随着科学技术的高速发展,人工智能逐渐不再仅仅是提供便利的工具,而是具备独立思考能力的类人,在机械性劳动和信息处理等多个方面都具备与人类相当甚至超越人类的能力,因此应当将人工智能视为完全法律主体。主体说以代理人说和电子人格说为代表,试图赋予人工智能主体地位。代理人说意图将人工智能作为其所有人的代理人,电子说则是将人工智能确立为“电子人”,为其申请电子人格成为法律主体。有限主体说则是采取更为缓和的手段,肯定赋予人工智能法律主体地位的必要性,同时从实际情况出发,结合人工智能的自主程度和独立意识进行具体分析。正如孙占利教授所说,“对于智能机器人的法律人格问题,需要遵循最小化原则和程序化原则,尽量在最小程度上对人工智能制订新的法律”[[]孙占利.智能机器人法律人格问题论析[J].东方法学,2018(03):16[]孙占利.智能机器人法律人格问题论析[J].东方法学,2018(03):16.学理上对于人工智能的法律主体地位尚未统一的认知,尽管目前而言,人工智能的发展水平仍处于“工具”的阶段,基于此,许多学者对于人工智能持着客体说的观点。但考虑到人工智能的发展速度,若不及时对人工智能的法律主体地位进行限制和解释,产生自我意识的人工智能很难继续适用于传统的法律体系,如何确立人工智能的主体地位也是亟待解决的问题。(二)法律责任认定困难人工智能技术与传统科技之间最大的差异在于能够实现对人的模拟,人工智能有着与人相似的思考方式,能够基于设定好的程序作出判断,相应的也会造成侵权行为。在实践中,人工智能产品致人损害的事故屡见不鲜。2015年,德国大众工厂的技术人员被机器人攻击而不幸丧生,2016年深圳的高交会上,一台名为小胖的机器人突然失控砸坏展台,伤害路人。在传统法律责任体系中,责任主体必然是人,机器终归是人类完成工作的工具,一旦这类工具型机器造成损害,要么因产品自身缺陷认定生产者的责任,要不以使用者未尽到合理注意义务追究使用者的过错,及时弥补受害人的损失。因此,人工智能致害责任认定疑难的原因主要在于致害责任主体不明确和因果关系难辩明两点。其一,明确责任承担的前提就是对于人工智能致害主体的认定。人工智能产品的致害责任主体本身就具有复杂性,包括了产品生产者、销售者、拥有者及使用者,甚至有时还存在身份重合的现象。尽管目前在多数学者看来,人工智能仅具备工具属性,本质还是物品,但不可忽视的是,人工智能具有高度智能性和复杂性,在其高速发展的过程中,很难保证其不产生自主意识,化“客”为“主”,因此人工智能本身也可能是责任主体。其二,在认定有无致害责任时,需要确认的就是因果联系之有无。在人工智能广泛应用后,一件人工智能产品的出现,背后一般不是单方支持,而是多方的操作协调,而且人工智能的程序设定并非普通人所能轻松理解的,这样很容易使得事故的可解释性大打折扣,带来归因难题[[]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,35(05):170.]。因而当出现人工智能致害事故时,可能是因为一方或多方的原因,比如产品系统自身出现故障、生产者未尽到安全义务亦或是使用者操作失误等,很难第一时间辨明因果关系。在人工智能技术不断进步的今天,强人工智能的学习能力很有可能成为其他责任人逃避承担责任的[]司晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].法律科学(西北政法大学学报),2017,35(05):170.(三)法律监督难以奏效人工智能产品的普及必然带来人与智能产品同在共存的生活常态,而技术自身的隐患会危及人类的安全,同时亦会产生一系列伴生问题。由于缺乏对人工智能潜在风险的明确认识,国际上鲜有针对人工智能的专门的监管法律与机构,大多仍处于空白状态;同样,对于人工智能监督途径的法律研究也是匮乏的[[][]JoshuaJowitt.AssessingcontemporarylegislativeproposalsfortheircompatibilitywithanaturallawcaseforAIlegalpersonhood[J].AI&SOCIETY,2020(republish).事前监督与事后监督两部分略显单薄。如果人工智能技术在生产研发之初缺乏有效的监督,有漏洞的人工智能产品流入市场,从一开始就埋下隐患,尤其是像自动驾驶汽车等直接影响社会安全的人工智能产品,一旦存在安全性能方面的问题,后果将不堪设想。如果在使用过程中缺少法律上必要的规制,不对使用者加以限制,难免有不法分子将人工智能作为自己实施违法行为的工具,正如我们现阶段严厉打击的网络犯罪,而人工智能实施的网络犯罪显然具有更大的追究难度。第二,国家监督管辖范围有限,而社会监督又很难对人工智能进行有效监督。人工智能内部结构的复杂性使得监管者和普通民众难以理解其背后的运作机制和原理,从而无法预测其潜在的风险之处,如此使得社会监督很难发挥效果。鉴于人工智能的特殊性,缺乏专门的法律监督机构,根据传统的国家监督原则,很难全面地对人工智能进行监督管理,从而容易导致人工智能技术滥用,后患无穷。三、人工智能法律挑战的理性应对为适应时代发展的需要,国际社会对人工智能提出了一系列的应对措施。我国是人工智能研发与应用的大国,并且已经将人工智能纳入国家战略规划,因此,我们对于人工智能时代面临的问题更应当加强防范,积极面对,以有效的措施推动人工智能的发展。(一)确立人工智能有限法律主体地位诚然,对于人工智能的法律地位,大多数学者持客体说的观点,认为人工智能的出现不足以动摇现有的法律体系,试图维持法律体系的稳定性;少部分学者主张尽早确认人工智能的主体地位,以免出现法律空白;支持有限主体说的学者则是寥寥无几。笔者认为,客体说与完全主体说的观点都具有一定的合理性,但又难以覆盖人工智能的全部法律活动。因此,人工智能法律地位的确立要建立在区分强、弱人工智能的基础上,着眼于现实发展的需要,兼顾未来发展的趋势和动向进行定位。首先,对于人工智能的法律地位研究应该分两大类,即对于弱人工智能明确其工具属性,规范其法律客体地位,同时对发展较为成熟的强人工智能设定有限法律主体地位。目前学理上对于强弱人工智能已经有较为详细的讨论,以此为标准对人工智能赋予法律地位也较为明晰。正如前文所述,为了保持法律的稳定性,对于人工智能的法律主体地位应当坚持最小化原则。一方面,弱人工智能作为工具辅助人类活动,其法律权利、义务以及法律责任等诸多方面均可由生产者或使用者承担,此时人工智能作为法律客体参与法律活动。另一方面,强人工智能在运行过程中可能产生自我意识,从而支配自己的活动。在这种情况下,将人工智能基于自主意识而产生的法律责任归于生产者或使用者显然不合常理,因此赋予强人工智能以主体地位是必要的,旨在对其自主意识支配下的活动承担责任。其次,对人工智能法律地位的研究更应侧重于强人工智能阶段。对于弱人工智能阶段,机器和系统所做的决策被认为是由预先设计好的算法所决定[[]彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(02):56.],在这种情况下,人工智能作为客体参与法律活动,尚且能适应我国现有的法律主体体系,并不能对其产生冲击。强人工智能时代则截然不同,人工智能拥有有限的法律主体地位,对现有法律体系的影响在所难免,因此在未来的研究过程中,既要尽可能维护法律的权威,确保法的稳定性,又要确立强人工智能有限法律主体地位的标准、规则、责任等相关问题,从而在学理上为人工智能[]彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(02):56.(二)完善人工智能致害责任认定标准人工智能的高度智能性和复杂性对人工智能致害责任认定提出的挑战,既直接导致产生人工智能致害事故难以追责,无法合理保护受害人的权益,也暴露出现行法律法规的局限性,因此,就人工智能本身的独特程度而言,人工智能的致害责任认定标准需要从两方面进行规定,即明确法律致害责任主体和厘清因果关系。其一,责任主体的划分主要在于如何定义产品缺陷与人为要素两部分。一方面,是否存在产品缺陷,是认定生产者有无必要承担致害责任的前提。现阶段,我国并未确立人工智能市场准入的国家统一标准,导致难以判定人工智能是否存在产品缺陷,进而影响责任主体的认定。因此,我国应当加快建立人工智能的相关技术标准体系,从而便于认定责任主体。对生产者是否应追究责任,就需要判断其是否在产品生产制造的过程中尽到了安全保障的注意义务,因而我们应该将生产者的注意义务内容进一步具体化、定型化,才能明确生产者的责任范围,并确保对生产者的注意和监督上的过失的谴责合理性。另一方面,对于使用者来说,人与人工智能同时参与的法律活动,应将“人为因素参与”与否作为责任主体认定依据之一。在认定人工智能侵权事故责任主体时,应当首先依据发生事故时是否有人为因素参与来认定责任主体。具体来说,当事故时人工智能处于或应处于人为支配状态时,应依据过错责任认定责任主体,当确定无人为因素参与而导致事故时,则应通过人工智能的智能化程度认定责任主体。在弱人工智能环境下,人工智能仍作为客体参与法律活动,这种情况下责任主体基本认定为生产者;反观强人工智能背景下,人工智能可作为主体承担责任,此时责任主体可认定为人工智能系统本身。其二,为厘清因果关系,人工智能本身的数据记录和统一的安全生产行业标准是必不可少的。人工智能具有不可预测性和不可回溯性,损害结果的出现往往是一瞬间的,因此有必要在人工智能产品上装入“黑匣子”,便于事故发生后追溯原因。在我国,安全生产行业标准是衡量产品达标的前提,人工智能产品也不能排除在外,统一的安全生产行业标准可以作为人工智能产品问题的有力导航,以甄别生产者的责任。(三)健全人工智能法律监督制度在支持人工智能发展的同时,法律监督亦不可缺。《新一代人工智能发展规划》提出建立健全公开透明的人工智能监管体系,因此,健全人工智能法律监督制度是国家的大势所趋。对此,不仅要完善人工智能法律监督的事前事中事后三部分监督体系,还要设立针对人工智能法律活动的法律监督机构。我国在面对人工智能带来的挑战时,应当坚持严格谨慎的标准,从事前预防、事中管理以及事后监督三方面健全人工智能法律监督体系。在事前预防方面,2017年我国出台的《新一代人工智能发展规划》作为我国人工智能领域首个系统部署文件,在提出要求和布置任务的同时,也揭露了潜在的风险。规划指出,作为影响广泛的颠覆性技术,人工智能可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响[]。因此,加强对人工智能的形势预测、重视人工智能的跟踪分析,方能更加准确地掌控人工智能的发展,实现有效的事前预防。与此同时,人工智能应当与风险意识联系起来,重视人工智能可能对其他行业带来的冲击,关注舆论的走向,及时预防,将人工智能的发展牢牢地限制在安全范围中。在事中管理方面,投入市场的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论