人工智能时代背景下声音权益的法律保护研究_第1页
人工智能时代背景下声音权益的法律保护研究_第2页
人工智能时代背景下声音权益的法律保护研究_第3页
人工智能时代背景下声音权益的法律保护研究_第4页
人工智能时代背景下声音权益的法律保护研究_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能时代背景下声音权益的法律保护研究摘要:人工智能作为新时代的科技产物,自进入公众视野并投入应用以来,已对人们的生活产生了深远影响。这种新兴技术的原理是通过云数据库即广为人知的大数据收集用户的各类信息,这些信息包括但不限于用户的个人数据以及在不同平台或场景中有意或无意发布的各种声音信息。其中,人工智能技术使用率最高的功能之一是对已收集的声音信息进行模仿或者复刻生成新声音,或对现有的声音数据进行提取后进行二次创作形成新的声音作品。尽管人工智能的声音再造功能在一定程度上满足了用户的某种精神或物质需要,但背后的隐患在于可能会对原声音权利人造成侵权,损害其合法权益。《民法典》第1023条规定“对自然人声音的保护,参照适用肖像权保护的有关规定”后,声音权益侵权案件也纷至沓来,这一现象一方面反映我国公民的法律意识和诉讼意识普遍增强,全民普法工作取得了突出的成就;另一方面也反映出《民法典》对声音权益的保护仍有进步空间,目前的规定难以应对人工智能等新兴技术衍生的新型侵权问题,也无法完全规制声音权益侵权行为。基于此,本文拟从法理学角度厘清声音权益的法理基础,并立足我国立法与司法实践,就声音权益保护的现状与不足进行系统分析,并最终提出人工智能背景下声音权益保护的优化路径。关键词:声音权益;人格权;人工智能ResearchontheLegalProtectionofVoiceRightsintheEraofArtificialIntelligenceAbstract:Artificialintelligence(AI)isatechnologicalproductofthenewera;sinceitsbirthandpracticalapplication,ithashadasignificantandfar-reachingimpactonhuman lifeandworkingmethods.Suchamechanisminoperationwouldbebasedonthecollectionofinformationrecordedinclouddatabases(orrather,generallydefinedasbigdata)providedbyusers,thatcouldreachnotjustpersonalidentifiers,butallvocaldatareleasedbothdeliberatelyandinvoluntarilyinseveralscenarios,andintheuseof severalcomputers.OneofthemostheavilytroduponfunctionsofAIisthegenerationof newsoundthrougheithermimicryorrestructuringoftranscribedvoicedatathathasbeencollectedorthroughderivativevocalcompositionsthatarecreatedthroughsecond-passofexistingsoundmaterialsthrougharestructuredprocess.Althoughthesetechnologiesofvoicereplicationcanfulfilusers’psychologicalorutilitariandemandstosomeextent,theyinevitablycreatepotentialrisksthatmayinfringeuponthelegitimateinterestsoftherightsholdersof theoriginalvoice.Theprovision ofArticle1023inChina'sCivilCodeindicatesthat"theprotectionofnaturalpersons'voicesshallreferenceprovisionsgoverningportraitrights"hasledtoawaveofvoice-relatedcopyrightinfringementlawsuits.Thisphenomenonillustratesduelnaturesforthesense ofgreaterlegalawarenessandmorelawsuitsforcitizens—theeffectiveimplementationofcomprehensivelegaleducationofcitizensnationwideandtheparadoxicalincapacityofexistinglegallegislationframeworksunabletocatchuptotheuniqueinfringementtypesthatAI-basedtechnologyinnovationsgiveriseto.Currentstatutoryprovisionsarelimitedinscopeandeffectivenessinfullyaddressingviolationsofvoice rightsinthisnewparadigm.Thisnewparadigmislargelybeyondthescopeofexistingstatutoryprovisionsthat dolittlemorethansuperficiallyredressvoicerightsviolations.Withafoundationinjurisprudentialanalysis,thisstudyconductsasystematiccheck-upofthedoctrinalfoundationsofvoice rightsprotection,acriticalsummaryofthelegislativeandjudicialpracticesinChina,anidentificationofsystemicdeficienciesofcurrentsafeguardingmechanisms,andtheproposalofanoptimizedregulatoryframeworkofvoicerightsprotectionintheAIcontext.Keywords:VoiceRights;PersonalityRights;ArtificialIntelligence1绪论1.1研究背景及意义1.1.1研究背景随着人工智能技术发展的成熟度、操纵简易度、对人类生活的普遍适用度,它开始深入浸透人类的生活,其对人们生活的影响小到各类电子设备上的智能语音助手,可以帮助使用者从事简单的工作,如搜索、拨打电话、朗读信息等简便功能;大到可以作为一个独立的软件或技术帮助人们生成想要的作品和结果,如根据使用者的指令生成新的声音作品。这种声音作品生成的原理是对声音原声素材进行收集和训练形成一定的成熟模型,通过不断地“输入”声音素材对声音素材进行模型分析而产出符合使用者特定指令的声音作品,该“作品”是广义上的作品,既包括对原声声音素材的模仿也包括对原声声音素材进行提取和合成形成新的声音。人工智能的声音再造技术在一定程度上满足了使用者的某种精神和物质需要,它本身没有任何主观的判断能力,只是按照开发者训练的固定模型和使用者的指令工作,只要向其输入一定的原声声音素材,它甚至可以对已故人士的声音进行二次创作,如在网络平台上大火的张国荣,迈克尔•杰克逊、邓丽君等已故明星的人工智能创作声音作品。但在这种便捷供应的背后有一个法律问题是必须要提起重视的,即人工智能产出的声音作品所面临的声音权益侵权问题,如人工智能所收集的原声声音素材本身的合法性来源和收集是否得到许可,使用者通过人工智能技术对原声声音素材进行二次创作是否得到权益人的许可和用途的限制,以及对人工智能二次创作所产出的声音作品进行牟利、纂改、捏造等的归责问题。从另一个角度上说即人工智能时代背景下声音权益的法律保护问题如何去解决,人工智能作为一把双刃剑,在给人们生活带来便捷的同时也可能对全社会上的每一个人造成侵权,因为人工智能本身没有任何主观的排查和审查意识,更无法规制使用者的合理收集素材过程和使用目的,因此需要攻关人工智能背景下的声音权益保护难题。《民法典》第1023条辟创了我国自然人声音权益立法之先河,但也存在一个问题,该条规定只是对声音权益作出了概括性的规定,并未明确细则如何实施和适用。肖像权作为一项具体的人格权在概念、性质上与声音本就不同,并且在人工智能这一背景的法律实践中产生的新型声音侵权问题仅参照适用肖像权的有关规定并不能完全得到解决。因此,我国应当结合人工智能的背景和我国具体国情,借鉴其它地区国家的优秀立法经验和规避立法漏洞,对法律实践中的具体人工智能声音侵权问题进行具体分析,对我国声音权益保护的法律规定作出进一步的完善,制定出符合我国国情的声音权益保护法律规定。1.1.2研究意义就理论上而言,虽然《民法典》第1023条对声音权益进行宏观之规定,但未有适用的细则,如声音保护适用的前提条件,即在何种情况下的何种行为属于对声音造成了侵权,况且肖像权与声音的外在特征不同并不能完全用参照适用肖像权保护的方法解决声音侵权的问题。而且在人工智能这种新兴背景下的侵权情况更为复杂,使得原本就难以解决的声音侵权问题更难解决,《民法典》第1023条作为传统的归责规则难以照搬到解决利用人工智能技术所造成的声音侵权。本文通过对《民法典》的现有声音保护规定进行分析的基础上结合我国立法现状和法律实践现状,探索目前在人工智能背景下的声音权益保护规定适用所存在的不足,并且从明确声音侵权之认定规则、细化相关主体义务与责任规则、完善“人工智能”背景下声音权益救济机制、构建多元监督管理体系的角度对声音权益保护的措施提出了相关建议,有助于我国在人工智能背景下对声音权益保护的研究,从而更好地为自然人的声音权益提供更完善的保护。就实践上而言,人工智能技术蓬勃发展和普遍应用于社会的背后存在巨大的隐患。随着人工智能使用门槛、使用方法的降低和其相关功能、云技术的提高,使得更多的人使用人工智能,使用者只需向人工智能输入一系列声音素材即可对原始声音进行纂改、编造或复刻,使用者的需要得到满足的背后是相关权益人的声音权益遭到侵害,与此同时在实践中声音权益侵权的案件也在频繁发生。而人工智能技术作为一种新兴领域的新技术,由于立法的滞后性,我国《民法典》对声音权益保护的现行规定并不能解决人工智能侵犯声音权益的侵权案件,而《民法典》第1023条的规定在实践中的适用也存在一定的困境。为了加大对声音权益的保护力度,加强对声音权益的保护措施,本文在明确侵犯声音权益行为的认定规则、完善侵权行为链的相关人员的义务和声音权益救济机制和强化监督机制这四方面对人工智能背景下的声音权益保护提出合理可行的建议,保障自然人的声音权益得到保护,减少自然人声音权益可能遭受的侵害。人工智能作为一项新技术,其发展的迅猛势必会对公民的相关权益进行破坏,而声音权益首当其冲,因此探索人工智能背景下如何对声音权益进行保护和完善声音权益保护规则是我国法律实践所必需,也是本研究的实践意义所在。1.2国内外研究现状1.2.1国内研究现状目前人工智能技术在国内发展尚未完全成熟,也因其在国内引进发展的时间较晚,因此国内学者对人工智能侵犯声音权益的研究仍处于发展中阶段,虽然目前有解决人工智能侵犯声音权益的相关措施但仍需要进一步完善。虽然我国目前没有对人工智能技术侵犯声音权益和声音权益的保护进行系统的立法,但《民法典》第1023条在声音权益保护的立法进程中取得了里程碑式的进步。《民法典》第1023条采取参照适用模式保护声音权益,与肖像权保护之规定《民法典》第1019条:“任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权。”两条法律条文比对可以得出,我国立法承认人工智能等信息技术手段对自然人声音权益的侵害行为。但在学术界,各学者对声音权益保护的相关理论问题存在一定争议。研究声音权益保护的首要问题是明确声音权益的法律性质,杨立新和袁雪石在《论声音权的独立及其民法保护》中提出声音的法律性质应为具体人格权的观点,他们觉得在规定具体人格权时,不仅要规定传统人格权,对较为成熟、确实能够作为具体人格权进行保护的人格利益,也应将其规定为新的人格权,而声音权就是其中之一。[1]杨立新在《我国民法典人格权立法的创新发展》中认为《民法典》第1023条第2款倾向声音权的立法态度。在所有的人格利益中,与肖像权的客体肖像利益最相似的就是声音。[2]但也有学者持相反观点,王利明在《论声音权益的法律保护模式》提出声音的法律性质应为人格利益而非具体人格权,他认为声音是一种人格利益,而非具体人格权。[3]1.2.2国外研究现状不同国家和地区对声音有着不同的规范体系,对自然人声音的保护问题已经基本形成了较为完善的规范体系,在立法上对自然人声音的保护作了较为完善的规定。《秘鲁共和国新民法典》将肖像权和声音混合保护,未经自然人同意不得利用他人声音,并对死者声音权利的继承问题作出规定。[4]德国刑法将声音作为一种人格要素进行保护。[5]《德国刑法典》第201条做出了录音或窃听他人私密语言将处自由刑或罚金的规定。此外,对于围观者见到重大事故发生而不救助的反而只用手机等设备拍摄现场的情况,《德国刑法典》第201条a款,对未实施暴力阻扰救援这一事实上不具有攻击的行为给予处罚,保护受害者人身权利,还对此种情况下死者利益的保护作出了规定。[6]德国霍尔斯特·埃曼在提出“1958年,德国联邦最高法院对“录音案”作出的裁决是基于一般人格权,其对话语权的自主选择仅限于与之对话的个体,或者是某个特定社群的成员,或者是为大众了解的权益。”这实质上是对“个人声音权益”的肯定,认为声音权利是一般人格权的组成部分。[7]。德国《民法典》第823条提到了对人格法益的侵权和损害赔偿义务,这一侵权法律规定的特点在于如果出现条文中的权利被侵害,那么权利人就可以主张侵权行为具有违法性[8]印第安纳州将公开权定义为“个人财产”,其保护水平较其他州明显提高,并在公开权中列举了九项内容,其中就包括声音[9]由于各个国家和地区的地方情况不同,声音的法律保护和相关规定也呈现出不同的规范模式,总体而言,国外对自然人声音权益的法律保护站在整个自然人声音权益保护发展的较前沿,大多数国家和地区对自然人声音权益保护作出了较为完善的规定,包括利用技术手段侵害他人声音权益方面的规定。1.3研究内容和方法1.3.1研究内容本文主要研究内容如下:第一部分绪论,阐述研究的背景及意义、国内外研究现状和研究内容方法;第二部分,声音权益保护的法理基础概述;第三部分,阐述“人工智能”背景下声音权益保护的现状与不足;第四部分,声音权益保护措施的完善建议及发展路径;第五部分,结论。1.3.2研究方法(1)文献综述法通过中国知网、万方数据、维普资讯等学术数据库,检索与人工智能背景下声音权益法律保护相关的学术论文、学位论文、会议论文等文献资料。关键词包括“人工智能”、“声音权益”、“法律保护”、“侵权”等。在对相关学术著作阅读的基础上对同时总结国内外研究现状并批判性地参考与借鉴前人观点。(2)实证研究法通过中国知网、万方数据、维普资讯等学术数据库,收集声音权益保护的相关前沿性观点,对观点进行法理分析,并探索每种观点的出发点和所潜藏的问题,对各观点和问题进行辩证分析,最终得出结论。(3)比较研究法通过对各国家、地区法律体系中的声音权益规定进行比较研究,归纳因地制宜保护声音权益的方式,结合我国实践得出我国可参考的丰富经验。2声音权益保护的法理基础概述2.1声音权益的概念及特点在物理学上,声音是指物体通过运动发出的具有特定频率和音色的声波,一般通过固、液、气等介质进行传播,其传播速度取决于其所经过的介质,传播的结果是能被人或动物听到。在法律上,我国《民法典》中规定的“声音”是指自然人的声带中进入空气发生声带振动联合口腔和鼻腔;舌、唇、齿的调节;头部和胸腔共鸣所产生能被他人所识别的具有个人特征的声响。声音与肖像一样具有代表自然人的独立特征,所谓“未闻其人,先闻其声”就是通过声音识别一个人。正如指纹和掌纹一样,声音也具有独立的声纹,自然人之间就是通过声纹进行互相识别。声音具有代表自然人人格的属性,即具有人格属性和人格尊严,应受到法律的保护。相较于肖像权,声音权益具有较高的动态性。一是肖像权这一具体人格权的客体具有明显的可识别的载体,如照片、影像等,并且可以通过纸质介质进行保存,因此被篡改的风险也较低。而声音权益的客体是声音特征,无法通过传统介质所固定,具有更高的可变性但同时被篡改和滥用的风险也较高。二是两者客体的识别标准不同,肖像权的客体——肖像的识别标准是以社会一般人的认识水平的基础上具有可识别性,但声音权益的客体——声音特征的识别标准是使一般公众或特定群体能够关联到特定自然人,对比之下声音权益客体的识别标准更为严苛。2.2声音权益性质探讨因为我国的《民法典》中对声音仅使用“声音”一词,而未添加其它后缀,导致声音的法律性质并未得到官方的明确,而在理论界一直有较大的争议。以杨立新为代表的学者认为声音属于具体人格权,在姓名和肖像分别作为文字类人格标识和视觉类人格标识成为人类历史上的具体人格权的种类之后,我们有理由相信,声音也可以因为科技的迅速发展而上升为听觉类的人格权——声音权——的客体,即听觉类人格标识。而王利明认为从我国《民法典》第1023条的规定来看,声音是一种法定的特殊人格利益,应采取法定人格利益的保护方式保护声音权益。台湾学者史尚宽认为,声音表示人格之特征,为人格之重要利益,与姓名、肖像相同。[10]本文认为,声音权益的法律性质应为人格利益而不是具体的独立的人格权。首先,立法者对声音权益和肖像权的法律性质态度有所区分,《民法典》中将自然人声音表述为“声音”,对“肖像权”则使用“权利”的简称“权”作为后缀,明确表达了立法意图即自然人的声音不属于与肖像权同法律性质的具体人格权,而只是属于人格利益。其次,声音权益不具有作为具体人格权的特殊要件,声音权益保护外延不确定。关于声音的保护范围,JeffKlein在TomWaitsandtheRightofPublicity:ProtectingtheArtist'sNegativeVoice一文中提出声音不仅仅只是现象,还与我们的意识状态有关,对声音的理解应当扩大。[11]例如对于肖像权的授权使用可以明确其许可事项和范围否则就构成侵权,但对于声音权益的授权使用只能粗略规定其使用事项但并不能精确规定声音权益使用的范围,另外如何“使用”声音权益也是一个问题。再次,如果将声音权益规定为具体人格权将会导致权利的竞合和滥用,声音权益在民法中所处的位置属于“灰色地带”同一侵权行为可能会导致对声音权益和其它具体人格权同时侵权,例如偷录他人私密对话并篡改后公开既侵犯了他人的隐私权也侵犯了其声音权益,此时如果将声音权益设定为具体人格权加以保护会导致重复救济,从司法实践的角度看可能会导致公众滥用权利。而将声音权益规定为一般人格权益进行保护就能避免这种重复救济和权利竞合的局面。所以本文认为声音权益的法律性质应当为一般人格权益,否定自然人声音作为具体人格权并不意味着对自然人声音的人格利益在保护上存在缺失。[12]2.3人工智能背景下保障声音权益的必要性与重要性在人工智能技术和深度学习、云数据库等其他附属性技术的高速发展下,人工智能技术的使用门槛逐步降低而功能却越来越丰富,从一开始的付费使用到全面免费使用;从一开始的简单搜索和帮使用者完成简单工作到现在可以直接对其所收集的声音素材通过复刻和模仿的方式进行二次创作。人工智能得以广泛使用的背后所面临的法律问题是声音在高速、多样的传播、收集、利用下如何得到较为完善稳妥的法律保护。在抖音、哔哩哔哩、小红书等社交媒体上存在着大量人工智能二次创作的声音作品,它们的原始声音素材可能来自名人也可能来自一名普通公民,传播者二次声音作品的创作者通过向人工智能输入一定数量和一定次数的原始声音素材对人工智能进行特定的模型化训练,最后人工智能会产出符合使用者指令的声音作品,这些声音作品通过变造、污损、丑化、篡改声音权益人的声音以达到某种目的。在各大短视频平台可以看到各种明星或网红的人工智能翻唱作品或翻拍作品,而这些侵犯他人声音权益的人工智能创作作品在网络上风靡已久,受到了大量网友的效仿和追随。此外,侵权行为人还可能利用这些名人的声音来进行电话推广和骚扰,以此来实现商业盈利的目标。[13]不少网络平台的博主也因为传播人工智能翻唱作品而获利,他们获利的背后是声音权益人的声音权益遭到了侵权,如果不对这种行为进行法律规制会导致更多的声音权益人受到人工智能侵权行为的侵害,因此在人工智能背景下完善声音权益保护的法律规定是极为重要也极为紧迫的。2.4声音权益保护模式分析2.4.1“法定人格权”保护基础从我国《民法典》第1023条看,声音是一种人格权益,而不是与肖像权等人格权等同法律性质的具体人格权,根据权利法定原则,具体人格权之种类由法律规定,但这其中不包括声音权益,如果强行将声音解释为具体人格权一是违反法理学上的权利法定原则,二是违背立法原意,因此应将声音权益视为人格利益。再者《民法典》第990条:“人格权是民事主体享有的生命权、身体权、健康权、姓名权、名称权、肖像权、名誉权、荣誉权、隐私权等权利。”、《民法典》第110条:“自然人享有生命权、身体权、健康权、姓名权、肖像权、名誉权、荣誉权、隐私权、婚姻自主权等权利。”中“声音权”并不在辐射范围内。《民法典》的第110条、第990条、第1023条均未有表达声音属于具体民事权利和具体人格权的立法原意,故对声音权益的保护应该采取法定人格权益进行保护。2.4.2“个人信息”区别保护声音信息作为个人信息的一种类型,与公民的隐私息息相关。对公民声音权益的丑化、污损、纂改或进行其它不正当的使用也会对公民的个人信息造成侵权。但不能将声音看作是与个人信息完全等同的属性,个人信息权益与声音权益所适用的法律规定不同,两者非等同关系。《民法典》第1034条“个人信息中的私密信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定。”中私密信息和无相关规定的其它部分共同构成个人信息,两者适用不同之法律。声音在个人信息的外延范围内,但声音的不同表达场合和表达形式则可能涉及其它类型的具体人格权或人格权益,因此要与个人信息等人格权益区分开,不可等同看待。2.4.3“肖像权”参照保护王泽鉴认为,“参照适用”是“将关于某种事项所设之规定,适用于相类似之事项”。[14]《民法典》第1023条是宏观规定,肖像权在《民法典》的规定为第993条、第1018条至第1022条,但在何种情况下参照何种肖像权规定如何保护声音并不明确,以及超出肖像权保护范围的声音侵权行为应该如何处理也并未得到明确。有学者认为可将肖像权和声音权益等同对待,本文认为这种观点背离立法原意。肖像权与声音权益都具有识别个人身份的性质,两者具有相似性,但不能等同适用。两者的法律性质不同,肖像权为具体人格权,声音权益为人格利益,如果把肖像权的规定“生拉硬扯”地用于声音保护会出现两者法律性质相矛盾的结果。声音保护参照肖像权的有关规定具有一定范围限制,参照适用不能毫无判断地直接适用,应该有关具体案例具体分析,有选择地适用与之相符合的规定。全国人大法工委的释义书中也指出,对自然人声音的保护“只能参照适用肖像保护的有关规则,不能完全适用肖像保护的规则”[15]3“人工智能”背景下声音权益保护的现状与不足3.1目前我国“人工智能”背景下声音权益保护的现状目前我国对声音权益直接加以规定的法律仅有《民法典》第1023条,虽然该条规定属于参照性的概括规定,但这是我国首次承认对自然人声音权益的法律保护也是首次将自然人的声音权益纳入民法以及人格权编的保护范围内。《民法典》第1023条反映了立法者当前对声音权益保护的立法态度即参照适用肖像权的有关规定,但立法者并未直接对自然人声音权益的法律性质作出肯定性的规定或回答,这也使得目前的司法实践和学术界中对于声音权益的法律性质引起了较大的争议,争议的主要问题为:声音权益的法律性质究竟为声音权还是声音权益。3.2人工智能”背景下声音权益保护的不足3.2.1侵犯声音权益行为的认定规则不明确虽然《民法典》第1023条对自然人声音的保护进行了概括性规定,但并未明确声音权益保护的相关问题,其中最重要的就是没有明确侵犯声音权益行为的侵权构成要件和对侵犯声音权益行为的认定规则。在司法实践中的声音权益侵权案件中法官也只能适用肖像权或一般人格权的有关规定,但这样并不能很好地发挥司法对侵权人的约束管制作用和对权益人的救济作用,因为肖像权和一般人格权规则无法解决声音权益侵权领域的案件,而声音权与肖像权在保护客体、表现形式等方面存在差异,准用肖像权保护制度不能全面保护声音权。[16]尤其是在人工智能时代下,声音权和肖像权二者的差异性远高于相似度。因此,简单地参照适用肖像权的保护方式来保护声音权,对声音权将无法提供完整的保护。[17]只有对声音权益侵权的认定规则加以明确才能更好应对声音权益侵权问题。3.2.2难以确定侵权人和区分侵权人主观恶意声音权益侵权链存在上游和下游,上游包括声音的收集者,下游则包括声音的丑化、纂改、变造者和传播者等,对于只存在一个行为人的声音权益侵权案件可以直接确定侵权人,但对于存在上下游侵权行为是多个不同的主体实施的声音权益侵权案件而言,就难以确定侵权人,比如利用人工智能侵犯声音权益的侵权案件,声音原始素材的收集者和向人工智能输入声音的主体、制作者、传播者都难以确定,所以需要制定明确的声音权益侵权行为人规则。在确定侵权人后仍需要确定其主观恶意,以主观恶意作为追究侵权责任的参考因素与侵权行为、侵权结果相结合确定侵权人最终的侵权责任。但对于声音权益侵权案件的侵权人主观恶意区分规则我国《民法典》和相关司法解释并未进行规定,甚至没有作出类似于《民法典》第1023条的概括性规定,因此即使确定了侵权行为、因果关系和侵权结果也难以对侵权人进行完全的追责,会存在遗漏侵权责任的情况。3.2.3对声音收集者、制作者、传播者的义务与责任大小难以划分人工智能时代背景下的声音侵权可能涉及多个侵权人。作为声音权益侵权链上的侵权人,声音素材的收集者、制作者、传播者对侵权结果所做的“贡献”不同,而他们几方也不是在同一时间和地点上实施侵权行为,往往难以直接通过一般侵权行为的认定规则和构成要件对每个侵权人进行具体的违反法定或约定义务所要承担的责任进行明确划分。而《民法典》也并未作出相应的规定,因此对于多主体侵权的声音权益侵权案件只能采取根据对受害人的损失和侵权结果进行平均责任划分的“一刀切”方式,这样的弊端在于每个人并不能承担其应该承担的责任,可能存在某一方承担的责任较重或较轻的情况,而权益人也不能完全获得救济和赔偿。3.2.4救济机制难以真正杜绝侵权行为和保护权益人《民法典》第1023条规定的救济机制会导致侵权人实施侵权行为的成本降低,较轻的侵权责任和侵权所带来的巨大牟利成果相比,侵权人再次侵权的可能性会上升,而权益人却不能得到完全的救济和保护。另外也存在被侵权人难以举证和收集证据的隐患,被侵权人的声音权益在遭受人工智能等信息技术侵权时,首先要举证证明被侵犯的声音权益是属于自己的声音权益而不是别人的声音权益,即证明自己是被侵权人;其次是证明被侵犯的声音权益是在自己不知情的情况下被侵权人利用非法手段收集的,而没有经过本人的授权,侵权人可以通过人工智能技术对被侵权人的声音内容进行纂改和伪造,所以侵权人也可能会伪造被侵权人的声音进行“授权”来得到“许可”;再次,人工智能等信息技术平台掌握被侵权人的声音电子数据和声音信息,作为较为弱势的一方,被侵权人很难通过作为侵权人的信息技术平台进行取证,也就难以举证证明自己被侵权的事实。3.2.5传统归责方式难以控制“人工智能”技术下的侵权在我国,人工智能技术平台主要受国家电信主管部门、公安机关、各省级网络安全监管机构的监管,但这种监管只是行政法意义上的监管,是一种系统但不完善的监管。随着人工智能技术的迅猛发展,这种传统的行政监管难以产生有效的具体保护到公民声音权益的作用,比如当人工智能平台通过窃听的非法方式在被侵权人向其发出语音指令时提取收集被侵权人的声音素材进行出卖牟利或者非法上传到网络平台上进行二次模仿或复刻以牟取利益,在这种情况下传统的行政监管很难顾及和覆盖人工智能技术平台的非法行为。目前我国对人工智能等信息网络平台所进行的传统式行政监管机制稍显落后,并且国家信息网络主管部门对违法平台和相关责任人的惩罚力度也太小,难以保障全体公民的人格利益得到普遍保护。4声音权益保护措施的完善建议及发展路径4.1明确侵害声音权益行为的认定规则4.1.1“声音”之判断采“可识别性”标准声音与肖像一样,具备对自然人进行识别的独立特征,虽然声音和肖像的存在形式不同,声音是较为抽象的非实物,属于听觉上的识别特征,肖像是较为具体的实物,可以直接通过视觉辨别对自然人进行识别。“未闻其人,先闻其声”就是通过不同人所具有的不同声波和音色识别特定主体。本文认为,将声音保护参照适用肖像权保护的前提是声音要具有和肖像同等甚至更为严苛的可识别性的标准,也正是通过声音进行识别才能对应某个特定的自然人。相反,如果某以声音不能对应到某个自然人,无法达到让人识别出属于某个自然人的标准就不能说该声音属于某个特定自然人,也就不构成侵权。每个人的声音都具有独一无二的声纹,对声音也正是通过对声纹进行鉴定识别来确定该声音所对应的特定自然人,因此对声音的可识别性标准不能要求百分之百完全精准对应,只要达到高度盖然性标准,能识别出该声音对应的特定自然人即可。4.1.2明确“人工智能”侵害声音利益的构成要件在明确声音权益的侵权构成要件前要先明确声音权益的侵权行为的表现形式。杨立新教授认为除因声音标识内容与形式的区分而引发的对单纯窃听的讨论外可能侵犯声音利益的形态还有:不当模仿;伪造;污损;歪曲;不当剪接;未经同意的录制、使用、公开;应作失真处理而未处理。[18]王泽鉴教授认为声音语言被侵害的几种主要形态包括未经允许录音或使用他人声音、窃听以及模仿声音用于商业广告。[19]对于侵权构成要件而言,由于声音权益的被侵权人就难以取证,在人工智能大背景下发生的声音侵权行为更是难以认定责任,笔者认为声音权益的侵权认定规则应该遵循过错推定的认定规则,人工智能侵害声音权益的构成要件由以下四方面构成:一、侵权人未经被侵权人许可或授权即对其声音进行收集、二次创作、传播。二、侵权人要有主观过错。侵权人的主观过错应分别讨论,对于故意心理,从法理学的角度上说应当是侵权人明知自己对他人声音的非法收集、利用、传播会产生不利的法律后果仍然希望或放任这种结果发生,如明知自己在采取非法手段对被侵权人的声音进行收集、二次创作、传播并且有牟利的目的,这种牟利的目的不要求客观上实际达到了一定数额,只要存在可以推定为有牟利目的的相应行为就可以认定为侵权人存在侵权故意,如在信息网络平台发布吸引流量的文案、视频、音频、图片等。对于重大过失,从法理学的角度上说应当是的可能性而没有遇见这种结果发生过失是指行为人应当预见侵权人应当预见自己对他人声音的非法收集、利用、传播可能会产生不利的法律后果,由于疏忽大意而没有预见,或者已经预见而轻信能够避免,以致侵权后果发生。对于重大过失的判断标准可以采取我国可以借鉴美国联邦贸易委员会(FTC)制定的《深度伪造责任法案》(DeepfakesAct),以行为人是否履行了注意义务为标准,若行为人利用先进技术伪造包含自然人声音的虚假音频时,该伪造音频是由包含自然人声音的语音文件合成而成,而非基于人工智能生成,且行为人未在其设备上以显著方式对该伪造音频作出标识,则可以认定行为人主观上存在重大过失。[20]4.2细化相关主体义务与责任规则4.2.1声音收集者的不泄露义务人工智能等信息网络平台或是其它收集声音素材的主体在合法收集声音的全过程和手机后都确保所收集的声音数据不被非法泄露或滥用。这一义务要求收集者采取必要的技术管理措施,确保声音数据的隐密性,预防其在未经授权的情况下被披露或使用。声音收集者首先要遵守《中华人民共和国个人信息保护法》的相关规定,接受国家相关机关的监管。此外,声音收集者要保证收集声音时的全过程合法,收集声音必须先得到权利人的许可或授权,与权利人明确约定收集声音的目的、用途范围、使用方式,以及如果超出约定的范围对权利人造成损失如何挽救。收集者还应采取相关的加密手段和防火墙等技术手段对所收集到的声音进行保护,以免声音被窃取或泄露,在被窃取和泄露后也要对权利人进行合理赔偿和救济。当其他人盗用或者模拟其声音运用于商业领域时,主体可依据不当得利请求权或者侵权损害赔偿请求权请求救济[21]4.2.2声音制作者的合理注意义务声音制作者在对声音进行二次创作时具有高度谨慎确保其对声音进行二次创作的全过程各方面不会对权利人造成侵害的合理注意义务。在二次创作之前应该对其所掌握的声音的合法性来源进行审慎判断,审查声音的来源是否合法、声音的使用是否得到权利人的许可或授权,声音制作者的使用范围又是否在权利人所允许的范围之内;在制作过程中要遵循相关的法律规定和行业规范,以不得侵犯他人已有的在先权利为前提以保证声音作品的合法性和对他人在先权利的保护性。此外,根据《深度伪造责任法案》,声音制作者在发布利用人工智能等信息技术深度伪造的声音产品时,必须以显著方式标明该作品系深度伪造,以免对不知情的人造成误解。例如,在音频开头声明该音频系人工智能技术二次创作,并指出真实音频的出处。4.2.3传播者的正当使用义务权利人可以作为或不作为方式决定如何使用自己的声音。[22]声音的传播者只能在权利人许可或授权的范围内使用,且该声音的使用必须遵循法律、行政法规的规定,不得利用声音或者人工智能二次创作的声音作品进行不正当的牟利和另作他用。传播者在传播声音之前必须事先得到权利人的许可或授权,对声音制作过程和声音内容的合法性进行审查,不得对侵犯他人在先权利或违反法律、行政法规、公序良俗的声音进行传播。此外传播者还应对声音的原始素材来源和该声音系利用人工智能等信息技术手段制作的伪造音频性质作出显著性的标注和提示。未经权利人同意擅自改变声音的用途,或未按约定方式的“不正当使用”亦构成声音侵权[23],使用者和传播者不得传播含有违法信息、违反公序良俗、容易引起社会舆论的虚假信息的声音进行传播。4.3完善“人工智能”背景下声音权益救济机制4.3.1举证责任倒置《民事诉讼法》的一般举证规则规定民事诉讼采取“谁主张谁举证”的举证规则,但由于声音权益侵权案件的特殊性和复杂性,被侵权人在声音权益遭受损害后难以举证证明侵权声音作品属于自己的声音,对于较为强势的人工智能信息技术平台也难以向其收集证据,例如声音收集者对非法收集声音进行出售或二次创作进行牟利的行为,被侵权人难以证明声音收集者系非法收集声音,在涉及多方主体侵权的情况下侵权人彼此之间都互不相识,被侵权人就更难以确定侵权人及其相关信息,因此对于声音侵权案件应当根据具体情况具体选择举证责任倒置的举证规则或一般举证责任规则。在侵权人较为“强势”或被侵权人难以取证的情况下,应该由被侵权人承担举证责任;在侵权人和被侵权人双方地位相对平等或被侵权二无取证困难时,应该采取“谁主张谁举证”的举证规则。4.3.2引入惩罚性赔偿对于声音权益侵权案件往往难以计算被侵权人的物质损失,被侵权人的损失更多的是一种精神层面或者名誉层面但尚未达到侵犯名誉权的损失,而侵权人因为侵权行为获利的数额也可能较少,可能体现为社交网络平台的涨粉和流量推送利益,而这种利益并不是直接的物质获利也就难以计算侵权人获利的数额。因此,笔者认为对于声音侵权案件应该引入惩罚性赔偿,在侵权人和被侵权人双方都难以计算得失物质数额但客观上确实让侵权人遭受损失的情况下仅以侵权人承担诉讼费用或是公告道歉的方式并不能弥补被侵权人的损失,被侵权人所遭受的精神损失和

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论