版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
算法歧视关涉的伦理问题与解决进路,伦理学论文摘要:算法歧视关涉三个详细的伦理问题:算法公平、算法身份的污名化与隐私。其原因在于:一是数据中预先存在的偏见所导致的算法歧视;二是使用算法本身可能是一种歧视;三是算法决策中数据的抽样偏差及其所设置权重的不同也有可能导致算法歧视。基于此,至少可从技术进路、哲学进路与法治进路三个方向探究躲避算法歧视的可能性,进而实现算法公平。本文关键词语:算法歧视;算法公平;算法身份污名化;Abstract:Algorithmicdiscriminationinvolvesthreeethicalissues:algorithmicfairness,thestigmatizationofalgorithmicidentity,andprivacy.Thereasonsareasfollows:First,algorithmicdiscriminationcanbecausedbythepreexistingbiasinthedata;Second,usingalgorithmsitselfmaybeaformofdiscrimination;Third,thesamplingbiasofthedataanddifferentweightsettingsinthealgorithmicdecision-makingmayalsoleadtoalgorithmicdiscrimination.Therefore,algorithmicdiscriminationcanbeavoidedfromthreedirections:thetechnicalapproach,thephilosophicapproachandtheapproachofruleoflaw,soastorealizealgorithmicfairness.Keyword:AlgorithmicDiscrimination;AlgorithmicFairness;Stigmatizationofalgorithmicidentity;大数据与人工智能的快速发展使算法融入并塑造我们的现实生活。据中国互联网网络信息中心于2021年8月20日发布的(中国互联网络发展状况统计报告〕显示,截止2021年6月30日,我们国家网民规模达8.02亿。如此宏大的网民规模使我们国家成为数据土豪。在这里基础上,智慧城市、智慧司法、精准医疗、在线教育等渐入发展快车道。详细而言,物联网、大数据和无处不在的传感器记录着每一个网络足迹。而算法则利用聚集人类行为的大规模数据集决定数据主体能够获得的教育、医疗、信誉、治安、就业时机等。然而,在这里经过中已出现一种不容忽视的负面后果,即算法歧视。对此,2021年5月美国白宫发布名为(大数据报告:算法系统、时机与公民权利〕的报告。该报告明确指出,我们在享用大数据和算法为生活所带来便利的同时也要关注其可能造成的意外后果,尤其是算法歧视。由于算法歧视牵涉到社会的公平与正义,因而有关算法歧视的讨论就不仅局限于认识到算法歧视的存在,也不只局限于对算法所带来的风险与利益的权衡,而是亟需进一步深切进入考虑:什么是算法歧视、算法歧视的断定标准、算法歧视产生的原因、其关涉的伦理问题及解决进路等问题。一、算法歧视及其产生算法歧视由算法与歧视两个概念组合而成。算法指的是有限的、抽象的、有效的、复合的控制构造,以在给定规则下完成特定的目的。华而不实,规则与目的是算法意向性的具体表现出,言讲着算法做了什么或为我们带来了什么。[1]该定义中所包含的目的与规则暗示着算法必须被施行、执行并产生某种社会影响,换言之,算法可进一步理解为数学架构、实现〔技术和程序〕和配置〔应用程序〕,即将抽象的数学架构实现为技术与程序以及特定任务配置的技术应用。[2]何为歧视呢?歧视在(布莱克维尔政治学百科全书〕、(韦氏词典〕等权威辞书中具有两种基本含义:一是作为贬义词的差异不同对待,二是作为中性词的区别、识别、辨别等。算法话语中所讨论的是消极意义上的歧视,即在某一特定群体或类别中,基于成员的身份而对其施以不合理的待遇,[3]或不同的规则适用于类似的情况,或同一规则适用于不同的情况。[4]1.算法歧视的表现形式根据歧视意图能否存在及其存在方式,算法歧视具有三种表现形式:显性歧视、隐性歧视和差异不同性影响。详细而言:显性歧视〔explicitdiscrimination〕指的是算法明确使用、分析受保卫群体的种族、民族等相关特性,并将其作为算法决策的因素之一,进而导致不公平的对待。不同于显性歧视对受保卫群体相关因素的直接依靠,隐性歧视〔implicitdiscrimination〕则是由于嵌入软件指令中的偏见、有偏差的数据集和工具使用,以及通过有目的地选择训练数据、设定标签、选取特征等掩蔽行为而产生的不平等对待。算法歧视的第三种表现形式是差异不同性影响〔disparateimpact〕,它指的是算法既未明确使用受保卫群体的特征,也不存在掩蔽、潜意识偏见、有偏差的数据等,但算法决策的结果仍会倾斜于少数群体或受保卫群体。换言之,此种算法歧视仅具有差异不同性影响的特征。[5]综上,显性歧视中算法设计者或使用者的主观歧视意图〔即意志的意图〕[6]较为明显,而隐性歧视则利用算法将歧视意图隐藏的更深,因此这两者可统归为差异不同性对待或直接歧视。差异不同性影响虽无外表上主观的歧视意图,却由于其具有形式上的中立性与实践上歧视性,因此亦产生歧视后果。2.算法歧视的类别根据算法歧视能否关涉身份权可将其大致分为两类:一类是关涉身份权的算法歧视;一类是无涉身份权的算法歧视。身份性歧视是指对于某种身份存在偏见,它意味着社会对某些群体具有一种身份性的偏好,即便这些群体毫不逊色于其他群体,也会被主流社会排挤或拒绝。美国社会对黑人的种族歧视是典型的身份性歧视。[7]基于此,关涉身份权的算法歧视是指算法借助辨别个体或群体的宗教、民族、种族、肤色、性别而施以不平等的对待。无涉身份权的算法歧视则是指算法决策中个体虽不受身份影响,仍遭到不平等的对待,例如大数据杀熟与价格歧视。除此之外,统计性歧视在某些情况下可以归为无涉身份权的算法歧视。其发生源于在大数据与算法结合的环境下,个人的涉己行为同时也是涉他行为。算法决策的重要环节之一就是分类,但此分类不是固定不变的,而是临时的,即个体置身于临时群组之中,其实时的行为数据可为临时群组提供新的信息,可以让算法愈加了解同属该群组的其他成员的想法和行为,更会更改算法对这个临时群体的预测,进而对其他成员带来直接影响。如若A易患某种危险疾病,其健康信息将修正其所属群组的参数,以致其他成员也面临着拒绝受理医疗保险的风险。[8]3.算法歧视何以产生借鉴莱普利普鲁诺〔LepriBruno〕的观点,算法歧视产生的根本源头可概括为三个方面:一是有偏见的训练数据以反应循环的方式导致的歧视;二是使用算法本身就可能是一种歧视;三是输入的数据的抽样偏差与权重设置较差也会导致歧视。〔[4],pp.4-5〕详细而言:首先,数据中预先存在的偏见导致算法歧视。此类歧视通常在开创建立算法系统之前就已存在,算法只是将其反应出来。换言之,先前存在的偏见不仅能够无意识地影响算法设计者选择使用哪些算法,还能够通过个人或机构有意识地或无意识地进入算法,即通过定义目的变量而嵌入算法。其次,使用算法本身可能是一种歧视。在算法系统中,基于算法分类进行的优先化排序、关联性选择和过滤性排除是一种直接歧视,牵涉差异不同性地对待与不公正。在华而不实,尤为明显的是类标签确实定。歧视的风险不仅存在于类标签本身的定义中,也存在于随后其对规则的推断。根据类标签的定义,算法将所有数据划分为互相排挤的类别。由此,基于类标签的定义,数据主体被赋予了一种新的身份,即算法身份〔algorithmicidentity〕。算法身份是通过辨别IP地址、密码、网络行为足迹等信息性密符〔informationalshibboleths〕,进而使用统计模型自动确定一个人的阶级、性别、种族等,在华而不实统计性推断起着至关重要的作用,其内在逻辑是在个人层面无法计算的东西,在集体层面上是能够计算的,因此当根据算法身份对主体进行判定时,就会将主体与一个虚拟的、概率性的群体或类联络起来,而这种联络不一定有任何合理的理由,且可能导致对主体的刻板印象和歧视。[9]再次,算法决策中数据的抽样偏差及其所设置权重的不同可以能导致算法歧视。算法决策的客观性与正确性是建立在对所输入数据的两个假设之上,即数据是客观正确的且很好地表征了所要预测的个体。[10]前面已经提到数据并非总是客观正确的,而是可能裹挟着偏见。这里牵涉到的另一个问题是,算法所使用的数据也许并不能很好地表征个体,即数据的代表性缺乏。另外,算法设计者对不同因素的权重分配不当也会导致歧视。例如,在警务预测中,所用算法若过分强调邮政编码的权重则可能导致低收入的美国黑人社区与犯罪社区的关联更大。二、算法歧视关涉的伦理问题在算法背景下讨论歧视问题,不仅需要研究到底存在何种歧视形式,更为重要的是说明为什么要禁止它们。〔[5],p.1382〕从伦理的角度而言,反对算法歧视的原因在于它牵涉到公平与算法身份污名化两大伦理问题。1.算法公平:个体公平与群组公平首先,算法歧视牵涉到算法语境下对公平的诠释问题。学者对公平有众多不同的理解,但在算法语境下讨论公平牵涉到两个问题:其一,公平能否能够量化、形式化?其二,假如公平可被量化、形式化,那么选择何种公平理论是恰当的?对于第一个问题,从当下各领域的研究成果来看,答案:是肯定的。防止歧视的数据挖掘和算法公平仿佛成为新兴的研究范式,试图借此发现并消除算法引发的不公平现象。康奈尔大学信息科学部学者梭伦巴罗卡斯〔SolonBarocas〕、普林斯顿大学信息技术政策中心学者约书亚克罗尔〔JoshuaKroll〕等人建立了专注于机器学习公平、透明与可责的研究中心〔FAT-ML,Fairness,Accountability,andTransparencyinMachineLearning〕,鼓励计算机领域的学者在预防算法歧视的前提下设计算法。针对第二个问题,公平在算法中通常被量化、形式化为两种形式:群组公平〔groupfairness〕与个体公平〔individualfairness〕。群组公平又被称为统计奇偶性〔statisticalparity〕,指的是接受正分类或负分类的人的比例与整个人口统计是一样的,旨在平等地对待所有群体,它要求通过算法而进行的决策结果在受保卫群体与非受保卫群体之间的比例相等。例如,若某行业从业人口的男女比例为1:2,那么受雇佣的男女比例也应接近1:2。然而,学者辛西娅德沃克〔CynthiaDwork〕等人则以为群组公平并缺乏以保证算法决策结果的公平性,由于就个人角度而言,它可能造成不公平。例如,在申请贷款中,群组公平并不能保证A与B两个群体中信誉度类似的两个人获得一样的贷款概率。因而他们提倡另一种形式的公平个体公平。个体公平可被阐释为平等地对待类似的个体。德沃克通过测量在特定任务中个体之间的类似度而保证分类的公平性,以防止个体由于附属于某一群体成员而被歧视。[11]学者马修约瑟夫〔MatthewJoseph〕则将个体公平进一步发展为个体时机均等:通过将约翰罗尔斯的时机平等原则以数学的方式形式化,建立机器学习中的上下文赌博机〔contextualbandits〕,以保证算法的每一步都公平地对待类似的个体。[12]事实上,在群体公平与个体公平选择的背后隐藏着设计者的不同世界观。群体公平所隐含的是我们都是平等的,即在算法的特征选择经过中,个体所组成的群组之间并没有天生的差异,他们看起来都是一样的。或者讲,即便存在差异,这些差异都是由个人控制之外的因素造成的,在算法决策经过中不应考虑这些因素。个体公平隐含的则是所见即所得。也就是讲,针对算法特征选取的观察方式方法能够较为真实地、准确地表征个体并作为算法的输入。[13]但算法语境下公平的形式化仅仅是对公平阐释的内容之一,而非全部。对此,学者迈克尔斯克潘〔MichaelSkirpan〕以为,算法语境下对公平的诠释需要重视两个问题:一是诠释算法公平常,公平更多的是一种公平建构〔fairnessconstruct〕,即公平不是静态的,而是动态的,对其诠释依靠于算法所要解决的特定问题空间以及在训练和应用中对该诠释进行编码和测量的方式方法。二是需超越上述对技术方式方法之公平的关注,重视算法系统的公平性与结果的公平性。算法系统的公平性即采用算法系统解决某个特定问题能否恰当。例如,算法驱动的道路导航之自主实验系统不仅在缺乏用户知情同意的情况下利用用户的无知而开展实验,而且在实验经过中整个算法系统可能会更倾向于选择那些信息较少的用户作为实验对象,这就提出了怎样在实验对象与非实现对象之间公平分配利益与风险的问题结果的公平性,即算法X的结果能否公平。它可被理解为对算法歧视的事后控制,能够使用特殊的事后分析方式方法发现黑盒模型可能存在的不公平。[14]2.算法身份的污名化第一,算法歧视关涉个体被赋予何种算法身份。如前所述,在算法决策中,个体被赋予一种新的身份,即算法身份。但它并非静态的、不可更改的,而是具有交互性、适应性和可跟踪性等特征:〔[9],p.77〕一方面,算法身份可随时追踪个体与所属临时群组中其别人的信息更新,并根据这些新信息更改个体算法身份;另一方面,新的信息也在更新与重建算法本身。正如学者塔尔顿吉尔斯皮〔TarletonGillespie〕所言,算法是偶尔的、不稳定的,由于用户的每一个点击、新数据的增加等细微的变化都将调整与重塑算法。[15]在这里意义上,算法身份就像信息流一般,新的判定、分数、风险评估等不断地被扔进华而不实。[16]然而,由于算法身份是基于多种数据库、算法以及决策者交互而构建的,其对个体的理解及其算法身份确实定不是根据个体的实际行为,而是根据算法所辨别的个体与别人的关系,〔[2],p.8〕加之前面提到的数据偏差、不合理地分类等原因,个体的算法身份可能与个体的现实状况并不相符,并被贴上某种标签而使其在算法决策中易遭到歧视。更挖苦的是,即便算法在推断个体身份时能克制这些问题,那么接下来的问题则转变为假如算法过于准确地推断受保卫群体的成员资格,仍然可能会据此确定算法身份并在这里基础上对他们进行歧视。[17]第二,一旦将个体算法身份贴上某种易于被歧视的标签,就会产生双重累积劣势。[18]累积性优势/累积劣势是默顿对科学界职业分层中马太效应现象提供的一种构造性解释。华而不实累积优势指的是任何个体、群体或地区一旦在社会地位、信誉、经济状况等方面获得成功,就会产生一种累积优势,进而获得更多的时机和更大的成功;累积劣势则是对其相反状况的描绘叙述。为什么是双重累积劣势?一方面,算法越是精准地推断受保卫群体或少数群体中个体的成员资格并据此对其进行分类,其在决策结果中遭到的歧视可能性就越大。例如,由于一系列复杂的因素,收入不平等在美国黑人之中很明显,它通常是经过几代人的劣势累积而构成的代际负担。身体健康等生活质量、政治介入程度以及社会理论家所言的自信心、知识等社会资本不仅与美国黑人的收入状况相关联,而且会加强其在地理上的孤立并重生与扩展他们在收入中的劣势累积,进而导致他们所寓居的社区成为风险状况的一个重要指标。这些因素都将以数据的形式输入算法并被呈现,进而导致美国黑人在生活时机的分配中再次遭到负面影响。[19]另一方面,基于算法对受保卫群体或少数群体中个体成员资格的推断,其决策结果带来教育、就业时机、医疗等方面的负面影响,则可能在日后生活中进一步加剧,并导致自我应验预言的实现与污名化。〔[2],p.9〕原因在于,基于算法身份的算法决策会产生关于个体的新推断,并影响个体的行为,进而构成更多的数据,而这些新数据则会成为算法再一次对个体进行分类、确定算法身份并作出推断的数据基础。如此一来,劣势则会越累积越多。与此同时,算法在劣势累积影响下所作出的推断与决策结果还将导致对少数群体或受保卫群体的负面成见,即污名化与自我应验预言的实现。例如,当一个算法评分系统表示清楚,某个受保卫群体的成员在特定环境下信誉评分较低时,它会传达这样一种信息,即该成员乃至这个群体的所有成员在众多情况下都是不值得信任的。如此一来,其别人对该群体的看法以及该群体内成员对自我的看法都会遭到影响,这就是污名化与自我应验预言的实现。〔[5],pp.1398-1399〕事实上,这在更深层次牵涉到了算法系统的记忆与遗忘问题。更准确地讲,是算法决策中的数据追溯与使用问题,即个体数据应该保存多久、何时应该删除,应该使用过去多久的数据来合理地评价个体。破产法、青少年犯罪记录以及金融信誉报告中都存在这样的规定:在规定年限之后,个体就有权要求制度上的遗忘,即将相关数据删除并消除其累积效应,进而能够重新开场。[20]综上所述,算法歧视主要牵涉到算法公平与算法身份污名化两大伦理问题。但这并不意味着算法歧视仅仅牵涉到上述两个问题,它还不同程度地牵涉其他伦理问题,如隐私。详细而言,算法歧视关涉到对个人辨别信息的保卫。十分是在算法决策环境下,关于个人的算法决策在某种程度上代表了个人信息,因此就关涉到对个体辨别信息〔尤其是受保卫群体某些属性〕的保卫问题。也就是讲,可从算法决策结果的角度进行反推,进而判定受保卫群体某些属性能否被保卫。例如,假如能从某人被银行拒绝贷款的事实中推断出其更可能生活在某个社区,那么该算法决策结果则是基于申请者客观信誉风险之外的因素所作出的,[21]因此也就没有能有效保卫个体的可辨别信息。三、算法歧视伦理问题的解决进路当下,学者主要从下面三个方向探究解决算法歧视,实现算法公平的可能性。1.技术进路当前,技术途径主要集中在算法的专业技术人员对防止算法歧视与实现算法公平的技术研发,主要包括事前与事后两个方面。事前主要是从数据预处理与算法设计的角度克制算法歧视,实现算法公平;事后主要是对算法运行的事后监督与审计。就技术进路中的事前而言,首先是对数据进行预处理。如前所述,输入数据与训练数据是算法歧视产生的原因之一。因此针对这些数据,技术人员采取多种措施以有效地确保输入数据与算法训练数据知足公平属性。例如,基于预测置信度、抽样与权重调整而改变分类标签,扰乱训练数据集合等都能够有效地控制算法训练数据的失真;〔[3],pp.38-40〕同时,还能够直接修改输入数据、正则化、公平的数据集表示等方式方法,以使输入数据知足非歧视与公平的要求。〔[21],pp.687-690〕其次,还可从算法设计的角度防止算法歧视,这被视为算法的平权行动。算法平权成认算法决策在时机均等方面存在缺乏,并采取多种措施弥补这些缺陷。换言之,算法平权行动的重点在于正视算法歧视的存在,并认识到即便外表中立的算法可以能产生歧视,进而在这里基础上对其进行纠正。[22]之于算法设计而言,算法平权行动则是要在算法设计中考虑种族、性别等敏感属性,尤其是在算法的分类设计中考虑而非刻意躲避这些属性,以确保结果的非歧视与公平性。以上对数据的预处理与算法的公平设计旨在确保算法决策经过按预期进行,却并不能确保算法结果始终避免不公正的歧视,一旦算法做出决策还需要进行事后的监督与审计。这就牵涉到技术人员对算法审计工具的开发与设计。克里斯蒂安桑维〔ChristianSandvig〕提出了五种理想的算法审计设计,分别是:代码审计、非侵入式用户审计〔NoninvasiveUserAudit〕、抓取式审计〔scrapingaudit〕、马甲审计〔sockpuppetaudit〕、协作式审计。华而不实代码设计以算法透明为前提,在这里基础上研究人员对所披露的算法进行审计;非侵入式用户审计是在用户同意的情况下获取用户在某算法中的搜索查询和结果,进而从中推断出算法怎样进行操作;抓取式审计是研究人员通过反复向一个平台发出某个请求等方式干涉算法及其平台,并观察查询结果;马甲式审计中研究人员会用计算机程序模拟用户,进而通过开创建立虚假用户来观察算法;协作式审计则是招募足够多的测试人员,进而通过他们观察算法。[23]2.哲学进路哲学进路通常是为某种公平理论的合理性、局限性及其实现的可能性进行论证。该进路的必要性在于,假如仅从上述技术进路解决算法歧视,可能会产生一种风险:仅仅关注源自法律规定的、缺乏情境与背景、静态的受保卫类别,而不考虑为什么要保卫他们,以及他们与相关算法中某种公平的关系。而对歧视与公平的哲学考虑却能让我们反思这些根本问题。[24]也正是在这里意义上,学者梭伦巴罗卡斯与安德鲁塞尔斯特〔AndrewD.Selbst〕以为,对于算法歧视这一问题,需要的不仅仅仅是消除偏见和偏差,更要对歧视和公平的含义进行大规模的重新审视。[25]如前所述,算法应当遵循何种公平理论,是一个颇有争议的问题。比方,政治哲学中的程序公平强调经过符合公平与公正的原则,而分配公平则强调分配结果的正当性,这两种理论在某种程度上是互相对立的。在算法伦理中,程序公平与分配公平都有各自的支持者。事实上,前面所提到的个体公平、群体公平、时机公平等都是结果公平的详细示例。它们皆从算法决策结果的角度来界定、衡量与理解算法公平。但它们立足于不同的公平理论,如群体公平遵循平等主义的分配正义概念,旨在实现人口统计学意义上的平等;个体公平遵循个人主义的平均主义这一形式上的正义原则,旨在实现类似个体获得类似的输出;时机均等立足于罗尔斯的时机平等;资源平等则立足于德沃金等运气平等主义者的时机平等理论,即拉平社会境况和自然禀赋的时机平等。[26]与结果公平不同,学者穆罕默德比拉尔扎法尔〔MuhammadBilalZafar〕等人以为,算法决策分配结果公平的研究忽略了决策经过的公平性。算法决策经过的公平性指的是在决策经过中使用了哪些输入特性、包含或排除这些特性会对结果产生何种影响,并评估人类对使用这些特性的道德判定。详细而言,程序公平具体表现出在四个方面:算法特征选择的自主性,即算法所使用的输入特征能否是个体自主选择的结果;特征可信度,即怎样可靠地评估一个特征;特征与隐私的关联,即便用某特征能否会侵犯个人隐私;特征的相关性,即某个特征与决策结果能否存在因果联络。在这里基础上,他们引入了程序公平的三个度量标准:特征先验的公平〔feature-apriorifairness〕、特征准确性的公平〔feature-accuracyfairness〕与特征差异的公平〔feature-disparityfairness〕。[27]换言之,只要知足上述衡量程序公平的三个度量标准,算法决策就可被视为是公平的。当然,知足算法决策的程序公平可能会带来结果公平,但它仅仅是程序公平的副产品,且并不意味着二者之间存在必然的普遍联络。3.法治进路法治进路主要讨论的是怎样应对算法的挑战进而依法规制算法歧视。在算法歧视的语境下,主要挑战之一是怎样从法律上确定算法歧视的标准,是采传统的差异不同影响标准?还是建立一套新的借助算法、结合个体特点的个性化歧视辨别标准?[28]梭伦巴罗卡斯以为,美国现行法律中的差异不同性影响原则比差异不同性待遇原则更合适应对大数据时代的算法歧视与算法公平。差异不同性待遇指的是存心故意歧视或直接在类似处境中有区别地对待受保卫群体与少数群体。该原则以能否存在明确的歧视意图为标准,进而断定算法能否存在歧视行为。但其有效性仅限于理性种族主义和掩蔽,即当算法明确使用受保卫群体成员的数据作为算法模型的输入或根据其进行分类时,该算法行为可断定为歧视,无论其最终能否会产生歧视性影响;在掩蔽这种隐性歧视中,固然算法使用者利用算法运行中的数据选择、特征选取等环节掩饰其歧视意图,却不能忽视其存在明确的歧视意图,因此仍然适用于差异不同性对待原则。在没有歧视意图的情况下,差异不同性影响原则更合适于算法歧视。该原则主要面向结果,即外表中立的算法决策本身能否会对受保卫群体与少数群体造成不成比例的负面影响。〔[25],pp.677-694)对此,在法律上规制数据源及透明性等算法相关内容能够有效地防止算法歧视。法律首先要做的就是规定愈加小心和负责地收集、使用、分享可能导致歧视的任何敏感数据。可这显然不够。从大数据的相关性原理出发,只是将敏感数据简单排除并不能保证它们不被考虑。所以,要辨别和应对数据应用中的歧视和偏见,数据透明就不可或缺。换言之,它要求在数据生产和处理日趋复杂的形势下,加强个人的知情权,进而修复信息的对称性。[29]欧盟(一般数据保卫条例〕正是对数据源与算法的规制,在保证数据源正当合法的同时确保算法的公开、透明与可解释。例如,明确将7种个人数据视为敏感数据;规定处理个人数据的法律基础是自主同意,且针对特定目的、在知情情况下获得数据主体明确地指示;还应当对透明性、可解释性等进行讲明。必须指出的是,上述三种途径的划分是相对的,而它们互相之间可以以穿插、协调合作。显然,在算法公平的理论研究与实验实践经过中需要各种进路并行,已有的一些研究已经具体表现出出了这一特点。四、结束语国外算法歧视的研究对于中国学者认知算法歧视及其可能的解决途径也具有启发性。相比拟而言,算法歧视与算法公平的研究在国外计算机与人文社会科学领域已广泛开展并占据重要地位,而在中国则相对薄弱。一是在政策与法规层面对算法歧视与算法公平的忽视。当前,我们国家仅停留在倡导算法也应具备良好的价值伦理层面,而未将其上升到政策法规的硬性要求层面。对此,有学者建议应将无差异不同不歧视纳入对算法的法律规制之中,除此之外,还可通过立法提升算法的透明度,以提升公众的知情权和自主选择权。[30]二是在行业与技术层面,我们国家对算法公平的研究还需加强。以谷歌为代表的互联网行业提出了在机器学习中实现时机平等,且对算法公平技术定义的研究也逐步与人文社会科学相结合,探寻求索不同情境下更恰当的算法公平。而我们国家在这方面的研究则相对薄弱。三是科技人员伦理意识的培养。相比拟于技术研究,科技人员的伦理意识的培养则更为重要。国外已有很多大学开设了针对计算机、人工智能等专业人员的相关课程。如哈fo大学与麻省理工学院共同开设了人工智能的伦理道德与管理规范的新课程,主要包括算法风险的评分、怎样保证数据无偏倚、能否应当用机器来评判人等问题。因此,借鉴国外相关课程,提升科技人员的伦理意识,促使科技人员在算法设计、应用中自觉遵守伦理规则,以实现自律和他律的结合。以下为参考文献[1]Hill,R.K.WhatanAlgorithmIs[J].PhilosophyTechnology,2021,29(1):35-59.[2]Mittelstadt,B.D.,Allo,P.,Taddeo,M.,etal.TheEthicsofAlgorithms:MappingtheDebate[J].SocialScienceElectronicPublishing,2021,3(2):1-21.[3]Romei,A.,Ruggieri,S.AMultidisciplinarySurveyonDiscriminationAnalysis[J].TheKnowledgeEngineeringReview,2020,29(5):1-54.[4]Lepri,B.,Oliver,N.,Letouz,E.,etal.Fair,Transparent,andAccountableAlgorithmicDecision-makingProcesses[J].PhilosophyTechnology,2021,31(4):1-17.[5]Zarsky,T.Z.UnderstandingDiscriminationinTheScoredSociety[J].WashingtonLawReview,2020,89(4):1375-1412.[6]丁晓东.探寻反歧视与平等保卫的法律标准从差异不同性影响标准切入[J].中外法学,2020,26(4):1080-1096.[7]丁晓东.重新理解年龄区分:以法律手段应对年龄歧视的误区[J].法学家,2021,(4):102-111.[8]黄柏恒.大数据时代下新的个人决定与知情同意[J].哲学分析,2021,8(6):101-111.[9]Vries,K.D.Identity,ProfilingAlgorithmsandaWorldofAmbientIntelligence[J].EthicsInformationTechnology,2018,12(1):71-85.[10]Calders,T.,?liobait?,I.WhyUnbiasedComputationalProcessesCanLeadtoDiscriminativeDecisionProcedures[A],Custers,B.,Calders,T.,Schermer,B.,Zarsky,T.(Eds)DiscriminationandPrivacyintheInformationSociety[C],Berlin,Heidelberg:Springer,2020,43-57.[11]Dwork,C.,Hardt,M.,Pitassi,T.,etal.FairnessThroughAwareness[A],Shafi,G.(Ed.)ITCS12Proceedingsofthe3rdInnovationsinTheoreticalComputerScienceConference[C],NewYork:ACM,2020,214-226.[12]Joseph,M.,Kearns,M.,Morgenstern,J.,etal.RawlsianFairnessforMachineLearning[EB/OL]..[13]Friedler,S.A.,Scheidegger,C.,Venkatasubramanian,S.Onthe(Im)possibilityofFairness[EB/OL]..2022-01-21.[14]Skirpan,M.,Gorelick,M.TheAuthorityofFairinMachineLearning[EB/OL]..2022-01-21.[15]Gillespie,T.TheRelevanceofAlgorithms[A],Gillespie,T.,Boczkowski,P.J.,Foot,K.A.(Eds)MediaTechnologies:EssaysonCommunication,Materiality,andSociety[C],Cambridge,Massachusetts:TheMITPress,2020,167-194.[16]Balkin,J.M.TheThreeLawsofRoboticsintheAgeofBigData[EB/OL].YaleLawSchoolFacultyScholarshipSeries,.[17]Barocas,S.DataMiningandtheDiscourseonDiscrimination[EB/OL].ConferenceonKnowledgeDiscoveryandDataMining,.[18]石智雷、吴志明.早年不幸对健康不平等的长远影响:生命历程与双重累积劣势[J].社会学研究,2021,33(3):166-192.[19]Gandy,O.H.EngagingRationalDiscrimination:ExploringReasonsforPlacingRegulatoryConstraintsonDecisionSupportSystems[J].EthicsInformationTechnology,2018,12(1):29-42.[2
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 松原市扶余县2025-2026学年第二学期五年级语文期中考试卷(部编版含答案)
- 临汾市汾西县2025-2026学年第二学期六年级语文第五单元测试卷部编版含答案
- 衡水市饶阳县2025-2026学年第二学期六年级语文第四单元测试卷(部编版含答案)
- 包头市土默特右旗2025-2026学年第二学期六年级语文第五单元测试卷部编版含答案
- 宣城市泾县2025-2026学年第二学期五年级语文期中考试卷(部编版含答案)
- 活动安保方案
- 零食策划方案
- 深度解析(2026)《CBT 4453-2016船用液化天然气燃料储罐》
- 深度解析(2026)《CB 457-1994油舱防火透气头》
- 深度解析(2026)《AQT 2052-2016金属非金属地下矿山通信联络系统 通 用技术要求》
- 专题36 七年级名著导读梳理(讲义)
- 紧急情况的处理措施、预案和抵抗风险的措施
- 《公路养护安全培训》课件
- 临床试验CRC培训
- 转K6型转向架获奖课件
- GB/T 21649.1-2024粒度分析图像分析法第1部分:静态图像分析法
- 2024年可行性研究报告投资估算及财务分析全套计算表格(含附表-带只更改标红部分-操作简单)
- 2024年电力行业电缆终端制作技能竞赛理论考试题库(含答案)
- 国家开放大学《初级经济学》形考任务1-3参考答案
- 2024年新人教版七年级上册历史 第4课 夏商西周王朝的更替 (2) 教学课件
- GB/T 20878-2024不锈钢牌号及化学成分
评论
0/150
提交评论