人工智能时代人体增强问题的道德哲学研究(10篇)_第1页
人工智能时代人体增强问题的道德哲学研究(10篇)_第2页
人工智能时代人体增强问题的道德哲学研究(10篇)_第3页
人工智能时代人体增强问题的道德哲学研究(10篇)_第4页
人工智能时代人体增强问题的道德哲学研究(10篇)_第5页
已阅读5页,还剩80页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

人工智能时代人体增强问题的道德哲学研究(10篇)第一篇:为了防范人类生存危机,道德增强进入了科技伦理议程中。由于生物医学道德增强的诸多弊端,各种人工智能道德增强方案被陆续提出,分别为:人工智能作为人类道德决策的“替代者”“建议者”或“对话者”;“替代者方案”将导致道德消亡,阻碍道德进步,但适用于危急情境;“建议者方案”会损害能动者的能动性,固化其道德观念,但适用于日常决策;“对话者方案”能够帮助用户实现道德成长,但无法提供道德动力。混合式道德增强将各方案应用于不同场景,在紧急状态下调用“替代者”模式,在日常生活道德决策情境中唤醒“建议者”模式,在空闲时段进入“对话者”模式,兼顾三种方案优点又规避其缺陷。但混合式方案仍需要生物道德增强的辅助以提升用户道德动机,并被纳为义务性培训的一部分。我们现今的世界正面临着严峻的生存危机,生物与核恐怖主义、资源枯竭以及气候恶化的挑战使人类必须寻求技术手段进行自我拯救。最初,伦理学家将目光投向生物医学领域,希望这些技术可以帮助人类实现道德增强。多年的哲学辩论揭示出,生物医学道德增强技术仍不成熟,且具有严重的道德局限性。于是学者开始探索人工智能道德增强,逐渐形成了三种不同的道德增强方案。我国是人工智能研究发展迅猛的经济体之一,但目前国内学者还未充分探讨人工智能道德增强。因此,在本文中,笔者通过批判性地回顾三种AI道德增强方案,以期引起学者对这一领域的重视与讨论,进而为国际哲学讨论作出贡献。本文首先梳理AI道德增强的理论背景,然后依次引介与批判三种方案——“替代者方案”“建议者方案”以及“对话者方案”。在揭示各种方案的缺陷及适用情境后,笔者将论证一种结合其各自优势的混合方案。一、道德增强的人工智能转向工业革命以降,人类科技达到了空前的高度。科学上的突破使人类的影响力覆盖全球并影响到遥远的未来。尽管科技为全球不断增长的人口带来了前所未有的福祉,也催生了一些前所未有的伦理问题。过度的消费导致资源枯竭和气候变暖。随着科学知识的积累,极端恐怖主义分子可能掌握核武器或生物武器技术,而对无辜的生命造成终极伤害。许多学者认为,这些伦理问题若得不到解决,将会严重影响人类未来的福祉,甚至可能危及人类的生存。然而,我们的道德心理难以应对这些挑战。尽管我们生活在科技高度发达的社群,但我们的道德心理却是为了在小型、紧密且技术较原始的社群中生活而演化出来的。这种演化的不匹配(mismatch)主要体现在我们的心理倾向和偏见上。例如,我们的道德视野狭窄,关注的重点主要集中在我们自己及亲友将要发生的事情上。相反,我们鲜少关怀陌生个体与更大集体所遭受的痛苦;我们对未来世代与非人类动物的道德回应也不够充分。我们有自私、裙带关系、仇外与小团体主义等排他性心理倾向。这种心理倾向阻碍我们进行大规模的合作以应对恐怖主义和气候恶化这类问题。在这种情况下,托马斯·道格拉斯(ThomasDouglas)和英格马尔·佩尔松(IngmarPersson)等在2008年提出了通过生物医学技术提升人类道德能力的观点。自那时以来,围绕生物道德增强的辩论在西方学界逐渐升温,药物、神经技术、基因编辑等各种各样的道德增强方案被陆续提出。由于我们的核心道德倾向——利他主义和公正感——是生物学上的特征,一些道德增强的支持者提出,可以通过生物医学的手段(如药物、神经技术、基因编辑),增强我们的利他主义倾向。或者,可以利用生物医学技术增强我们的公正感或公平感,即调整我们某些“以牙还牙”的倾向,使我们更适当地表达感激、愤怒和宽恕等情绪。他们认为,通过这样的方式,我们将有足够的道德动机去克服意志力薄弱(weaknessofwill),从而更好地履行我们的道德责任。然而,各种生物医学道德增强手段的效果往往是微小的、短暂的,且高度依赖情境。这些手段还带有严重副作用。因此,在我们可以放心地使用生物医学干预进行道德增强之前,还有大量的科学工作要做。无论是药物、神经技术还是基因编辑,这些增强道德动机的方式都会侵犯到个人的自由。道德动机增强就像一台“上帝机器”,使人们在心理上无法选择作出不道德的行为,这无疑会压抑个人的自主性(autonomy)和道德能动性(moralagency)。为了在保障个人自主性的前提下进行道德增强,一些哲学家转而推崇用生物医学手段来增强人们的道德认知能力。由于技术不成熟,脑部刺激等神经技术也无法用于增强道德认知。综合看来,在当前科技水平下,进行道德增强仍是遥不可及的目标,同时还涉及侵犯个人自由的道德问题。生物医学道德增强的不足,使许多学者将眼光投向了近十几年迅速发展的人工智能领域,认为该领域的进步能帮助人类走出当前的伦理困境。一些坚定的生物道德增强的支持者如萨维列斯库(JulianSavulescu),甚至转向支持人工智能(AI)道德增强。二、人工智能道德增强的三种现有方案人工智能在道德增强研究的语境下,指的是“无处不在的计算”或“环境智能”,即一个系统收集多个传感器和数据库的信息,并根据这些信息与系统用户所需功能之间的相关性来处理它们。为了利用AI来使个人变得更加道德,伦理学家们提出了AI道德增强的不同方案。根据人工智能在人类道德推理与决策中的不同角色,这些方案大致可以归为三类:人工智能作为“替代者”“建议者”或“对话者”。1.人工智能作为替代者机器伦理学(machineethics)研究者为AI道德增强提供了第一种方案。机器伦理最初的目的并不在于人类道德增强,而是将机器变成真正的道德决策者。其支持者认为,由于AI的道德决策具有持续的公正性(impartiality)、一致性(consistency),且不受情感影响,它们在道德推理方面会比人类更加出色。AI也不受人类道德心理局限性的困扰:它们不会因以自我为中心或偏袒派系成员(ingroupmembers)而作出非理性的道德决策。此外,机器也不会因为持续作道德判断而感到疲倦。一些机器伦理学家因此建议创建具有优于人类道德能力的自主人工智能,并用这种AI来全面替代人类作道德决策,从而增强人类的道德行为。一些机器伦理的忠实拥护者如埃里克·迪特里希(EricDietrich)甚至提议使人类完全灭绝,以创造一个只有道德机器人居住的更好世界。他认为,大多数人类由于其生物条件的限制,无法实现以道德的方式决策与行动。自利、偏心等道德心理使人类在决策时往往偏袒自己或亲友的利益;而道德机器人并不将自身视为宇宙中心,因而能从无私的(disinterested)观点出发来决策与行事。根据“替代者方案”,系统设计者首先要预设一种有效的、正确的道德观念,并根据这种道德观念来配置AI,以此指导人类的道德实践。在系统编写完毕之后,要做正确的事情,人类只需要完全服从AI的指令。这种方案的核心就在于,包括设计者在内的所有人类参与者,在初始编程完成后,都应该采取被动的角色,听从AI的道德建议。除了决定允许AI为我们作决策之外,我们不需要花费任何心理或行为上的努力来达到期望的道德增强。人类可以通过让AI直接控制我们的行为来执行这些决策,比如通过脑机接口来让AI直接主导我们的行动。我们也可以通过政治系统来惩罚任何偏离AI要求的举动,从而间接地使AI控制我们的行为。“替代者方案”在伦理上饱受争议。首先,“替代者”AI根据系统设计者所预设的道德观念来进行道德推理,然而许多人可能并不接受这种道德观念。当AI替代与之持不同道德观念的用户作道德决策时,它将系统设计者的道德观强加在他们之上,违背后者的自主性(autonomy)。有人可能会争辩说,这并不必然是个问题,因为多个系统设计者可以开发出多个系统。这样的话,不同用户可以自己决定使用哪个系统。然而,这会扼杀不同道德观念之间对话与协调的可能性。根据“替代者方案”,我们的道德决策权完全交托给了AI,因而我们放弃了在不同的系统对一个道德问题提供不同解决方案的情况下,达成任何协议的可能性。更重要的是,由于失去了对话与达成协议的可能性,“替代者方案”也扼杀了道德进步的可能性。人类道德观念的演化与进步往往是在不同观点的交锋与协调之间逐步产生的,这就是约翰·密尔(JohnStuartMill)赞颂自由思想市场(thefreemarketofideas)的动机。在AI全面替代人类的道德推理活动后,人们不再共同进行道德慎思(moraldeliberation),自由思想市场将不复存在。即使今时今日的人类在某些道德判断上存在共识,在未来的某个时刻这种判断可能不再被接受。由于AI无法自动更新其决策模型,如果让AI来替代人类决策,我们会被困在一个静态的道德观念中。最后,“替代者方案”将会导致道德能力的丧失。将我们的道德决策“外包”给AI,这种行为会逐渐弱化我们的道德技能(moralde-skilling)。由于道德决策全由AI来执行,人类在道德推理上的卓越将不再会被重视。我们也因此无法再享受亚里士多德所认可的美好生活中一个基本要素:过一种由实践发展而来的道德理解所主导的生活。总而言之,“替代者方案”将导致道德本身的消亡,因为道德决策不再由人类而是由道德AI作出,人类俨然成为了AI的追随者。既然人们已经放弃了他们的道德自主性,扼杀了道德进步的可能性,道德增强也无从谈起。不过,在一些十分紧急的道德困境中,“替代者方案”也有其可取之处。例如,一位反恐警察在公共空间中面对一名携带大规模杀伤性武器的恐怖分子时,可能会受到厌恶伤害他人的心理倾向之影响,从而未能及时采取行动消除恐怖分子的威胁,导致大量无辜生命的伤亡。“替代者”AI在这种情境中可以迅速作出道德决策,促使能动者及时采取措施。AI道德增强的核心动机是帮助人类规避环境恶化与恐怖主义所引起的生存危机。在与这些危机高度相关的紧急事态中,我们可以正当地(bejustifiedin)将决策权让渡给道德AI。2.人工智能作为建议者为了弥补“替代者方案”对人类自主性的剥夺与对道德能力的侵蚀,一些AI道德增强的支持者如萨维列斯库等,提出了人工智能作为道德决策建议者的方案。根据这种方案,用户需要向AI提供其个人道德准则作为后者进行道德推理的依据。根据用户个人的道德标准,AI进行道德推理并为用户提供建议,以供后者在作决策之前参考。道德增强的重要推动者——朱利安·萨维列斯库——是这一方案的积极倡导者。在他与汉娜·马斯伦(HannahMaslen)的合著文章中,他们从价值多元论出发,设想人类用户可以从AI所提供的以下价值中进行选择,并对其重要性进行自主排序:仁慈(benevolence-helpingothers);非恶意(non-malevolence-notharmingothers);正义或公平(justice/fairness);合法性(legality);环境保护(environmentalprotection);家庭或重要关系(family/significantrelationships);执行义务、承诺或诺言(fulfillingduties/commitments/promises);最大化净效用(maximisingnetutility-makingsureoverallbenefitsoutweighoverallcosts);他人的自主性(autonomyofothers)。依据用户对这些价值的选择与排序,道德AI会作出相应道德推理并推荐与用户价值体系一致的道德决策。通过允许用户自主选择其AI所遵循的特定价值体系,萨维列斯库与马斯伦希望尽可能地保障人类道德抉择与行动的自主性。然而,从价值多元主义的角度看,世间各种事物和行为所包含的道德价值种类,远超出萨维列斯库与马斯伦所列出的价值清单。比方说,一位虔诚的天主教徒可能将上帝的恩宠(grace)与天国的至善视为最为崇高的价值。既然两位作者从价值多元主义出发,他们也不应将这种准自由主义(quasi-liberal)价值观中掺杂进道德AI的设计方案中。由于意识到这种设计方案的缺陷,萨维列斯库与阿尔贝托·朱比利尼(AlbertoGiubilini)在后续文章中建议,我们应该提供不同版本的系统以供用户选择,使用户可以根据他们的价值来选择他们希望采用的版本。根据这种设计方案,道德AI在某些方面如同一个理想的观察者,比如它对非道德事实(non-moralfacts)是全知全觉的(omniscientandomni-percipient),即能够视觉化、想象并同时使用所有信息。同时,在作道德推理时,AI也是无私(disinterested)且不带情绪的(dispassionate),同时能保持道德判断的一致性(consistency)。与理想观察者不同的是,萨维列斯库与朱比利尼所设想的AI在进行道德判断时不是基于某种理想观察者的视角,而是依赖其用户的道德价值观。为了解决某些用户可能持有扭曲的道德观念这个难题,两位作者提出两种策略。根据第一种策略,我们在编写道德AI时须咨询一群道德专家。这些道德专家可以决定将哪些基本的道德原则或约束条件作为基本过滤器置入AI之中。在这些约束之内,不同用户凭借自己的道德观念来设置AI,以便AI提供定制的道德建议。根据第二种策略,道德专家将更加实质性的道德原则输入到AI中。例如,我们可以想象,一个天主教道德专家输入的标准会帮助一个用户遵守天主教教义,或者一个功利主义哲学家运用功利主义原则给AI编程。每个用户都能自主选择使用哪个版本的AI,而无须自己决定用哪些具体的原则来指导AI的道德推理。例如,有些人只想成为好的天主教徒,但不确切知道在不同情况下应用哪些原则。一个天主教道德AI会帮助他们的行为与他们的基本道德观念保持一致。虽然“建议者方案”相较于“替代者方案”,更加尊重个人的自主性,但它仍存在严重的缺陷。第一,用户的角色仍然过于被动。一旦用户选择了他们愿意接纳的价值观,他们的能动性只剩下决定是否接受AI道德推理得出的建议。由于用户不需要理解他们的价值观与AI所作的决策之间的理性联系,他们的道德技能无法大幅提升。“建议者方案”主要关注的是帮助用户作出正确的道德决策,而非助力用户成为更优秀的道德能动者,如果有一天AI停止运作,用户可能无法作出比他们最初就能作出的更好道德决策。第二,一旦用户确定了AI所依据的价值框架,AI将仅推荐符合这种框架的决策,而不是鼓励用户质疑这个框架。萨维列斯库与马斯伦也认识到了这一点,因而他们写道,使用机器可能会鼓励人们顺从,而不是进行“深入反思”。人们通常就不愿意改变自己价值观念,如果他们认为自己的决策是基于可靠AI的建议,他们会更加不愿意改变。虽然“建议者方案”允许不同观点的多样性,容纳了一定程度的个人自主性,但很难看出它如何能够促进不同价值观念之间的对话与协调,如何促进道德进步。即使“建议者方案”具有上述缺陷,它也有一定可取之处,适用于特定情境。首先,很多时候人们并非不想行道德之事,而是缺乏认知能力去弄清在特定情境中采取哪些行为才符合自己的道德标准。在这些情况下,“建议者”AI可以减轻用户的认知负担,帮助用户轻松作出符合其道德观念的行动。而且,即使人们不使用“建议者”AI,他们也很少修正自己的价值观念。在这种前提下,虽然道德AI需要增添其他功能来促使用户进行道德反思,但在日常生活中辅助用户作出符合自身价值观念的道德决策也是可取的(desirable)。3.人工智能作为对话者由于“替代者方案”与“建议者方案”都无法完全做到尊重用户的自主性,也无法推动道德反思与道德进步,弗朗西斯科·拉拉(FranciscoLara)提出了道德AI作为人类对话者——苏格拉底式AI——的方案。这种方案从苏格拉底式对话(dialogue)中获得启发,将AI作为一种与用户对话来帮助其道德成长(moraldevelopment)的工具,而不是作为预编的(preprogrammed)道德原则或价值清单的存储库。在苏格拉底哲学中,苏格拉底被视为一个助产士,帮助对话者产出他们自己的知识。按照“对话者方案”,AI避免根据某种既定道德观念为用户作决策或提供建议,而是鼓励用户自己进行道德推理。不过,当用户的道德推理中存在经验论据和逻辑推导的错误,或者用户使用可疑的道德原则时,AI会质疑用户。它会敦促用户重新考虑证据和论证,以此来帮助他们提升自己的道德判断能力。具体来说,一个“对话者”AI具有以下关键功能。①提供经验支持。AI有能力快速处理大量数据,可以在用户的道德判断违背经验证据(empiricalevidence)时,敦促他们修改判断,使之与事实更加一致。②提高概念明晰度。道德判断常常包含模糊的概念。AI可以通过引用广泛的语言资源和专家道德建议来帮助澄清这些概念。③理解论证逻辑。AI可以评估用户论证的逻辑结构。通过揭示逻辑缺陷或谬误,AI可以帮助用户提高他们的论证严谨性。④鼓励道德一致性。AI可以敦促用户确保他们在某一特定情境下的道德判断与赋予所有判断融贯性(coherence)的最终价值标准相契合。⑤测试道德的合理性。AI可以将规范伦理学现有理论存入数据库,从而在用户道德推理明显偏离主流观点时予以警告,促使用户重新考虑他们的立场。⑥提高对个人局限性的意识。通过监控生物和环境因素,AI可以告知用户可能会影响他们道德思考的负面因素,如睡眠不足、饥饿或压力等。⑦就执行道德决策提供建议。如同商业和医学领域的AI应用,AI可以帮助用户将道德决策转化为实际行动。例如,它可以预测某决策对他人和环境的潜在影响,从而帮助用户在行为与道德判断上保持一致。总的来说,“对话者方案”重新设想了人工智能与人类用户的互动方式,避免了预设任何道德观念。它强调用户与AI进行持续对话,以此优化用户自身的道德观念。这种方案的最终目标是在不预设任何伦理立场的前提下,帮助个人发展出更好的道德决策能力。AI的角色是通过提问来揭示用户论点中潜在的缺陷,从而改进用户的道德推理过程。该方案在两个主要方面与其他AI道德增强方案显著不同。一是它赋予用户更高程度的参与性——能动者与AI共同商议,而不是AI代替能动者作决策。二是它强调了AI的塑造性角色(formativerole),帮助用户在道德推理上取得精进。综上所述,笔者认为“对话者方案”是当前所有AI道德增强提议中最为可取的,它既保证了用户的自主性,又能够推动用户的道德成长与社会层面上的道德进步;但这种方案仍有其弊端。首先,道德对话需要大量时间,以及用户自身的深入反思。这种AI无法帮助用户及时作出决策,只适用于在用户面临道德难题前为其提供预训练(pre-training)。其次,很多时候人们作出违背道德的决策与行动,是因为缺乏道德动机,而“对话者”AI只能在非常有限的程度内激励用户行道德之事。最后,人们不只缺乏道德行动的动机,也往往缺乏进行深入道德思考的动力。“对话者”AI由于不向用户直接提供答案,而是敦促后者自己推理与决策,在繁忙生活外进一步占据用户精力与时间,因而会进一步降低人们使用这种工具的动机(demotivation)。换言之,很多人可能会选择不与道德AI进行对话,而是选择根据自己的情绪与直觉来作道德判断。如此一来,道德增强也无从谈起。三、作为更优替代的混合进路到目前为止,笔者已经批判性地梳理了三种AI道德增强方案的优缺点。“替代者”AI可以在危急情况下代替能动者作出合理道德决策,但会侵蚀能动者的自主性,阻碍道德成长与进步,甚至导致道德能力的丧失。“建议者”AI将能动者自身的价值观念采纳为自己的运作模型,一定程度上保留了能动者的道德自主性,但无法提升能动者的道德判断与反思能力,因而只适合用于在日常生活中为能动者降低道德认知负担。“对话者”AI能够通过预训练帮助能动者反思与修正自己固有价值观念,但无法向其提供道德行动与反思的动机。为了寻求一种更加优越的方案,我们需要将三种方案置于道德增强的大背景中进行考量。道德增强的最终目的是防范环境恶化与大规模恐怖袭击等人类生存危机。结合这种理论动机,笔者认为几种方案在不同情境中各尽其职是当前的最优解。第一,有些道德情境要求能动者作出及时果断的决策,比如本文中反恐警察的例子。如果在某些情境中,不及时采取某些行为会造成环境的极大破坏或大量无辜生命的伤亡,道德AI应该代替踌躇不定的用户作出明确的判断并主导其行动。第二,大部分日常生活中的道德情境也与人类生存危机息息相关,却不要求当机立断的决策。例如,我们是否将垃圾合理地分类、执法人员是否适当地监督高危人群。在这些情境中,“建议者”AI可以根据其获取与存储的信息——如垃圾分类法规、携带高危物品的概率等——结合能动者自身的道德观念或诉求,为他们提供道德建议。第三,生存危机的缓解最终要依靠能动者自身的道德成长与社会整体的道德进步。因此,AI仍须在能动者面临道德情境或困境之前就为其提供伦理训练。“对话者”AI很好地实现了这种功能。综上而言,混合式道德增强AI提供了一种更为可取的进路。这种方案在紧急状态下调用“替代者”AI,在日常生活道德决策情境中唤醒“建议者”AI,而在能动者空闲时段进入“对话者”模式,从而在生活的不同方面帮助人类作出更好的道德决策。混合式AI最难以实现的乃是其“对话者”功能。但是,唐纳德·西尔林(DonaldSearing)开发的伊索斯(Ethos)程序、圣克拉拉大学开发的伦理决策助手程序以及达克斯·科沃特(DaxCowart)程序等成功尝试从实践角度说明了混合式方案的有效性。不过,一些人可能会从技术或价值的角度质疑混合方案。一是将三种AI增强方案融合进同一个道德AI程序在技术上是否可能?二是这种混合进路是否同时继承了三种方案各自的不足?1.技术可行性三种AI道德增强方案的核心都在于增强人类道德能力,并不存在本质上的差异。它们之间的差别仅仅在于AI在多大程度上主导人类的道德决策过程。根据“替代者方案”,人类将道德决策过程完全交予AI,自己只扮演执行角色。根据“建议者方案”,人类依然掌控自己的道德决策过程,AI仅起到参谋的作用。根据“对话者方案”,AI不直接干预人类道德决策,而是在决策情境前培训能动者,提高其道德决策能力。既然这三种方案的差异仅在于AI对决策过程的干预程度,事实上可以集成到同一个道德增强程序之中,依据不同情境调用不同模式。我们可以用智能汽车为例来说明。这类汽车利用其车载传感器来感知用户的驾驶环境。在紧急状况时,它能替代驾驶员作出自动刹车或迅速调整方向等操作。在日常驾驶中,智能汽车可以为驾驶员提供巡航速度、路线选择与安全驾驶等方面的建议。在非驾驶场景下,智能汽车也可以为用户提供驾驶培训和安全教育。将这些功能集成于车载AI系统并不存在技术上的阻碍。同理,一个道德AI系统在技术上完全可以融合“替代者”“建议者”与“对话者”三种功能,并利用传感器来感知用户的实际情境,从而在这三种功能中进行智能切换。2.混合式AI的价值这种混合进路可能会面对如下质疑:即使该进路能将三种现有方案运用于其各自适用的场景,它也因此同时具有三种方案的缺陷。然而,这样的担忧并不成立。首先,混合式AI只会在涉及严重环境破坏或大量无辜生命受到威胁的情况下启动“替代者”模式。这意味着混合式AI不会如同“替代者方案”一样,严重侵害用户的自主性和道德能力。其次,虽然在日常道德场景中,混合式AI会根据用户的价值观给出建议,但在非道德决策情境中,它会调用“对话者”模式,辅助用户更深入地审视自己的道德观点,并促进不同观点之间的交流和协同。因此,与“建议者方案”不同,混合式AI最终能推动而非阻碍用户道德成长与社会道德进步。再次,混合式AI的“对话者”模式能够通过提供经验支持、提高概念清晰度和帮助用户理解论证逻辑等功能,提升用户的道德推理和决策能力,助其成为更出色的道德能动者。最后,由于“建议者”模式在日常生活中大大降低了用户的道德认知负担,这将提高用户对混合式AI的黏性,进而增加他们使用“对话者”模式的可能性,从而规避了“对话者方案”无法激起道德反思动机之弊病。综上而言,混合式AI既能在危急时刻推动人类用户迅速应对,又能在日常生活中确保用户保护环境、防范风险。最关键的是,通过伦理培训,“对话者”模式最终能帮助用户培养出卓越的道德决策能力、德行(virtues)与行为习惯,从而进一步降低他们对“替代者”“建议者”模式的依赖,如同得到充分培训的驾驶员无须再使用智能汽车的辅助模式一般,以自主的姿态应对新时代的伦理困境。3.混合式AI的局限与对策虽然混合式AI发挥三种方案各自的优势,又规避了其缺陷,但它很大程度上是从道德认知一端增强能动者的道德决策与行动能力。然而,很多时候能动者缺乏的是行道德之事的动机。同时,虽然“建议者”模式通过使日常道德决策便利化,增进了用户对混合式AI的黏性,从而提高了用户使用“对话者”模式的可能性,但这种可能性仍然无法确保用户有利用该模式进行道德反思的充分动力。总而言之,混合式AI在一定程度上,仍然面临“对话者方案”的经典困境:如何解决用户缺乏道德行动与反思之动机这个难题?笔者主要有两点建议。首先,我们不能把AI道德增强视为一个自足的(self-contained)的解决方案。它所增强的主要是我们的(道德)认知能力。虽然形成正确的道德观念一定程度上能提升我们行道德之事的动机,但人类具有意志力薄弱的天性,常常无法依据自身道德信念行事。与AI道德增强相反,生物医学道德增强主要是从动机端增强人们的道德能力。这两种增强手段形成了良性互补。既然当前人类科技水平还未能提供安全有效的生物医学增强手段,我们须开展实质性科学研究来开发更好的生物医学增强方案。其次,针对能动者缺乏反思其价值体系的动机这个问题,将AI道德训练作为义务性培训的一部分非常有必要。义务教育时期是道德社会化最重要的阶段,各国的教育体系鲜少把道德培育课程排除在外。相对于人类教师,既然道德AI在事实信息、逻辑严谨度、对规范学说的掌握等方面更加优越,又不会受人类情绪与偏见的影响,我们有充分的理由将它作为义务道德培育的辅助手段。此外,这种义务性(obligatory)培训可以延伸到包括高等教育、职业培训、资质审核等生活的各个方面与人生的各个阶段。义务性培训通过从外部为人们提供激励,从而增进人们利用道德AI进行道德反思的动机。四、结语道德增强的哲学论辩起源于伦理学家对人类生存危机的忧虑。由于生物医学道德增强在技术与道德上的缺陷,学者逐渐将目光转向了人工智能道德增强,提出了人工智能作为人类道德决策的“替代者”“建议者”与“对话者”三种方案。然而,这三种方案各具缺陷,没有一种能够单独承担起道德增强的重任。为了有效地防范生存危机,我们应该综合考虑不同方案的优缺点,发展出一款在不同情境下发挥不同功能的混合式AI。不过,由于混合式AI在增强道德动机上有局限性,我们也需要改良生物医学增强技术,以期在未来能有效地增进人类道德动机。同时,在我们开发出理想的混合式AI之后,也应利用义务性培训的方式激励人们接受AI道德训练,以进一步提升道德反思的积极性与深度。不过,为了混合式AI更好地提升人类道德能力,其设计应该据什么原则,以及如何防范AI道德增强在侵犯隐私、受开发者操纵、弱化个人道德责任等方面的风险仍是学界亟须共同探讨的话题。第二篇:“人类增强”的哲学思考:高科技时代如何守护人性当科技改造力量指向了人类自身,人还是不是科技发展的目的?在元宇宙里,如何安放人的身体?近日,在上海社会科学院举行的“人类增强与人本主义的未来”学术研讨会暨新书发布会上,上海社会科学院哲学研究所副所长、科技哲学创新团队首席专家成素梅研究员认为,智能文明时代是科技高度发达的时代,更是一个守护人性的时代。怎么理解人性,怎么理解人本身,是技术必须要回答的大问题和难问题。以人工智能为核心的第四次技术革命的深化发展,不仅重新定义了我们时代的技术,迎来了技术发展的新时代,它还在将人类文明的演进方向从工业文明时代和信息文明时代全面推向智能文明时代。智能文明越向纵深发展,在工业时代形成的概念范畴的解释力日渐疲弱,其社会运行与管理机制的适用性短板则日益显露。随着人工智能、大数据、云计算、区块链、量子信息、合成生物学、基因编辑、神经科学、脑机接口、再生医学等技术的深度发展,人类不只是有能力控制与利用外部自然,而是在改变着人类身体——这个内部自然,人类增强技术正是这一趋势的代表。成素梅表示,人文研究涉及现代科技主题时应避免缺少客观依据的臆测成分,人文学者要对科技前沿和进展做准确和细致的把握,这样才能客观地来评价科技发展和意义。人类增强技术提出的是人的精神是否可以被技术化的难题,这其中蕴含了许多悖论,因为人类增强技术的根本特征就是自反性。智能文明时代是科技高度发达的时代,更是一个守护人性的时代。但怎么理解人性,怎么理解人本身,这个是从人类增强这个话题引出的一个技术必须要回答的大问题和难问题,值得进一步探索。此外,她还介绍了上海社会科学院科哲创新团队“智能文明时代的哲学探索丛书”的出版计划,《增强、人类与后人类未来——关于人类增强的哲学探索》作为丛书的第一本率先与读者见面,这套丛书将是科哲创新团队在上海社科院第二轮创新工程中着力打造的标志性学术成果之一。“人类增强”是一个由现代高科技发展而引发的重要哲学问题。在2020年的国家社科基金资助中就有来自上海和湖南的两个学术团队分别获得了“人类增强”的重大项目立项,这是该问题具有重要哲学意义的一个证明。上海社会科学院哲学所科技伦理与治理研究中心主任、《增强、人类与后人类未来——关于人类增强的哲学探索》作者计海庆认为,“人类增强”在科技伦理、哲学本体论、生物学哲学和历史唯物论-技术哲学四个方面提出了重要的哲学问题。在科技伦理中,人类增强提出的问题是:前沿科技的发展如何挑战了人类社会的基本价值观,我们又该如何应对;在哲学本体论中,人类增强提出的问题是:如何认识和反思祛魅的自然主义人类观和人本主义的人类观之间在观念上矛盾和冲突,其中关键是如何继承人本主义的人类中心论;在生物学哲学上,人类增强提出的问题是:现代生物科技对人身体的改造、乃至设计,是否可以具有物种进化层面的意义;在历史唯物论-技术哲学上,人类增强提出的问题是:人类增强技术对人类身体的改变,是否以及将如何影响我们对历史唯物主义中的生产力、生产关系等关键概念的重新理解。回答这些问题需要结合现代的技术哲学思想来重新思考人与技术全新的结合可能和模式。“当代新兴增强技术前沿的人文主义哲学研究”课题组认为,对人类增强的考察不应忽略不同的文化背景对增强界定的差异,因为这在很大程度上决定了医疗实践和医学伦理中对身体干预手段性质的不同理解。上海市精神卫生研究所办公室主任则张青认为,精神疾病治疗研究中脑机接口技术的使用,提供了一个医学与技术面向的窗口。但由于研究的探索性,特别是有创伤性技术手段,需要对大脑施行侵入性电极植入,由此引发了广泛的伦理关切及哲学思考。技术干预下对患者精神状态的影响,除了传统生命科学研究的伦理审查,技术对患者作为人的主体与自主性权利的僭越是不可忽视的。亟待精神疾病脑机接口研究伦理共识的达成,并对如上的问题的解答提供理论的基础。人类增强技术的意义在于现代科技正在向人的有限性中注入无限性的力量,这种力量丰富了人存在的可能性的同时,也有一定的不确定性。复旦大学哲学系徐志宏副教授认为,这种不确定性值得用科技伦理来仔细审视。上海交通大学科学史与科学文化研究院闫宏秀教授则提出,在人类增强伦理研究中不能仅仅从批判的视角进行单方面的拒绝,也应该用建构的积极的立场来理解和把握,以免在相关问题上得出片面的结论。阐释人工智能技术、揭示人工智能的运行逻辑至关重要。上海大学马克思主义学院院长闫坤如教授提出,人工智能技术的风险性、不透明性是人工智能系统的固有属性,通过立足于内在主义与外在主义相结合的技术伦理进路以及规范性和描述性相结合的应用伦理进路,可以揭示可解释人工智能的因果相关关系,以此来构建基于因果相关性的可解释人工智能模型,发展负责任的人工智能。精密的算法生成“数字城市”,也引发了众多算法伦理问题。复旦大学新闻学院潘霁教授提出,在人的尺度外,将媒介系统的运行引入算法伦理的考量,将为算法伦理问题提供媒介学的洞见。媒介沟通系统的运作,要求“融通共生”作为调和人与技术关系的伦理基础。“融通共生”原则在个性推荐、资源分配和认同建立等算法伦理热点领域中形成了各种具体化的表达。情绪识别技术有其特殊的理论基础和本质特征,它们必然地引发了相应的问题和风险。上海社会科学院哲学所助理研究员阮凯认为,情绪识别技术是人工智能领域的一项新技术,既能提升人的情绪识别能力,也能增强机器的智能水平,进而可能带来新的人机交互革命,需分层次对该技术的理论基础与本质特点进行规范和治理。第三篇:哲学,这门古老而又深奥的学问,常常让我们思考人生的意义、世界的本质,还有一些看起来很遥远,但实际上和我们生活息息相关的问题。比如,现在非常火热的人工智能,它的道德、伦理和社会影响,就是哲学探讨的一个重要话题。首先,我们来聊聊人工智能的道德问题。道德,简单来说,就是我们判断事情好坏、对错的标准。那么,人工智能有没有道德呢?这个问题听起来有点奇怪,因为在我们心里,只有活人才会有道德观念,机器怎么会有呢?但实际上,这并不是说人工智能自己会有道德判断,而是说我们在设计和使用人工智能的时候,应该考虑到道德因素。比如说,现在有一种人工智能叫“推荐算法”,它能在网上给你推荐你喜欢的电影、音乐、新闻。但是,如果这个算法只推荐给你一些能赚更多钱的内容,而不考虑这些内容是不是对你有好处,那就有点不道德了。这就像是一个只想着赚钱,而不关心你健康的朋友,总是给你推荐一些垃圾食品。所以,哲学家们会思考,怎么让人工智能在做事的时候,也能考虑到道德问题,做到既聪明又善良。接下来,我们再谈谈伦理。伦理和道德有点像,但又不太一样。伦理更多地是关注社会上的规矩和习惯,是我们大家公认的行为准则。那么,人工智能的伦理问题又是什么呢?简单来说,就是人工智能应该怎么和人类相处,才能让大家都觉得舒服、公平。比如,现在有些工厂用机器人来代替工人做工,这确实能提高效率,降低成本。但是,如果因为机器人太能干,导致很多工人失业,那这就涉及到一个伦理问题了。我们是不是应该限制一下机器人的使用,保护一下工人的工作机会呢?还有,如果人工智能做出了什么错误的决定,比如自动驾驶汽车出了事故,那么责任应该算在谁头上呢?是汽车制造商,还是软件开发者,还是开车的人呢?这些问题,都需要我们从伦理的角度去思考,找到一个大家都能接受的答案。最后,我们来说说人工智能的社会影响。这个范围可就广了,因为人工智能现在已经渗透到了我们生活的方方面面,从手机、电脑到工厂、医院,几乎到处都能看到它的身影。所以,它对社会的影响,也是多种多样的。比如说,人工智能可以提高生产效率,让我们的生活变得更富裕。但是,它也可能让一些人失去工作,导致社会不平等加剧。还有,人工智能可以帮助医生诊断疾病,提高治疗效果。但是,如果我们的医疗数据都被人工智能掌握了,那我们的隐私是不是就得不到保护了呢?这些问题,都是哲学家们关心的社会影响问题。那么,哲学家们具体是怎么探讨这些问题的呢?他们可不是像我们平时聊天那样,随便说说自己的想法。他们会用一些很深奥的理论和方法,来仔细分析人工智能的各个方面。比如说,有一种叫做“伦理学理论”的东西,它就是专门用来研究伦理问题的。其中有一种理论叫做“功利主义”,它认为我们应该让大多数人获得最大的幸福。那么,按照这个理论,我们在发展人工智能的时候,就应该尽量让它给大家带来好处,而不是伤害。还有一种叫做“德性伦理学”的理论,它强调我们应该培养一些好的品德,比如诚实、勇敢、善良。那么,按照这个理论,我们在设计人工智能的时候,就应该让它也具备这些品德,成为一个“好”的人工智能。除了这些理论,哲学家们还会用一些具体的方法来研究人工智能。比如,他们会做一些思想实验,想象一些可能发生的场景,然后思考在这些场景下,人工智能应该怎么做才是道德的、伦理的。还有,他们也会关注一些真实的案例,比如自动驾驶汽车出了事故,然后分析这些案例,看看我们能从中学到什么教训。说了这么多,你可能会觉得,哲学探讨人工智能的道德、伦理和社会影响,好像都是一些很抽象、很遥远的东西。但实际上,这些探讨对我们的生活有着非常重要的意义。因为人工智能的发展速度非常快,它对我们的影响也越来越大。如果我们不提前思考这些问题,不制定一些规则和标准来约束它的发展,那么很可能有一天,我们会发现人工智能已经超出了我们的控制,带来了一些我们无法预料的后果。比如,现在就有一些科学家和企业家在呼吁,我们应该暂停开发比人类更聪明的人工智能,因为这样的人工智能可能会对我们的生存造成威胁。他们担心,一旦人工智能变得比我们聪明,它们就可能会按照自己的意愿来行动,而不是服从我们的命令。这样一来,我们就可能失去对人工智能的控制,甚至可能被它们取代。听起来是不是有点像科幻电影里的情节?但实际上,这并不是完全不可能的。因为人工智能的发展速度非常快,而且它们的学习能力也非常强。所以,我们真的需要认真思考一下,怎么让人工智能的发展既能够带来好处,又不会对我们造成威胁。那么,哲学在这个过程中能起到什么作用呢?其实,哲学就像是一盏明灯,能够照亮我们前进的道路。它能够帮助我们思考一些根本性的问题,比如我们应该怎么看待人工智能?我们应该怎么和它相处?这些问题可能没有确定的答案,但是通过哲学的探讨,我们可以更加清楚地认识到自己的价值观和立场,也可以更加理性地看待人工智能的发展。而且,哲学的探讨还可以为我们提供一些指导性的原则和建议。比如,我们可以根据伦理学的理论来制定一些人工智能的道德准则和行为规范;我们也可以根据社会影响的分析来预测和防范一些可能的风险和问题。这样一来,我们就可以在人工智能的发展过程中保持一种理性和审慎的态度,让它的发展更加符合人类的利益和愿望。所以你看,哲学探讨人工智能的道德、伦理和社会影响并不是一件无用的事情。相反它对于我们理解、引导和控制人工智能的发展具有非常重要的意义。在这个充满变化和挑战的时代里我们需要哲学的智慧来为我们指引方向让我们在享受人工智能带来的便利的同时也能够避免它可能带来的风险和危害。正如古希腊哲学家亚里士多德所说:“智慧不仅仅存在于知识之中,而且还存在于运用知识的能力中。”在面对人工智能这一前所未有的挑战时,我们需要运用哲学的智慧去思考、去判断、去选择让科技的发展真正造福于人类而不是成为我们的负担。这样我们才能在享受科技带来的美好生活的同时也能保持对未来的希望和憧憬。第四篇:人工智能、人类增强等高新技术的发展正急速改变着我们的社会;理想的技术发展都应当是有轨道的,这样的轨道便是哲学家铺设的;面对今天高技术的快速发展,哲学应当为这些技术的列车铺好前行的铁轨。复旦大学杨庆峰教授在一天半的报告期间会议安排了6组报告,共20位报告人进行发言。这些报告大体围绕两个方面进行:在人类增强与哲学相关议题方面,来自复旦大学生命医学伦理研究中心的杨庆峰教授在题为《当代新兴增强技术及其伦理后果》的报告中简要回顾了人类增强技术的发展,指出2000年以来以NBIC为基本框架的当代增强技术正在随着以人工智能为核心的智能革命发生着调整,以AI为主导的新兴增强技术框架正在形成,并强调新兴增强技术表现出外在走向内在化、从宏观到微观化、机能的异质化和精神的数据化等四个方面的特征,同时相应的伦理后果也从这四个方面展示出来。广东外语外贸大学西方语言文化学院的程林副教授的报告《人类增强和自我认知:西方文化史中的人类增强早期想象与伦理思考》回顾历史,对西方文化史中的人类增强早期想象进行了报告,并通过早期想象内容对人的自我认知等问题进行了分析。华东理工大学哲学研究所的陈迎年副教授的报告《天工人其代之:人类增强的界线及其可能》则将目光投向未来,通过检讨“天工人其代之”的历史来探讨人类增强的界限及其可能,指出人类增强的界线只有在“真正的、人本学的自然界”与“人的激情的本体论本质”那种合一中来划定,才是可能的。针对人类增强中“增强”概念的含混不清与使用混乱的情况,上海社会科学院哲学所的计海庆副研究员的报告《“增强vs治疗”的扬弃——论从医学伦理出发的人类增强研究》从医学伦理出发,尝试在与“治疗”概念的对勘关系中把握“增强”概念的实质,并指出人类增强研究的深入发展要求对“增强”vs“治疗”的两分法判断加以扬弃。来自南京大学哲学系的司徒安(AndreaStrollo)副教授在报告《人类增强与人格同一性》(HumanEnhancementandPersonalIdentity)讨论了认知的增强将会带来的身份认同难题以及对躯体理论(somatictheory)可能产生的障碍,即人类增强后会面临“几个思考者”的难题。西安交通大学哲学系的丁晓军副教授的《道德增强哪家强:生物医学、人工智能抑或人类导师?》从实验哲学的观点出发对三种主要的道德增强途径进行分析,尝试回答哪些因素会影响人们对道德增强的接受度,以及人们对不同途径的接受度的具体差异及其产生原因等问题。南京大学哲学系博士生赵豆则针对利用生物医学手段达到道德增强这一途径进行了批判与反思,在报告《道德生物增强真的可能吗?——基于哲学视角的审视》中,她指出目前道德生物增强还不是真正意义上的“道德增强”。来自湖南师范大学哲学系的王淑庆博士的报告《能动性问题与能动性增强——行动哲学视角下的脑机接口技术》对脑机接口(BCI)这一具有广泛应用前景的新兴技术的哲学反思,指出从行动哲学的角度看,BCI-媒介行为似乎可以作为有意行动,但已有的行动理论特别是行动因果论不能很好地解释BCI-媒介行为的能动性问题。但是当只把BCI看作一种能动性增强技术的时候,则能够更好地理解由BCI引发的伦理和法律问题。在“人工智能哲学”方面,报告人围绕人工智能对伦理-社会的影响以及在本体论、认识论等问题进行了报告与讨论。人工智能发展的伦理是人工智能发展中面临的一个重要话题。中国社会科学院哲学所段伟文教授做了题为《算法时代的伦理政治审视与思辨性应对》的报告,指出在数据智能与算法决策被广泛应用的背景下,不论是算法的运作条件,还是人类与算法的关系都关涉复杂的伦理政治配置。因此,算法伦理(包括伦理设计)研究应将算法纳入社会感知技术谱系,从而揭示潜藏于算法及其技术解决主义逻辑背后的伦理政治暗线,并剖析由此带来的社会感知与行动方式的变化和应予扭转的问题。上海交通大学科技史与科学文化研究院的闫宏秀教授在报告《数据赋能的伦理基质》中提出,在数据智能化与伦理内在化的过程中,对更加有效的伦理方式探寻不仅是对数据赋能所引发的伦理问题反思,更应从伦理作为基础设施的视角,基于技术哲学的调节理论,引入伦理与技术之间双向反馈机制,在人与技术共融的情境中,构建数据赋能的伦理基质。而对于如何进行人工智能伦理教育这一问题,浙江大学马克思主义学院的潘恩荣教授在其报告《面向未来工程教育的人工智能伦理谱系》中表明面向未来人工智能时代的工程教育需要建立一种人工智能伦理谱系,以此阐明人工智能伦理与工程伦理、传统伦理之间的联系和区别,从而为开展人工智能伦理教育提供支持。关于人工智能及其相关技术的发展所带来的社会问题同样也受到了报告人的关注。来自香港城市大学公共政策系的邓文韬研究员,他的报告“AI记忆问题和HKSAR中的遗忘权”(TheproblemsofAImemoryandtherighttobeforgotteninHKSAR)分析并指出被遗忘权在概念和伦理上所存在的困难。南京大学哲学系博士生赵培做了题为《数字记忆的困境——基于斯蒂格勒技术观对数字记忆的反思》的报告。报告从斯蒂格勒的思想出发,指出基于数字化第三持留的记忆的工业化,不仅导致了知识的丧失,还造成了欲望与个性化的毁灭,从而引发时代的精神性危机。为了抵抗数字记忆的威胁,当代需要发展数字遗忘来维护人的尊严。中国社会科学院大学的博士生黎春娴的报告《生物识别技术在智能社会应该发展吗?——以人脸识别技术为例》则以人脸识别技术为例,对生物识别技术进行了反思,分析了中西方对于生物识别技术的不同态度,并建议从一个更为平衡的方向去有节制地发展生物识别技术的相关应用。多位报告人从传统哲学资源中寻求对人工智能的理解。南京信息工程大学当代中国马克思主义研究院的崔中良副教授的报告《人工智能研究中人机交互实现的感知基础》在身体现象学视域下,结合哲学、认知科学和神经科学的研究,探讨了以通感作为机器与人类交互的基本感知模式。广东外语外贸大学外国文学文化研究中心李日容副教授以《从海德格尔的时间性此在看人工智能发展的限度——兼论德雷福斯AI批判的局限性》为题报告了从海德格尔的时间性此在对人工智能发展限度的思考,指出德雷福斯对符号主义AI的形式化本质的批判以及对于海德格尔式AI的非形式化路径的肯定都有失偏颇,由时间性此在所揭示出来的AI的发展方向应该致力于此在形式与非形式化生存的内在融合与统一。大连理工大学人文与社会科学学部的索引博士的报告《论虚拟现实体验对人主体性建构的影响》讨论了虚拟现实技术发展带来的一些问题,指出虚拟现实技术已经超出其作为客观技术工具的功能性范畴,而对人的主体性建构产生了虚拟化、可塑化、信息化和交互主体化等影响。在此背景下,一种非本质的、去中心化的主体生成观或许更加适用于思考人在今天这个全面技术化时代的生存境况。南京大学哲学系的潘天群教授及其博士生郑炳楠、浦江淮的报告则围绕智能概念及奇点(智能爆炸点)及人工智能在科学发现中的作用展开分析。潘天群教授的报告《智能系统的增殖与进步》从逻辑分析的视角对智能概念展开精确分析,认为智能可理解成系统面对环境而提出的问题或者挑战而提出方案的能力,这样的能力可以被比较但难以被精确度量。人类一方面通过生物本能实现基因增殖从而实现智能增殖,同时通过知识的增加人类的智能呈现出智能进步。超级智能机器被设想为人所制造且能够代替人类制造机器的机器,而这样超级智机器被制造出来,机器智能大量增殖的奇点便会到来。郑炳楠的报告题目是《查尔莫斯对奇点论证的重塑及其问题》。报告重新审视了查尔莫斯对于奇点问题的论证和思考。浦江淮的报告关注人工智能技术在科学发现中的作用,其报告题目为《机器可以进行科学发现吗?——从BACON到AlphaFold2》。人工智能专家一直在探索如何用机器帮助科学家进行科学发现,而AlphaFold2对蛋白质结构的揭示则是近期科学界的重大事件。浦江淮通过分析人工智能程序BACON和AlphaFold2,认为机器具备进行科学发现的可能性。第五篇:10月21日,“人类增强与人本主义的未来”学术研讨会暨新书发布会在上海社会科学院召开。“人类增强”是由一个现代科技改造人类自身而引发的科技伦理和科技哲学问题,它涉及人工智能、脑机接口、神经调控、基因编辑、合成生物等尖端科技对人性基础的挑战,是近年来学术关切的热点。为了厘清科技发展与科技伦理、人性哲学的基本理论问题,上海社会科学院科技哲学创新团队出版了《增强、人类与后人类未来——关于人类增强的哲学探索》一书,将最新的研究成果凝聚其中,以期对人类文明发展的“未来之问”提供思考的线索和哲学的回答。技术不能回避的人文之问在新书发布环节中,《增强、人类与后人类未来——关于人类增强的哲学探索》一书的作者计海庆研究员作了题为“人类增强与哲学问题”的主题发言,他指出,“人类增强”现象正受到越来越多的哲学关注。在2020年国家社科基金资助中,就有来自上海和湖南的两个学术团队分别获得了“人类增强”哲学的重大项目立项,这是该问题具有重要哲学意义的一个证明。他认为,人类增强的哲学意义集中体现在科技发展与人本主义之间的关系上,并且在科技伦理、哲学本体论、生物学哲学和历史唯物论四个方面提出了重要的哲学问题。在科技伦理中,人类增强提出的问题是:前沿科技的发展如何挑战了人本主义的基本价值观,例如脑机接口技术是否侵害了个人自主,基因编辑是否破坏了人与人与生俱来的平等地位等棘手的应用伦理问题。在哲学本体论中,人类增强提出的问题是:如何认识自然主义的和人本主义的人类观之间的矛盾和冲突,其中关键是如何继承人本主义中的人类中心论遗产。在生物学哲学上,人类增强提出的问题是:现代生物科技对人身体的改造乃至设计和重塑,是否可以具有物种进化层面的意义,技术的力量是否足以作为获得性遗传的影响因子而被承认。在历史唯物论上,人类增强提出的问题是:人类增强对人类身体的改变,是否会影响我们重新理解历史唯物论中的生产力、生产关系等关键概念,对此的回答应结合现代技术哲学思想来重新思考人与技术全新的结合可能和模式。在与谈环节中,复旦大学生命医学伦理中心教授、国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”课题组首席专家杨庆峰认为,从马克思主义历史唯物论对人类增强进行解读,是一个值得深入探讨的理论新视角;此外,对人类增强的考察也不应忽略不同的文化背景对增强概念的界定是有差异的,这在很大程度上决定了医疗实践和医学伦理中对身体干预手段性质的不同理解。湖南师范大学马克思主义学院教授、国家社科基金重大项目“当代新兴增强技术前沿的人文主义哲学研究”课题组首席专家易显飞提出,探讨人类增强应区分传统的增强和基于现代科技的增强,前者是间接的、渐进的,并大多是精神性的方式,而后者则是直接的、速成的和改造人类身体的。通过对比这些干预手段在性质和程度上的差别,将引出许多值得探讨的理论问题。上海交通大学科学史与科学文化研究院的闫宏秀教授提出,在人类增强伦理研究中,传统的人本主义立场往往从批判的视角进行单方面的驳斥和否定,但越来越多的人类史研究成果显示,人类一直以来的生存都是和各种技术共同“进化”的,这一点对合理评估人类增强技术将是一个重要的启示。复旦大学哲学学院徐志宏副教授提出,人本主义思想对人的存在有一个基本假设,即人是有限性的存在,但某些激进的人类增强技术却希望改变这一点,例如心灵上传的方案,这其中就有了理论上的错位和逆反。如果人的年龄对人的存在并不构成实质上的约束,那么未来的人本主义将把自己转变为后人类主义吗?这其中会有极大的观念转型。人类增强:智慧与人性的位置人类增强问题的哲学意义,也在各类前沿技术应用的哲学反思中显露端倪。上海大学马克思主义学院院长闫坤如教授做了题为“可解释人工智能的哲学反思”的报告。她提出:阐释人工智能技术、揭示人工智能的运行逻辑至关重要。人工智能技术的风险性、不透明性是人工智能系统的内在属性。但是通过立足于内在主义与外在主义相结合的技术伦理方法,以及规范性和描述性相结合的应用伦理学手段,可以塑造出人工智能的因果关系,以此来构建可解释的人工智能模型。这是发展负责任的人工智能的有益路径,也是避免由于人工智能误用而导致人类增强技术偏离人本主义的有效保障。复旦大学新闻学院潘霁教授做了题为“融通共生:从媒介运作出发反思算法伦理”的报告。他提出,人工智能算法的设计需要超越传统人本主义的理论框架。在人的尺度外,将媒介系统的运行引入算法伦理的考量。这将为算法伦理问题提供媒介学的洞见。“融通共生”原则的提出,充分考虑了作为人类沟通系统而存在的媒介,并以调和人与技术关系作为伦理秩序的基础。“融通共生”原则要求超越人本主义的迷思,在智能算力资源的分配中,在虚拟身份的互构中,在元宇宙空间的多层次规划中,将人与媒介的融通发展作为价值目标来实现。上海社会科学院哲学所助理研究员阮凯做了题为“情绪识别技术的问题、风险和规治”的报告。他认为,情绪识别技术是人工智能领域的一项新技术,通过提升机器对人类情绪识别能力来增强机器的智能水平,进而可能带来人机交互关系的革命。但是,ai情绪识别技术也存在伦理风险。低效易错的情绪识别将给人带来心理上的伤害,恶化人机关系;高效准确的情绪识别,则可能会侵犯个人隐私;而不加约束的越界使用情绪识别,更会导致行为操纵等不可控风险。因此需要在合理规划技术适用范围的前提下,审慎发展ai情绪识别。增强与服务:感知的拓宽与认知的完善除了人工智能技术外,人类增强的实现也依赖其他前沿技术的应用,相应的哲学考察也不可或缺。上海交通大学哲学系助理教授赖长生做了题为“认知延展技术的三重困境”的报告。他首先提出了一个问题,人类的记忆真的可以通过认知延展技术得到增强吗?我们使用搜索引擎、学习软件、感知相机等外部技术手段达成的记忆,究竟是在回忆往事,还是在重新学习往事?他认为,记忆本身并不像传统人本主义认为的那样是一个纯粹的心理活动,而更是一个通过技术实践不断重新学习的过程。上海交通大学科学史与科学文化研究院博士后索引的报告题目是“身体现象学视域下虚拟现实体验的生成及增强效应”。他认为,虚拟现实体验不仅能在行为层面增强人的认知能力、交互能力,以及构建生活世界的实践能力,还能在知觉层面扩展人对自身存在的知觉维度,加强人与他人的共情连接,丰富对象世界的呈现方式。这些身体体验的增强,使人的存在方式发生了信息化的转变,象征了技术塑造下人类生存方式的未来转型。上海精神卫生中心张青老师的报告题目是“基于脑机接口的精神疾病干预治疗及伦理共识”。他认为,作为增强人类认知的脑机接口技术,在精神疾病治疗方面也具有广阔的应用前景。其作用方式是通过对大脑实施无创的磁刺激、光刺激或是有创的电极植入,来抑制和消除精神疾病的病灶。虽然在可行性上已有了初步的证明,但是相应的技术进步还需要辅之以伦理方面的共识。一方面,伦理共识可以提升公众对这一疗法的认同程度,另一方面,它也会切实保护患者的基本权利,更重要的是伦理共识也将为科技进步提供人本主义的理论框架,让科技更好服务人类。上海社会科学院哲学所成素梅副所长为本次新书发布会做了总结。她指出,当哲学研究涉及现代科技时,应避免缺少客观依据的臆测,人文学者要对科技前沿做准确和细致的把握,这样才能客观地评价科技发展及其意义。人类增强技术提出的是人的精神是否可以被技术化的问题,这其中蕴含了许多悖论,因为人类增强技术的根本特征就是自反性,即指向人类自身。智能文明时代是科技高度发达的时代,更是一个需要反思人性的时代。怎么理解人性,怎么理解人本身,这是从人类增强这个话题引出的重要哲学问题,是一个技术时代必须回答的大问题和难问题,值得进一步探索。本次会议也是上海社会科学院迎接党的二十大召开、宣传贯彻党的二十大精神重大科研成果系列发布活动之一。第六篇:人类增强技术作为一种运用会聚技术提高人类生理与心理能力的技术手段,其对于人体的嵌入式的干预打破了传统技术观下人物二分的本体论模型,但从增强人类能力的目的与追求完美化的理想来看,人类增强技术又被视为一种人类中心主义式的技术形态与人文传统的延续。断裂与连续的观点之区分构成了生物保守主义与超人类主义的分界点,两大阵营围绕人类增强技术所带来的“增强”与“治疗”的概念界定、自主性与社会公正问题展开了激烈讨论,双方各自在自然人性论与进化论的理论基点与理论框架下的伦理论证都具有一定的合理性与局限性。这些理论探索对于揭示和理解人类增强技术所带来的伦理问题提供了思路,而合理而有限监管的中间道路、增强技术实践应用的伦理原则以及有效的法律法规体系与伦理审查制度可以构成当下应对人类增强技术伦理问题的策略框架。引言21世纪以来,随着新兴科技的发展,特别是在纳米、生物、信息与认知这四大前沿科技领域,彼此交叉融合所形成的“会聚技术”取得了一系列新成果,并在世界范围内引起了广泛讨论与极大关注。《会聚技术,增强人类能力》的报告指出:在对伦理事务与社会需要的合理关切下,本世纪初会聚技术将大幅增强人类能力、社会效益与生活质量。然而,我们应该不假思索地直接接受增强技术所许诺的“让人类更好”的愿景吗?或许不能,那么,我们应该如何理性地看待人类增强技术与传统技术的联系与区分?人类的自身定位是否会因“增强”而发生改变?增强所带来的新的社会伦理问题以及针对这些伦理问题哲学反思又该有怎样的实践指导效力?一、人类增强技术——连续还是断裂?伴随着会聚技术的出现与发展,人类增强技术相较于传统技术具备了一些新特点。传统增强技术实质上是人类有机生命体的外部延伸器官及其机能。当代会聚技术的一大突破方向就在于通过人与机器、技术的内在整合来改造和增强人的身体与机能,然而,这种直接作用于人体自身的“内部增强”不同于传统的、借助外部人工物中介作用的“外部增强”。进一步来说,这种新兴的人类增强技术也将意味着建立在传统二元主义本体论预设上的人与非人、生命与非生命、人工物与自然物的边界被模糊化。此外,传统技术的增强作用并不会涉及或干预人类心灵、情感、道德等,而随着近年来“脑机接口技术”的发展,人类增强技术进一步触及到了过去所认为的不可侵入的心智领域。然而,也存在着一种声音认为人类增强技术的出现并非一种断裂。超人类主义者将人类增强技术看作自启蒙运动以来人类不断追求可完美化(perfectibility)理想的延续,只是这种理想的实现方式在目前会聚技术迅猛发展的时代背景下,从聚焦“工具性技术”转向了改造作为“目的性存在”的人本身。如此一来,人类增强技术似乎可以更为宽泛地被理解为不断突破自然赋予人类自身的局限性以及不断追求完美性的一系列发明与创设。大抵来说,对于人类增强技术与传统技术形态之间关系的不同理解可以作为超人类主义者与生物保守主义的一个划界标准。二、人类增强技术的主要伦理问题论争人类增强技术在医学上的运用引发了治疗与增强的同异之争,而直接干预人体甚至心智、情感则引发了自主性与自由意志的辩论,另外,增强技术作为一种稀缺性技术如何进行资源分配则引发了社会公平正义的讨论。(一)生命医学范式:治疗与增强的区分治疗与增强是否应该区分以及该如何进行区分,围绕这一问题存在着两种立场与解释进路。一种看法认为“人类增强”显然不同于“治疗”,人类增强是在没有疾病的情况下提供干预以改善、超越正常健康状态的过程,而治疗则针对的是在病理学上危害身体健康或者身体机能水平低于此物种平均水平的状况,使患有某种疾病的身体或具有缺陷的机能恢复到健康水平。同时也存在着另一种相反的观点——人类增强与治疗之间实际上难以划出一道清晰的界线,增强可以包括任何改善我们身体、能力以提高生命福祉的活动。大体上来说,生物保守主义者支持前者的立场,而作为人类增强技术倡导者的超人类主义则支持后一种看法。生物保守主义认为,对于治疗的态度在伦理上是可以被接受的,即治疗是一种善的医学行为活动,而增强作为一种非必要的恶的人为干预则是不被允许的,或者至少在道德上是值得怀疑的。相反,超人类主义者认为人类增强技术提高身体性能或者精神表现以追求更好的生命状态应该是一种道德上的善而被允许与接收,并且随着会聚技术的进步,更多人类增强技术将走向大众,服务人们的健康需求乃至更广阔的生活需求。此外,关于治疗与增强的讨论中也存在另一种声音,他们呼吁来一次范式转换以摆脱这场争论。如今关于人类增强技术的讨论,无论是超人类主义者以“人的能力的增强”的进化论立场,还是保守主义者们以“自然人状态”作为规范性概念,他们的论证都无法建立在中立的基础上,为打破健康与疾病、人工与自然的本质主义二元对立并推进围绕人类增强技术的辩论,伦博尔德呼吁以不暗示规范性判断的“身体修饰”(bodymodification)来代替“人类增强”概念。简而言之,在人类增强技术的生命医学范式讨论中,核心的问题在于治疗与增强是否存在确定的边界,对于这一问题的回答存在三种观点:生物保守主义者出于反对人类增强的立场而承认这一边界;超人类主义者则出于为人类增强进行辩护的立场而否认这一边界;最后一种观点秉持中立的立场,并试图通过引入新术语“身体修饰”来消解该争论。(二)人格同一性与自由意志人类增强技术同时具备了对人体器官与意识活动进行干预的可能手段。在技术所造就的离身体验、辅助判断等情境下,人格的同一性是否还能够保持?人类的自由意志在增强技术的时代是否受到了威胁与挑战?在生物保守主义者看来,应用增强技术将会对受试者自我同一性的建立以及人类的自由意志产生消极影响,主体的自我真实性与叙事统一性将面临扭曲的危险,他们断定依靠增强技术获得的情感不是真情感,经过增强技术辅助所做出的判断并非自主决断,道德增强的效果也并不能说明被增强者道德自觉的提升与道德水平的提高。然而,超人类主义者认为人格同一性并不会因为增强技术的介入而消解,在生理连续性层面,以器官移植为例,被移植者接受器官移植手术后的人格同一性通常并不会受到怀疑。同样在心理连续性层面,个体的人生叙事总是受到一些生活事件的干扰,认知或情感类的增强技术带来的改变仅仅只是精神状态而并非自我感知与自我拥有感,自我的真实性、完整性也不会消解。即便个体的偏好受到外在环境的塑造与影响,只要这一偏好是个人经过理性考虑而认同的,那么这一行为并不会有悖于个人的自由。(三)人类增强技术的分配正义问题人类增强技术的应用也同器官移植一样引发了社会公平与正义问题的讨论。由于人类增强技术成本高昂,最初获得这种技术的机会将受到诸多限制,那些能够负担起运用这项技术的人在获得增强所带来的益处后将进一步有利于其追求与生活质量相关的竞争性产品,而那些在经济社会中处于弱势地位的人相较之下更无力获取这类稀缺性资源,进而在社会竞争中落于更加不利的位置。生物保守主义者担忧人类增强技术的出现将加剧贫富差距,扩大原有的社会不平等状况,并且创造出一种新的社会分裂,即“增强鸿沟”——增强者与未增强者间的上下对立关系。超人类主义者或许不会否认当今社会就已经存在的社会和经济上的不平等,以及这种不平等所带来的在获取人类增强技术的机会上的差异,但他们并不认同生物保守主义提出的“增强鸿沟”。他们通过加速回报定律(thelawofacceleratingreturns)以及边际溢出效应对其观点进行了辩护,普通消费者也能从人类增强技术的普及化发展中受益。因此,“增强鸿沟”在超人类主义者看来只是杞人忧天而根本无法阻止增强技术为社会所接纳的现实趋势。三、人类增强技术伦理争论的论证进路及其限度生物保守主义者与超人类主义者之间的“人类增强技术伦理之争”很大程度上关涉到人性论与技术观。从两种不同的看待人性与技术的立场观点可以看出,超人类主义与生物保守主义双方的论证核心或者说进路分别是进化论与自然人性论。(一)人性论论证及其限度生物保守主义者支持一种天赋的自然人性观。保守主义的自然人性论试图去捍卫一种人文主义传统,这种传统强调,考虑到人类基因的独特性,自然人作为一个物种与与其他物种之间应该存在一个区分,并且即便考虑到关于人性的理解具有历史性,人性也总归存在一个不可逾越的底线,人的自然权利与人性尊严也来源于此,人与技术的关系应该是主人与奴仆的关系而非反之,人类增强技术以进化的名义将人作为可操作的器具对待实际上是“去人性化”的,非正义的,同时也暗含着替代造物主的人类中心主义式的狂妄与傲慢。因此,要想保持人类的生存与人类社会的存续就必然保持人的自然本性不被人工技术所干预。然而,保守主义对于人性的自然规定诉诸于形而上学式的直觉,而非像超人类主义那样从经验事实判断出发,这就使得保守主义的论证与辩护显得和时代、技术的发展现实相脱节。不过更为根本的是,自然人性论论证所依托的形而上学直觉实际上来自于欧洲文艺复兴以来的现代性价值,而受到现代性批判思潮的冲击。(二)进化伦理学论证及其限度哲学人类学家盖伦(ArnoldGehlen)的“生物本能缺乏论”认为,人是一种在生物本能上不完美、不充分的存在,无法像动物一样天生地依靠专门化的器官与本能适应外部环境,不得不使用技术与工具来增强自身能力以便适应环境。这也就意味着,缺乏本能的人类是技术性生成的存在,人性没有一个初始性的自然本原,人类的历史是不断发明、创造和增强自身性能的进化过程。超人类主义的“增强进化论”延续了这种理念,“利用技术提高身体素质和能力是物种生存和适应能力增强的表现”,同样,人类增强技术的影响并不是像某些保守主义者所批评的那样导致社会贫富差距加深以及自主性的散失,从人类演化史和技术史的角度来看,那些最初昂贵的、罕见的和有风险的技术也往往会在工业化生产下变得便宜、易得、普遍和相对安全。在哈里斯等超人类主义者看来,人类增强技术给人们带来影响将不会是对自由意志的压制与社会不公平,而会是更加公正平等、健康、自由和积极的生活以及更高层次的人类进化阶段。然而,如果从元伦理学层面来看,超人类主义者的进化论论证实际上犯了摩尔(GeorgeEdwardMoore)所说的“自然主义谬误”,即建立在经验与可实证基础上的事实陈述无法直接推导出规范性的价值陈述。依据弗兰克那(WilliamFrankena)的阐述,我们可以从两方面呈现出超人类主义者的论证错误:从逻辑层面而言,增强技术给生理与心理带来的“更高、更强、更进化”并不能直接推导出道德层面的善,因为从非道德前提无法推出道德结论;而就定义层面而言,超人类主义的论证实际上是将某一种或某一类自然属性等同于善。进化论最多可以帮助我们理解某些道德规范形成所必要的经验性前提,却不能够作为论证某种价值规范的原则或是纲领,如

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论