中国社会科学院哲学研究所是我国哲学学科的重要学术机构和研究中心。其前身是中国科学院哲学社会科学部哲学研究所。历任所长为潘梓年、许立群、邢贲思、汝信(兼)、陈筠泉、李景源、谢地坤。中华人民共和国成立前,全国没有专门的哲学研究机构。为了适应社会主义改造和建设事业发展的需要... ... <详情>
哲学专业书库的前身是哲学研究所图书馆,与哲学研究所同时成立于1955年。1994年底,院所图书馆合并之后将其划为哲学所自管库,从此只保留图书借阅流通业务,不再购进新书。
2009年1月16日,作为中国社会科学院图书馆体制机制改革的重要举措之一,哲学专业书库正式挂牌。
<详情>提要:功利主义、直觉主义以及道义论是当前用于指导人工智能系统道德抉择的主要理论资源。然而,以上理论的应用均遭遇了困境。在道德哲学的历史上,正是类似的困境曾导致规范伦理学的衰落。当代规范性研究中的康德式理论对相关理论困难均给出充分回应,有力推动了规范伦理学的复兴,也有望为人工智能系统的伦理设计提供更为恰当的理论基础。康德式理论具有共同的核心观点和思想方法,保证了由这类理论所构建的伦理原则可以具有一致性和实践可操作性。格沃斯和斯坎伦是当代康德式理论的重要代表人物。本文通过比较和分析两者对道德义务的论证,尝试确立三个基本的伦理原则,即不侵犯原则、平等原则和援助原则。三个原则对任何道德主体间最基本的道德义务给出了清晰阐释,也能够对人工智能系统的伦理设计给出明确指导。
在机器人医生、机器人护士、无人驾驶汽车以及自主选择目标的武器等各种人工智能系统的应用过程中,系统都将不可避免地需要自主作出道德抉择,其抉择也往往会产生具有重大道德意义的后果。我们需要为人工智能系统确立恰当的伦理规范,并寻找执行这一规范的算法设计。有关如何确保伦理规范的执行,我们已经有了很多富有成效的方案。例如,“负责任创新”通过“四维框架”将伦理因素纳入整体考量,“价值敏感设计”提倡在技术的构思设计阶段就植入人的价值和道德关切。这些方法在很大程度上保证了所植入的伦理规范得到充分运用。但与之不相匹配的是,应当将何种伦理规范植入人工智能系统的问题则尚未得到很好的回答。
为机器植入的伦理规范应是能够为不同文化中的人所普遍认可的,并且,该规范应当能够适用于各种不同的具体情境。然而,一方面,道德哲学中并没有得到普遍认可的规范性理论;另一方面,对于任一规范性理论的严格执行往往都会在特定情境中导致明显错误的道德抉择。究竟是否可能建立一种具有权威性、客观性和普遍性的道德规范,为现实中的道德抉择提供更为充分的依据呢?对这一问题的探寻使人工智能伦理设计同道德规范性研究直接地联系在一起。人工智能伦理设计面对的困难均涉及“道德原则何以能够具有规范性”的问题。当代的道德规范性研究为这些问题提供了非常具有前景的解决方案。在机器伦理的语境中阐释当代道德规范性研究的主要思想方法,既能够为人工智能的伦理设计提供必要思想资源,也可以揭示当代道德规范性研究的重大现实意义。
一.用于指导人工智能系统的规范性理论及其面对的困难
自2016年以来,对于算法的伦理研究持续大幅度地增加。(see Sandvig, et al.)相关研究已形成了两种主要的研究进路,即伦理理论“自上而下”地实现,以及“自下而上”地建构一系列可能无法通过理论或术语进行明确表达的标准。(see Wallach, et al.)“自上而下”的方法通过外在的伦理理论引导系统行为,它需要设计者首先明确持有一种伦理学理论,分析这种理论的计算要求,寻找能够执行这一理论的算法设计。与之不同,“自下而上”的方案是基于实例推进的。设计者首先设计出满足局部功能的模块,然后通过对具体测试样例的试错和调整来推进设计过程。即便采用“自下而上”的进路,还是需要设计者预设某种伦理理论。该方案需要预先给定一整套在道德上已经由人类作出判断的案例,构成训练集和测试集,通过训练和测试使机器能够对新的案例作出道德判断。可见,无论采用“自上而下”还是“自下而上”的进路,首先无法回避的工作都是确立一种我们能够认同的伦理规范。目前,在人工智能伦理设计领域受到广泛采用的伦理学理论是功利主义、直觉主义以及道义论。然而,遗憾的是,这些理论传统都无法为系统的伦理抉择提供充分依据。
基于功利主义的算法设计一直以来被广泛应用于经济领域的人工智能系统。功利主义对任何行动的评价,都基于该行动是否会增进或减小利益相关者的利益,因而该方法可以对个体、整体以及社会层面的多重利益给出更明确的权衡,也能够对道德的客观性作出说明。人工智能伦理领域重要的开创者米歇尔·安德森(M.Anderson)和苏珊·安德森(S.Anderson)等曾依据行为功利主义建立了简明算法:通过考量受影响的人数、每个人快乐或不快乐的强度和持续度以及快乐或不快乐在每一个可能行动中出现的可能性,得出最佳行动方案。(see Anderson, et al.)然而,关于“快乐是否可以量化和比较”的问题始终存在争议。机器伦理研究者沃拉奇(W.Wallach)和艾伦(C.Allen)就曾指出,将不同性质的快乐置于相同尺度中去比较,本身就是不恰当的。(see Wallach & Allen, p.87)特别是在实际操作层面,机器根本无法知晓每一个可能行动的后果,无从预测一个行动可能创造的各种快乐的类型和强度,因而也就不能依据这种预测进行道德抉择。有关可操作性的问题显示,功利主义理论只能具有有限的权威性。
此外,功利主义理论面对的最根本质疑在于,多数人的最大利益何以能够成为“道德上正确”的标准?“谷歌大脑”(Google Brain)的研究人员在参考了大量心理学研究的基础上提出,“人们实际上更倾向于考虑其行为的本质而不是行为结果利益的最大化”(Anderson & Anderson, p.238)。作为行动依据,“利益最大化”这一标准的合理性很难得到确证。如果人们的道德抉择仅仅等同于利益计算,那么人的内在价值就无法得到论证。如果人没有内在价值,人的利益和追求又如何能够具有重要性呢?功利主义无法回答这样的问题。规范伦理学的阵地就是在功利主义那里失守的。摩尔在《伦理学原理》中提出,“善”不能通过任何自然性质予以定义,这在20世纪之初引发了对于功利主义的反思,产生了深远影响。
虽然否定了功利主义理论的权威性,但摩尔并不怀疑存在着基础性的道德真理和客观性的道德概念。在他看来,作为一种内在价值的善不能得到分析,却可以通过直觉获得,并为道德义务提供根据。直觉主义是可以用于解决规范性问题的。在当代人工智能的伦理设计中,直觉主义也受到了频繁的援引。安德森等人曾经尝试基于直觉主义建构人工智能系统的道德原则。他们让伦理学家就特定行为对于某项义务得到满足或受到违背的程度给出直觉,依据这些直觉来判定应采取何种行动并以此构建学习集,而在学习了足够多的特殊案例之后,机器就可以归纳出一般性的伦理原则。(see ibid., p.479)当代直觉主义代表人物罗斯(W.Ross)是他们经常援引的学者。罗斯将直觉作为自明性义务的基础。所谓“自明”就是无需证明,依据行为者的直觉就能确定。他曾经提出:“有思想和受过良好教育的人的道德信念是伦理学的数据,就像感觉、知觉是自然科学的数据一样。”(Ross, p.41)
直觉主义的应用同样面对某些困难,即它不能给机器或人的道德抉择提供明确依据。(see Anderson & Anderson, 2011, p.17)罗斯列出了七项显见义务,但没有对各种显见义务给出排序或权衡标准。当行为涉及多种显见义务时,我们应如何抉择呢?罗斯提出,显见正当性在最大程度上超过了显见不正当性的行为就是行动者的实际义务。然而,罗斯没有提供任何客观标准用以确定显见正当与不正当性的程度。胡克(J.Hooker)和金(T.Kim)曾对依赖专家伦理直觉的这一方法提出批评。他们指出,专家直觉也会有分歧,在这种情况下,系统就会无从选择。(see Hooker & Kim, pp.130-136)
不仅如此,很多人工智能伦理研究者都曾明确提出,专家直觉也常常不自洽,甚至带有偏见。(see Schwitzgebel & Cushman, pp.148-150)直觉是主观的,不能得到客观经验的证实,这也就导致其规范效力难以得到认可。在常识上,只有同经验事实发生联系,才能让一个规范性判断得到确证。维也纳学派曾提出,有意义的陈述必须是重言式或者被经验方法证实的,有意义的伦理陈述也必须能够被证明为真。这类观点在20世纪30年代的广泛流行曾直接导致了规范伦理学研究的中断。
与上述两种研究路径不同,胡克和金将来自道义论的“普遍性原则”作为建立道德原则的基础,尝试据此得出权威性的伦理法则。“普遍化原则”可以简单表述为:我行动的理由必须满足这样的条件,即每个人都可以凭此理由同样行事。(see Kim, et al.)当代科技的发展使得“普遍性”具有愈发重大的意义。我们都不愿意接受一个植入了同我们自身文化当中道德原则完全对立的原则的机器人来为我们提供服务,也会坚决反对由一种违背了我们核心伦理信念的算法来控制和影响我们的生活。但现实中,负载着不同道德观念的技术将不可避免并越发深入地侵入每一个行为抉择。在这一背景下,共同道德的确立显然有助于消除技术与人的对立。我们有理由尝试建立一种具有普遍规范效力的道德哲学理论。
遗憾的是,确立“普遍化原则”非常困难。道德原则似乎总有例外。每一个规范性理论,如果在实践中得到完全严格的执行,都可能在某些情境下导致人或机器作出违背直觉的、非常不道德的甚至是荒谬的行为。(see Grgic-Hlaca, et al.)原因在于,具体情境中的每一个行为都具有多重特征,关于行为是否能够得到许可的道德原则只涉及行为的非常有限的特征。比如在“不能说谎”的原则中,“说谎”描述的就是行为的单一特征,而现实中,说谎的行为可能同时也是拯救无辜之人生命的行为,而后一特征在道德原则中并不必然得到表述,这也就是为什么道德原则似乎总有例外。面对具体情境,我们要判断行为的某一特征是否具有压倒道德原则的道德权重,使行为成为一种例外。作出道德判断的过程往往就是在权衡相关的道德原则是否应当“破例”,而这种权衡并不是人工智能所擅长的。事实上,人类也常常因为缺少作出这种判断所依据的方法而无所适从。
当代人工智能伦理设计在理论基础的探寻过程中遇到的困难向我们揭示,来自功利主义、直觉主义和道义论的道德原则缺乏充分的权威性、客观性或普遍性。事实上,伦理学理论是否以及如何能够具有权威性、客观性和普遍性的问题正是20世纪以来伦理学历史上受到广泛关注的重要理论问题,这个问题的论证事关规范伦理学的成败。(see Hudson, p.1)当代的道德规范性研究力图重新确立道德所具有的规范性,对于有关规范伦理学基础的各种质疑均给出了回应。相应地,这些回应为人工智能系统伦理设计所面对的困难提供了比较好的解决方案。
二.当代康德式理论对于道德规范性的论证和阐释
认为道德具有规范性,意味着道德可以指导我们,约束我们,甚至强迫我们。“道德所具有的强制力量究竟从何而来”是当代道德哲学研究中的核心问题。
20世纪中期,来自科学哲学理论的批判导致了规范伦理学的衰落,恰当回应科学主义和分析哲学也就成为了当代道德规范性论证的前提。在道德规范性问题研究中,有一系列重要理论在康德哲学中寻找资源,并尝试将理性的物质条件和形式条件加以结合,以增强其论证。这类理论均强调伦理学必须建立在实践理性而不是理论理性的基础上,从而明确了伦理学同科学之间的区别。同时,因为提出有实践理性这一事物能够作为伦理学的根基,这类观点同样可能确证伦理规范的客观性、普遍性和权威性。这种思想方法被称为伦理学中的“康德式理论”(Kantian Program in Ethics)。(see Darwall, pp.115-189)
罗尔斯曾于1980年发表《道德理论中的康德式构建主义》一文,解释了其思想方法在何种意义上得自康德,并且提出,道德规范不是外在于主体的,基础性的道德真理对于理性行动性(agency)而言是建构性的,是理性行动者依据对自身行动性的辩证反思而构建的。(see Rawls)格沃斯(A.Gewirth)、斯坎伦(T.Scanlon)、内格尔(T.Nagel)以及科斯嘉德(C.Korsgaard)等学者的著作也都体现了这一思想方法。[1]康德式理论是当代规范性问题研究中最具有前景的思想方法,可以为人工智能伦理设计所面对的诸多困难提供解决方案。
首先,能够具有权威性的道德原则,是一种基于对理性行动性的根本特征的反思而得来的原则。因为道德原则是通过行动者不得不认可的事实所确证的,所以,作为一个行动者,任何人都无法否认道德原则所具有的权威性。
格沃斯就是基于行动者的定义,构建了行动者彼此间的义务。行动者是自愿地为其所选择的目的采取行动的主体。对于有目的的存在物而言,达到目的的手段必然具有价值。多数手段仅有助于实现特定目的;而某些手段,如基本的自由和福利(即“必要善”,necessary good),则对于任何目的的实现都是必要的。哪怕作出主动放弃必要善的决定也需要动用必要善。因此,意识到自己是一个行动者就不得不认为自己欲求必要善,并不得不声称自己对于必要善具有权利,否则就是否认自己的行动者身份,就会产生自相矛盾。(see Gewirth, p.64)如果行动者从自我反思到自身权利主张的推理是成立的,根据“逻辑一致原则”,行动者应当意识到,他人从其自我反思到其权利主张的推理同样成立。(see ibid., p.105)格沃斯由此得出了他的“道德最高原则”,即所有人都不得妨碍一个行动者实现其必要善。(see ibid., p.135)
在科斯嘉德的论述中,尊重人的道德义务同样来源于理性行动者对于自身的认识。她提出,我们人类意识的反思结构决定我们不得不为自己的行动寻找理由,否则就无法作出任何行动。而我们是通过我们所具有的“同一性”找到理由的。例如母亲、教师或士兵的“同一性”都显然能够为行为提供指导。关于“你应该如何行动”的看法就是关于“你是谁”的看法。当然,不同的“同一性”之间也会发生冲突。但最终我们还是能够通过具有更高权重的“同一性”获得理由,具有最高权重的“同一性”是“作为人的同一性”,即我们自身具有的被“同一性”支配的需要。否认了“作为人的同一性”的价值,我们将无法确认任何价值,无法理性地行动。因此,只要将自身认可为行动者,一个人就不能否认尊重人性的义务对其所具有的权威性。
第二,康德式理论也为道德原则的客观性给出了论证。在罗尔斯看来,道德哲学的讨论不能有效解决伦理争议的原因就在于采用了实在论的客观性标准,即一种独立于我们的理性判断的客观的道德真理观念(如摩尔和罗斯的直觉主义)。实在论的客观性标准导致没有人能够对道德真理具有权威,因而无益于分歧的化解。与之不同,康德式理论提出,道德规范不是外在于行动者的,而是在行动者的行动当中建构的。例如,罗尔斯认为,“离开了正义原则的建构程序,就没有道德事实”(Rawls, p.519)。对道德表示赞同并不是说它是真的,而是说它“对我们而言是合理的”。科斯嘉德也曾提出:“如果你意识到有一个真实的问题,并且这是你的问题,是你必须解决的问题,而这个解决方案是唯一的或者是最好的,那么这个解决方案就约束着你。”(see Korsgaard, 2003, p.116)道德规范能够具有客观性,但其所具有的客观性不同于经验科学中的客观性。(see Darwall, pp.115-189)一个理论在实践上的可行性就是使一个理论为真的条件。
最后,康德式理论对道德原则如何能够普遍应用的问题也给出了特有的回应方案。通过将道德所“规范”的内容从行为本身转变为行为抉择的方法,康德式论证在很大程度上避免了道德原则总有特例的现象。例如,罗尔斯和科斯嘉德的理论试图确立的都是作出道德抉择的合理过程,而不是具体的道德行为本身。他们提出,道德原则的普遍性体现为存在着据以作出道德抉择的普遍性的、一般性的方法。斯坎伦就这个问题作出了颇具有创造性的论述,将道德所“规范”的内容从道德行为转变为行为所依据的理由,从而使道德规范性体现于道德理由的推导过程。他明确提出,相比于对行为的规范,对道德理由的规范在更加重要的意义上显示了道德所具有的规范性。例如,“我们可以谴责”是规范性存在的直接证明。而谴责的依据往往在于行为的理由而非行为本身。一个行动者故意伤害他人同因为疏忽大意而伤害到他人,具有完全不同的道德意义。斯坎伦给出了有关理由抉择的一般性方法,并认为正确地使用这一方法就可以向我们揭示什么是道德上正确的行动。
三.当代康德式理论建构的原则何以能够具有一致性
康德式理论能够为人工智能伦理设计提供更为充分的理论基础,因而可以解决或避免已有的理论困难。然而,判断康德式理论是否应当被作为人工智能伦理设计的理论基础,还取决于其所构建的道德原则能不能够符合该领域中业已形成的若干形式上的标准。
机器伦理领域的实践先驱安德森等人曾提出,要以伦理原则来指导人工智能系统的运行,就需要把伦理学理论转化为具有一致性、完整性以及实践可操作性的原则。具有一致性,需要伦理标准具有单一的基础性原则,如果包含多个原则,就要论证关于它们优先权的顺序;具有完整性,就是说这个标准应当能够告诉我们在任何伦理两难处境中应当如何行动;而实践性这个要求能够保证我们在现实中有可能依据这个理论作出判断。安德森等人认为,对于应用于机器的算法而言,一致性、完整性以及实践性是必须要达到的标准。(see Anderson, et al.)如果道德原则意在指导具体行为,那么一般的道德原则都应具有这样的形式上的标准。很明显的是,在这三个标准中,一致性是最为基础性的,直接决定了一个规则是否能够满足另外两个标准。包含相互矛盾的同时又无法对其重要性进行排序的多种原则的理论,不能为具体情境中相互冲突的道德原则给出权衡的依据,这意味着该理论不仅无力化解道德上的两难处境,甚至可能造成更多两难处境,因而这样的理论显然不能对行动给出明确指导。
构建具有一致性的实践原则是非常困难的。一方面,来自单一理论的原则虽然能够比较好地符合一致性的要求,但在道德哲学当中,尚没有单一理论能够充分指导人工智能系统的道德抉择;另一方面,到目前为止,综合不同理论所建构的原则往往都不具有一致性。
在应用伦理研究中,综合不同理论建构实践原则的重要尝试当首推原则主义。原则主义是一种以若干得到广泛认同的、没有固定等级排序的一般原则作为基本框架的伦理分析进路。虽然原则主义已经在高科技伦理问题的研究中得到非常广泛的应用,但原则主义不是从单一的、体系完备的道德理论出发而得出的自成体系的规则,因此其原则明显缺乏一致性,无法为解决道德争端提供一个清晰、连贯、周延、明确的指导方针。如在彼彻姆(T.Beauchamp)和邱卓斯(J.Childress)提出的著名的生命伦理四原则,即尊重自主、行善、不伤害和公平分配原则当中,自主原则来自康德的道义论、行善原则来自密尔的功利主义,公正原则来自契约主义。作为各个原则来源的传统理论在很多问题上的观点本就是相互对立的,这就决定了各项原则很可能会产生矛盾冲突。在原则之间相互冲突的情况下,有着独立理论来源的不同原则无法合理排序,因此原则主义本身不可能为化解原则间的冲突提供非常具有说服力的指导。
鉴于原则主义面对的困境,如果要通过康德式理论构建人工智能的伦理原则,首先需要回答康德式理论如何能够得出具有一致性的实践原则。所谓康德式理论是在规范性的论证方式上具有显著共识的不同理论的总和,包含多个思想家的理论。在这些理论中,并没有任何单一的理论能够为实践提供充分的指导。如学者们普遍认为,虽然格沃斯通过逻辑分析的方法很好地建立起个体行动者不得不珍视的价值,但他没有对人际关系的道德意义给出说明,因而其提出的认为行动者必须尊重彼此必要善的“道德最高原则”并没有得到充分论证。(see Williams, p.61; Korsgaard, 1996, p.134; Huckfeldt, pp.23-41)斯坎伦对于人际间的道德义务作出了非常具有启发性的论证,但他的理论主要涉及道德推理应当具有的形式以及道德论辩的方法,而没有为道德论辩明确提供经验层面的裁决标准。因而,上述两种试图提出单一的最高指导原则的理论都不能独自承担指导算法设计的任务。
既然没有单一理论能够提供充分的思想资源,依据康德式理论构建道德原则,我们就不得不综合不同理论,共同构建指导人工智能系统道德抉择的原则。同上述四原则具有不同的来源一样,康德式理论也体现了不同伦理传统的特征。罗尔斯和斯坎伦的理论显示出明显的契约主义特征,科斯嘉德的理论则在很大程度上秉承了道义论思想,格沃斯试图将伦理原则建立在逻辑推理的基础上。如果在综合不同康德式理论的基础上来建构伦理原则,我们是否可能面对原则主义所面对的那种困境,即无法在不同原则相互冲突的情况下给出权衡和解决的方案?
在当代康德式规范性理论多种多样的具体观点背后存在着相同的终极依据,即道德规范及其权威性就来自人对自身理性行动性的反思。不同理论所构建的不同原则并非是通过不同方法得到论证的。罗尔斯、科斯嘉德、格沃斯以及斯坎伦等人都在人的理性行动性的基础上建构了他们的道德哲学理论,并且都借助理性行动者的自我反思进行推理。正是这种共同的理论基础可以超越不同传统的界限,使当代康德式理论能够被归为一个具有明显特色的类别。同时,这一基本特征也能够有效推动不同传统的融合。如斯坎伦曾坦言,他的契约主义理论具有很强的道义论特征。(see Scanlon, 1998, pp.5-6)各种康德式理论之间的不同仅仅源于不同理论对理性行动性这一终极依据提供了有限的理解。它们对相同理论基础的理解有各自的局限,对相同思想方法的使用也有各自的局限。因此,康德式理论的不同理解方案所呈现出的表面上的矛盾是可以通过进一步的理性论证和相互借鉴而消除的。康德式理论构建的不同原则可以形成一个具有一致性的实践指导方案。在不同理论背后存在一个完善的、统一的理论依据的情况下,我们可以得到对不同原则进行排序的普遍性标准,因而可以为实践提供明确指导。
四.依据康德式理论建构的伦理原则及其现实意义
在康德式理论中,能够对行动者的行动提供指导的原则只能来自行动者的自我反思。通过对行动性进行反思可知:第一,理性的行动需要理由;第二,行动需要基本的自由和福利,即必要善。这是仅从行动性的概念出发就可以得出的结论,我们称之为“行动性的规范性结构”的双重内涵。道德理由抉择的过程确立了道德推理的形式,对必要善的必然欲求为道德推理提供了内容。“行动性的规范性结构”为道德原则的构建提供了充分理论资源。相比于其他康德式理论,格沃斯为行动者对必要善的必然欲求给出了逻辑上更合理的论证,而斯坎伦对道德理由及其推导方式作出了最为系统的说明。下文将通过综合斯坎伦和格沃斯的理论来构建能够应用于人工智能伦理设计的道德原则。
将格沃斯对必要善的分析合并到斯坎伦有关行动者之间基本义务的理论当中,能够解决双方理论各自面对的困难,并推进对于道德规范性的论证。斯坎伦曾提出,行动者涉及他人的行为,必须以对方不能合理拒绝的理由向对方进行论证。(see ibid., p.162)这一表述为道德规范确立了普遍化的形式,但没有提供经验性的内容。格沃斯所揭示的“存在每个行动者都不得不珍视的必要善”这一事实就提供了一种具有普遍性的经验。必要善是任何人都无法合理拒绝的,可以为斯坎伦的理由权衡提供一个具有普遍性的终极依据。同时,格沃斯的理论也可以通过借鉴斯坎伦有关理由的论述得到完善。格沃斯证明了行动者对必要善的必然需求,但并没有成功地论证,为什么一个行动者可以要求其他行动者尊重自己的必然欲求,让其他行动者因此负有一种义务。“理由”这个概念内在地包含着主体间的向度。在斯坎伦看来,理由就来自行动者与他人之间的关系。有关理由的论证可以解决格沃斯从私人理由到公共理由的推导中所遇到的障碍。
道德理由是通过理由论辩的过程确立的。斯坎伦将理由论辩的方式表述为:“在特定情境下,如果一个行为的发生不能得到任何普遍原则的允许,那么,这个行为就是不正当的。这些原则作为拥有充分信息、不受强迫的人们达成普遍一致的基础,是没有人能够合理拒绝的。”(ibid., p.153)简单地说,“没有理由拒绝”就是道德论辩的标准。采用“没有理由拒绝”的标准能够避免契约主义和某些形式的功利主义常常可能导致的集体对个体的侵犯,给予每个个体的自主性以充分尊重,并且促进个体价值的发展。一直以来,关于技术的伦理是人在对外部世界进行控制的过程中形成的,因而更加注重成本和收益。然而,当代技术在改造世界的同时也在持续构建着人的本质,指导和约束技术发展的伦理原则应是在最大程度上对人的内在价值给予尊重的原则。
综上,我们可以通过康德式理论得出建立人工智能伦理原则的基本前提:其一,我们应当就每一个行为向行为所涉及的行动者证明,该行为是由没有理由拒绝的原则所支持的;其二,行动者不得不欲求必要善。根据这两个前提,我们可以推导出以下三个原则:
其一,不侵犯原则:任何行动不能侵犯行动者的必要善。必要善是行动者不得不欲求的。在理由权衡的过程中,必要善是具有最大权重的理由。准许侵犯行动者的必要善的原则是其必然有理由拒绝的。
其二,平等原则:所有行动者的必要善平等。通过理由论辩,行动者彼此之间建立了相互认可的关系,将彼此认可为道德规范性的来源。既然所有行动者都不得不欲求自身的必要善,那么就“不可侵犯”这一性质而言,所有行动者的必要善平等。一个行动者的必要善受到伤害同其他行动者的必要善受到伤害,总是具有同等的道德上的权重。
其三,援助原则:当行动者A的必要善处于威胁之中,如果A的必要善的维护完全取决于B的援助,并且B完全有能力援助,那么,在援助行为不会导致任何行动者的必要善受到侵犯的情况下,B应当援助。
实现自身的行动性就是通过行动理由的确立而实现自我的统一。行动者B此刻据以行事的理由应是今后任何时候处于相同的情况下愿意再次据以行事的理由,应是与A角色互换之后仍愿意据以行事的理由。如果行动者B认为他不得不追求自身的必要善,那么在上述情境中,他就无法合理地拒绝援助。
当然,原则三的应用有一定界限。任何行动不应当导致必要善在不同行动者之间非对称地转移。(see Gewirth, p.104)如果援助行动必将导致某行动者必要善的丧失,那么这一援助义务就可以免除。并且,斯坎伦说明了行动理由只能来自具体情境中的经验事实。在个体对相关事实没有确切把握的情况下,例如在辛格(P.Singer)所描述的海外援助的情况中,援助义务就不能得到确认。
辛格在发表于1972年的《饥荒、富裕和道德》一文中探讨了与饥荒和贫困相关的道德问题。辛格试图在该文中论证,富裕国家的人民有义务捐出收入的大部分用于海外援助,并且他们将一直负有这一义务,直至变得和贫困国家的人民一样贫困。(see Singer)辛格文中描述的情景部分满足援助义务的成立条件:一方面,绝对贫穷毫无疑问是对于人的必要善的侵犯;另一方面,自身衣食无忧并且在个人享受方面花费颇多的人,显然可以在不损失自身必要善的前提下为那些亟需援助的贫困国家人民提供其所需要的至少部分物资。但是,辛格对于援助义务的论证还是忽略了一个重要条件,即援助义务应当结合具体情境进行论证。我们需要在具体情境中确认,一个人的必要善的维持在非常大的程度上取决于另一个人的援助。即便我确定地知道在异国他乡有人处于绝对贫困,但我不清楚他的亲属、朋友是否无法对他提供援助,也不清楚他的国家的政府是否拒绝对他提供援助。对于这些主体自身而言,为亲属、朋友或国民提供援助的行为是具有重大道德意义的。我不能默认这些主体已放弃援助,因而也就不能评判我的援助将发挥的作用。
相比之下,死后器官捐献的情境在更大程度上符合援助义务成立的条件。一方面,我们在死亡后不需要器官来维持必要善;另一方面,被捐献的器官必定被用于维护某人的必要善,并且发挥不可替代的作用。目前全球范围内器官供体短缺严重。每年有数量巨大的患者因为没有适合的器官而在本应充满活力的年纪离开人世,亦有很多人因无法得到适合的器官,日复一日忍受痛苦,无法正常生活。在这种情况下,即便捐赠者完全不知道谁是受捐者,不了解他的任何信息,也仍然可以确定,受捐者的基本善完全依赖自己捐献器官的行为。
以上原则就是依据当代康德式理论推导出的基本道德原则。这三个原则恰好是很多道德哲学理论中曾描述过的“人的道德地位”的要求。人的道德地位限定了人类成员应受或者不应受何种对待的最低标准。以符合这一标准的方式行事,是所有道德行动者的义务。有关这一义务的具体内容,人们已形成比较普遍的共识,如沃伦(M.Warren)曾经提出,所有人具有充分道德地位意味着我们不能杀害、攻击、欺骗、折磨或不公正地囚禁他人,并且,我们不能在我们能够帮助且他们需要帮助的时候不去帮助。(see Warren)在《道德之维:可允许性、意义与谴责》一书中,斯坎伦表达了相似看法,即人的内在价值要求我们对彼此持有特定态度:不能以伤害彼此的方式行事,在可能的情况下帮助他人,以及不要误导他人,等等。(see Scanlon, 2008, p.140)佳沃斯卡(A.Jaworska)等人则在《道德地位的基础》一文中列出了最高等级的道德地位要求的权利,即不被侵犯,在需要的时候得到救助,以及受到公平对待。(see Jaworska & Tannenbaum)可见,“不侵犯”“获得援助”“平等”作为人的道德地位的核心要求已获普遍认可。然而,这一共识性的观点尚未得到系统论证。上文通过康德式理论推导出三个道德原则的过程为其提供了论证。三个原则均来自具有共同思想方法的康德式理论,因而我们也能够在原则互相冲突的情况下进行合理排序。
以上三个原则能够为某些经典的道德难题提供比较合理的回答。例如,在“电车难题”中,根据“不侵犯原则”,拉动扳手使列车撞向1个人而避开5个人的行为显然是错误的,因为那是某些行动者(将会被撞到的那个人)有理由拒绝的。在此情境下,所谓“援助”的行为会导致无辜的人丧失其必要善,因而也不符合“援助原则”应用的条件。相反,如果行动者决定不拉动扳手,那么行动者的选择同任一原则都不会产生相矛盾。由此可知,无论主道和旁道上分别有几人,行动者作出拉动扳手的行为一定是道德上错误的,同时不采取任何行动则至少不是道德上错误的。
在自动驾驶的伦理问题探讨中,一个困扰人们的两难处境是:如果一辆自动驾驶汽车在接下来的时刻要么撞到一个老人,要么撞到一个儿童,系统应当如何抉择?根据“平等原则”,老人和小孩同为行动者,他们的必要善平等,因而为了一方的必要善而牺牲另一方的显然是道德上错误的。在这种情况下,系统只需判断救哪一方的胜算更大,并将这一判断作为行为依据。如果胜算相等,那么无论系统决定救谁或牺牲谁,都不是道德上错误的。
由此看来,来自康德式理论的三个原则似乎常常支持系统或行动者不主动采取行动。但这并不说明这套原则不能给予实践好的指导,因为核心原则所规定的本就应是最基本的道德义务,道德规范性的范围也仅涉及最基本的道德义务。相比于其他原则,以上原则至少不会传达例如“五个人生命的价值大于三个人生命的价值”或“儿童生命的价值大于老年人生命的价值”这种道德上错误的观念。
在确立基本道德义务的同时,以上原则也为特殊的关系和承诺留出了空间。在斯坎伦的理论中,基本的道德义务是通过人际关系得到论证的,人际关系是理由的来源。斯坎伦曾提出,道德理由反映的是个体与他人之间有价值的连接。(see Scanlon, 1998, p.337)甚至,道德原则之所以重要就因为我们与他人的关系是重要的。(see Scanlon, 2008, p.6)那么,完全的陌生人之间是否存在某种关系,可以作为限制彼此行为的道德原则的基础呢?斯坎伦提出,在所有行动者之间,无论相识与否,都存在着一种关系,即“理性存在物同伴”(fellow rational being)的关系。(see ibid, pp.139-140)同为理性存在物的我们都具有理解理由的能力,这就要求我们在作出涉及他人的行动时,应当通过理由向对方进行论证。这也是最基本的道德义务。如果说“理性存在物同伴”的关系确立了基本义务,那么进一步的关系和承诺当然可以产生进一步的义务。例如,朋友关系要求彼此发自内心的关爱。对于特殊承诺和关系的尊重并不会影响基础道德原则的普遍性,这是因为,基础性的义务和进一步的义务分别来自不同层面的关系。
余论
人工智能系统可能具有自主分析和判断的能力,可能针对特定情境自主决策或行为。(参见董彪,第2页)伦理设计问题已成为人工智能研究领域亟待推进的问题之一。当代的相关研究所面对的种种理论困难均曾在道德哲学的历史上得到过深入探讨,相关探讨对于规范伦理学的发展产生了重要影响。历史中的思想资源揭示了现实困境的来源,为理解当代问题提供了重要线索。思想史和现实困境间的相互印证向我们揭示,要为人工智能系统提供具有实践可操作性的指导原则,就不得不首先建立一种具有普遍性、客观性和权威性的道德规范。
当代的道德规范性研究对此提供了非常具有前景的解决方案。康德式理论通过揭示每个人在其自我反思中均不能否认的事实,为普遍性的道德原则确立了基础。它还通过论证道德原则所规范的并非行为本身而是理由抉择的方法,使道德原则能够在各种情境中始终保持权威性。依据康德式理论构建的伦理原则对基本道德义务给出了符合常识的阐释,对于当代人工智能技术应用所引发的伦理困境也能提供比较合理的解决方法。
总之,当代规范性理论研究为理解和应对现实困境提供了重要思想资源,同时,现实中的伦理困境也为反思道德哲学理论提供了重要视角,新技术发展所昭示的各种可能性为道德哲学的理论推演和规范的确立提供了实验场所。无论未来的人工智能是否能够成为真正意义上的充分的道德行动者,我们为此所作的理论准备终将在前所未有的程度上推进我们对于道德规范性问题的阐释和分析,并为伦理学历史上影响深远的理论难题给出意蕴深刻的回答。
【注释】
*本文系国家社会科学基金重大项目“大数据驱动下的生命科学研究范式变革研究”(编号22&ZD045)的阶段性成果。
[1]例如,对必要善的权利主张在格沃斯对于根本性道德义务的论证中是至关重要的,而这一主张恰恰全然内在于行动中的理性行动者的视角,因而格沃斯的论证揭示了道德和行动者的自我理解间的必然连接。在科斯嘉德看来,依据行动者的定义,行动者必须把自身构建为一个整体,因此,让行动者自身达到精神统一的那些原则就是行动的规范性标准。(参见科斯嘉德,2009年,第10页)
原载:《哲学动态》2023年第5期
文章来源:“哲学动态杂志”微信公众号(2021.6.19)
地址:北京市东城区建国门内大街5号邮编:100732
电话:(010)85195506 传真:(010)65137826 E-mail:philosophy@cass.org.cn
提要:功利主义、直觉主义以及道义论是当前用于指导人工智能系统道德抉择的主要理论资源。然而,以上理论的应用均遭遇了困境。在道德哲学的历史上,正是类似的困境曾导致规范伦理学的衰落。当代规范性研究中的康德式理论对相关理论困难均给出充分回应,有力推动了规范伦理学的复兴,也有望为人工智能系统的伦理设计提供更为恰当的理论基础。康德式理论具有共同的核心观点和思想方法,保证了由这类理论所构建的伦理原则可以具有一致性和实践可操作性。格沃斯和斯坎伦是当代康德式理论的重要代表人物。本文通过比较和分析两者对道德义务的论证,尝试确立三个基本的伦理原则,即不侵犯原则、平等原则和援助原则。三个原则对任何道德主体间最基本的道德义务给出了清晰阐释,也能够对人工智能系统的伦理设计给出明确指导。
在机器人医生、机器人护士、无人驾驶汽车以及自主选择目标的武器等各种人工智能系统的应用过程中,系统都将不可避免地需要自主作出道德抉择,其抉择也往往会产生具有重大道德意义的后果。我们需要为人工智能系统确立恰当的伦理规范,并寻找执行这一规范的算法设计。有关如何确保伦理规范的执行,我们已经有了很多富有成效的方案。例如,“负责任创新”通过“四维框架”将伦理因素纳入整体考量,“价值敏感设计”提倡在技术的构思设计阶段就植入人的价值和道德关切。这些方法在很大程度上保证了所植入的伦理规范得到充分运用。但与之不相匹配的是,应当将何种伦理规范植入人工智能系统的问题则尚未得到很好的回答。
为机器植入的伦理规范应是能够为不同文化中的人所普遍认可的,并且,该规范应当能够适用于各种不同的具体情境。然而,一方面,道德哲学中并没有得到普遍认可的规范性理论;另一方面,对于任一规范性理论的严格执行往往都会在特定情境中导致明显错误的道德抉择。究竟是否可能建立一种具有权威性、客观性和普遍性的道德规范,为现实中的道德抉择提供更为充分的依据呢?对这一问题的探寻使人工智能伦理设计同道德规范性研究直接地联系在一起。人工智能伦理设计面对的困难均涉及“道德原则何以能够具有规范性”的问题。当代的道德规范性研究为这些问题提供了非常具有前景的解决方案。在机器伦理的语境中阐释当代道德规范性研究的主要思想方法,既能够为人工智能的伦理设计提供必要思想资源,也可以揭示当代道德规范性研究的重大现实意义。
一.用于指导人工智能系统的规范性理论及其面对的困难
自2016年以来,对于算法的伦理研究持续大幅度地增加。(see Sandvig, et al.)相关研究已形成了两种主要的研究进路,即伦理理论“自上而下”地实现,以及“自下而上”地建构一系列可能无法通过理论或术语进行明确表达的标准。(see Wallach, et al.)“自上而下”的方法通过外在的伦理理论引导系统行为,它需要设计者首先明确持有一种伦理学理论,分析这种理论的计算要求,寻找能够执行这一理论的算法设计。与之不同,“自下而上”的方案是基于实例推进的。设计者首先设计出满足局部功能的模块,然后通过对具体测试样例的试错和调整来推进设计过程。即便采用“自下而上”的进路,还是需要设计者预设某种伦理理论。该方案需要预先给定一整套在道德上已经由人类作出判断的案例,构成训练集和测试集,通过训练和测试使机器能够对新的案例作出道德判断。可见,无论采用“自上而下”还是“自下而上”的进路,首先无法回避的工作都是确立一种我们能够认同的伦理规范。目前,在人工智能伦理设计领域受到广泛采用的伦理学理论是功利主义、直觉主义以及道义论。然而,遗憾的是,这些理论传统都无法为系统的伦理抉择提供充分依据。
基于功利主义的算法设计一直以来被广泛应用于经济领域的人工智能系统。功利主义对任何行动的评价,都基于该行动是否会增进或减小利益相关者的利益,因而该方法可以对个体、整体以及社会层面的多重利益给出更明确的权衡,也能够对道德的客观性作出说明。人工智能伦理领域重要的开创者米歇尔·安德森(M.Anderson)和苏珊·安德森(S.Anderson)等曾依据行为功利主义建立了简明算法:通过考量受影响的人数、每个人快乐或不快乐的强度和持续度以及快乐或不快乐在每一个可能行动中出现的可能性,得出最佳行动方案。(see Anderson, et al.)然而,关于“快乐是否可以量化和比较”的问题始终存在争议。机器伦理研究者沃拉奇(W.Wallach)和艾伦(C.Allen)就曾指出,将不同性质的快乐置于相同尺度中去比较,本身就是不恰当的。(see Wallach & Allen, p.87)特别是在实际操作层面,机器根本无法知晓每一个可能行动的后果,无从预测一个行动可能创造的各种快乐的类型和强度,因而也就不能依据这种预测进行道德抉择。有关可操作性的问题显示,功利主义理论只能具有有限的权威性。
此外,功利主义理论面对的最根本质疑在于,多数人的最大利益何以能够成为“道德上正确”的标准?“谷歌大脑”(Google Brain)的研究人员在参考了大量心理学研究的基础上提出,“人们实际上更倾向于考虑其行为的本质而不是行为结果利益的最大化”(Anderson & Anderson, p.238)。作为行动依据,“利益最大化”这一标准的合理性很难得到确证。如果人们的道德抉择仅仅等同于利益计算,那么人的内在价值就无法得到论证。如果人没有内在价值,人的利益和追求又如何能够具有重要性呢?功利主义无法回答这样的问题。规范伦理学的阵地就是在功利主义那里失守的。摩尔在《伦理学原理》中提出,“善”不能通过任何自然性质予以定义,这在20世纪之初引发了对于功利主义的反思,产生了深远影响。
虽然否定了功利主义理论的权威性,但摩尔并不怀疑存在着基础性的道德真理和客观性的道德概念。在他看来,作为一种内在价值的善不能得到分析,却可以通过直觉获得,并为道德义务提供根据。直觉主义是可以用于解决规范性问题的。在当代人工智能的伦理设计中,直觉主义也受到了频繁的援引。安德森等人曾经尝试基于直觉主义建构人工智能系统的道德原则。他们让伦理学家就特定行为对于某项义务得到满足或受到违背的程度给出直觉,依据这些直觉来判定应采取何种行动并以此构建学习集,而在学习了足够多的特殊案例之后,机器就可以归纳出一般性的伦理原则。(see ibid., p.479)当代直觉主义代表人物罗斯(W.Ross)是他们经常援引的学者。罗斯将直觉作为自明性义务的基础。所谓“自明”就是无需证明,依据行为者的直觉就能确定。他曾经提出:“有思想和受过良好教育的人的道德信念是伦理学的数据,就像感觉、知觉是自然科学的数据一样。”(Ross, p.41)
直觉主义的应用同样面对某些困难,即它不能给机器或人的道德抉择提供明确依据。(see Anderson & Anderson, 2011, p.17)罗斯列出了七项显见义务,但没有对各种显见义务给出排序或权衡标准。当行为涉及多种显见义务时,我们应如何抉择呢?罗斯提出,显见正当性在最大程度上超过了显见不正当性的行为就是行动者的实际义务。然而,罗斯没有提供任何客观标准用以确定显见正当与不正当性的程度。胡克(J.Hooker)和金(T.Kim)曾对依赖专家伦理直觉的这一方法提出批评。他们指出,专家直觉也会有分歧,在这种情况下,系统就会无从选择。(see Hooker & Kim, pp.130-136)
不仅如此,很多人工智能伦理研究者都曾明确提出,专家直觉也常常不自洽,甚至带有偏见。(see Schwitzgebel & Cushman, pp.148-150)直觉是主观的,不能得到客观经验的证实,这也就导致其规范效力难以得到认可。在常识上,只有同经验事实发生联系,才能让一个规范性判断得到确证。维也纳学派曾提出,有意义的陈述必须是重言式或者被经验方法证实的,有意义的伦理陈述也必须能够被证明为真。这类观点在20世纪30年代的广泛流行曾直接导致了规范伦理学研究的中断。
与上述两种研究路径不同,胡克和金将来自道义论的“普遍性原则”作为建立道德原则的基础,尝试据此得出权威性的伦理法则。“普遍化原则”可以简单表述为:我行动的理由必须满足这样的条件,即每个人都可以凭此理由同样行事。(see Kim, et al.)当代科技的发展使得“普遍性”具有愈发重大的意义。我们都不愿意接受一个植入了同我们自身文化当中道德原则完全对立的原则的机器人来为我们提供服务,也会坚决反对由一种违背了我们核心伦理信念的算法来控制和影响我们的生活。但现实中,负载着不同道德观念的技术将不可避免并越发深入地侵入每一个行为抉择。在这一背景下,共同道德的确立显然有助于消除技术与人的对立。我们有理由尝试建立一种具有普遍规范效力的道德哲学理论。
遗憾的是,确立“普遍化原则”非常困难。道德原则似乎总有例外。每一个规范性理论,如果在实践中得到完全严格的执行,都可能在某些情境下导致人或机器作出违背直觉的、非常不道德的甚至是荒谬的行为。(see Grgic-Hlaca, et al.)原因在于,具体情境中的每一个行为都具有多重特征,关于行为是否能够得到许可的道德原则只涉及行为的非常有限的特征。比如在“不能说谎”的原则中,“说谎”描述的就是行为的单一特征,而现实中,说谎的行为可能同时也是拯救无辜之人生命的行为,而后一特征在道德原则中并不必然得到表述,这也就是为什么道德原则似乎总有例外。面对具体情境,我们要判断行为的某一特征是否具有压倒道德原则的道德权重,使行为成为一种例外。作出道德判断的过程往往就是在权衡相关的道德原则是否应当“破例”,而这种权衡并不是人工智能所擅长的。事实上,人类也常常因为缺少作出这种判断所依据的方法而无所适从。
当代人工智能伦理设计在理论基础的探寻过程中遇到的困难向我们揭示,来自功利主义、直觉主义和道义论的道德原则缺乏充分的权威性、客观性或普遍性。事实上,伦理学理论是否以及如何能够具有权威性、客观性和普遍性的问题正是20世纪以来伦理学历史上受到广泛关注的重要理论问题,这个问题的论证事关规范伦理学的成败。(see Hudson, p.1)当代的道德规范性研究力图重新确立道德所具有的规范性,对于有关规范伦理学基础的各种质疑均给出了回应。相应地,这些回应为人工智能系统伦理设计所面对的困难提供了比较好的解决方案。
二.当代康德式理论对于道德规范性的论证和阐释
认为道德具有规范性,意味着道德可以指导我们,约束我们,甚至强迫我们。“道德所具有的强制力量究竟从何而来”是当代道德哲学研究中的核心问题。
20世纪中期,来自科学哲学理论的批判导致了规范伦理学的衰落,恰当回应科学主义和分析哲学也就成为了当代道德规范性论证的前提。在道德规范性问题研究中,有一系列重要理论在康德哲学中寻找资源,并尝试将理性的物质条件和形式条件加以结合,以增强其论证。这类理论均强调伦理学必须建立在实践理性而不是理论理性的基础上,从而明确了伦理学同科学之间的区别。同时,因为提出有实践理性这一事物能够作为伦理学的根基,这类观点同样可能确证伦理规范的客观性、普遍性和权威性。这种思想方法被称为伦理学中的“康德式理论”(Kantian Program in Ethics)。(see Darwall, pp.115-189)
罗尔斯曾于1980年发表《道德理论中的康德式构建主义》一文,解释了其思想方法在何种意义上得自康德,并且提出,道德规范不是外在于主体的,基础性的道德真理对于理性行动性(agency)而言是建构性的,是理性行动者依据对自身行动性的辩证反思而构建的。(see Rawls)格沃斯(A.Gewirth)、斯坎伦(T.Scanlon)、内格尔(T.Nagel)以及科斯嘉德(C.Korsgaard)等学者的著作也都体现了这一思想方法。[1]康德式理论是当代规范性问题研究中最具有前景的思想方法,可以为人工智能伦理设计所面对的诸多困难提供解决方案。
首先,能够具有权威性的道德原则,是一种基于对理性行动性的根本特征的反思而得来的原则。因为道德原则是通过行动者不得不认可的事实所确证的,所以,作为一个行动者,任何人都无法否认道德原则所具有的权威性。
格沃斯就是基于行动者的定义,构建了行动者彼此间的义务。行动者是自愿地为其所选择的目的采取行动的主体。对于有目的的存在物而言,达到目的的手段必然具有价值。多数手段仅有助于实现特定目的;而某些手段,如基本的自由和福利(即“必要善”,necessary good),则对于任何目的的实现都是必要的。哪怕作出主动放弃必要善的决定也需要动用必要善。因此,意识到自己是一个行动者就不得不认为自己欲求必要善,并不得不声称自己对于必要善具有权利,否则就是否认自己的行动者身份,就会产生自相矛盾。(see Gewirth, p.64)如果行动者从自我反思到自身权利主张的推理是成立的,根据“逻辑一致原则”,行动者应当意识到,他人从其自我反思到其权利主张的推理同样成立。(see ibid., p.105)格沃斯由此得出了他的“道德最高原则”,即所有人都不得妨碍一个行动者实现其必要善。(see ibid., p.135)
在科斯嘉德的论述中,尊重人的道德义务同样来源于理性行动者对于自身的认识。她提出,我们人类意识的反思结构决定我们不得不为自己的行动寻找理由,否则就无法作出任何行动。而我们是通过我们所具有的“同一性”找到理由的。例如母亲、教师或士兵的“同一性”都显然能够为行为提供指导。关于“你应该如何行动”的看法就是关于“你是谁”的看法。当然,不同的“同一性”之间也会发生冲突。但最终我们还是能够通过具有更高权重的“同一性”获得理由,具有最高权重的“同一性”是“作为人的同一性”,即我们自身具有的被“同一性”支配的需要。否认了“作为人的同一性”的价值,我们将无法确认任何价值,无法理性地行动。因此,只要将自身认可为行动者,一个人就不能否认尊重人性的义务对其所具有的权威性。
第二,康德式理论也为道德原则的客观性给出了论证。在罗尔斯看来,道德哲学的讨论不能有效解决伦理争议的原因就在于采用了实在论的客观性标准,即一种独立于我们的理性判断的客观的道德真理观念(如摩尔和罗斯的直觉主义)。实在论的客观性标准导致没有人能够对道德真理具有权威,因而无益于分歧的化解。与之不同,康德式理论提出,道德规范不是外在于行动者的,而是在行动者的行动当中建构的。例如,罗尔斯认为,“离开了正义原则的建构程序,就没有道德事实”(Rawls, p.519)。对道德表示赞同并不是说它是真的,而是说它“对我们而言是合理的”。科斯嘉德也曾提出:“如果你意识到有一个真实的问题,并且这是你的问题,是你必须解决的问题,而这个解决方案是唯一的或者是最好的,那么这个解决方案就约束着你。”(see Korsgaard, 2003, p.116)道德规范能够具有客观性,但其所具有的客观性不同于经验科学中的客观性。(see Darwall, pp.115-189)一个理论在实践上的可行性就是使一个理论为真的条件。
最后,康德式理论对道德原则如何能够普遍应用的问题也给出了特有的回应方案。通过将道德所“规范”的内容从行为本身转变为行为抉择的方法,康德式论证在很大程度上避免了道德原则总有特例的现象。例如,罗尔斯和科斯嘉德的理论试图确立的都是作出道德抉择的合理过程,而不是具体的道德行为本身。他们提出,道德原则的普遍性体现为存在着据以作出道德抉择的普遍性的、一般性的方法。斯坎伦就这个问题作出了颇具有创造性的论述,将道德所“规范”的内容从道德行为转变为行为所依据的理由,从而使道德规范性体现于道德理由的推导过程。他明确提出,相比于对行为的规范,对道德理由的规范在更加重要的意义上显示了道德所具有的规范性。例如,“我们可以谴责”是规范性存在的直接证明。而谴责的依据往往在于行为的理由而非行为本身。一个行动者故意伤害他人同因为疏忽大意而伤害到他人,具有完全不同的道德意义。斯坎伦给出了有关理由抉择的一般性方法,并认为正确地使用这一方法就可以向我们揭示什么是道德上正确的行动。
三.当代康德式理论建构的原则何以能够具有一致性
康德式理论能够为人工智能伦理设计提供更为充分的理论基础,因而可以解决或避免已有的理论困难。然而,判断康德式理论是否应当被作为人工智能伦理设计的理论基础,还取决于其所构建的道德原则能不能够符合该领域中业已形成的若干形式上的标准。
机器伦理领域的实践先驱安德森等人曾提出,要以伦理原则来指导人工智能系统的运行,就需要把伦理学理论转化为具有一致性、完整性以及实践可操作性的原则。具有一致性,需要伦理标准具有单一的基础性原则,如果包含多个原则,就要论证关于它们优先权的顺序;具有完整性,就是说这个标准应当能够告诉我们在任何伦理两难处境中应当如何行动;而实践性这个要求能够保证我们在现实中有可能依据这个理论作出判断。安德森等人认为,对于应用于机器的算法而言,一致性、完整性以及实践性是必须要达到的标准。(see Anderson, et al.)如果道德原则意在指导具体行为,那么一般的道德原则都应具有这样的形式上的标准。很明显的是,在这三个标准中,一致性是最为基础性的,直接决定了一个规则是否能够满足另外两个标准。包含相互矛盾的同时又无法对其重要性进行排序的多种原则的理论,不能为具体情境中相互冲突的道德原则给出权衡的依据,这意味着该理论不仅无力化解道德上的两难处境,甚至可能造成更多两难处境,因而这样的理论显然不能对行动给出明确指导。
构建具有一致性的实践原则是非常困难的。一方面,来自单一理论的原则虽然能够比较好地符合一致性的要求,但在道德哲学当中,尚没有单一理论能够充分指导人工智能系统的道德抉择;另一方面,到目前为止,综合不同理论所建构的原则往往都不具有一致性。
在应用伦理研究中,综合不同理论建构实践原则的重要尝试当首推原则主义。原则主义是一种以若干得到广泛认同的、没有固定等级排序的一般原则作为基本框架的伦理分析进路。虽然原则主义已经在高科技伦理问题的研究中得到非常广泛的应用,但原则主义不是从单一的、体系完备的道德理论出发而得出的自成体系的规则,因此其原则明显缺乏一致性,无法为解决道德争端提供一个清晰、连贯、周延、明确的指导方针。如在彼彻姆(T.Beauchamp)和邱卓斯(J.Childress)提出的著名的生命伦理四原则,即尊重自主、行善、不伤害和公平分配原则当中,自主原则来自康德的道义论、行善原则来自密尔的功利主义,公正原则来自契约主义。作为各个原则来源的传统理论在很多问题上的观点本就是相互对立的,这就决定了各项原则很可能会产生矛盾冲突。在原则之间相互冲突的情况下,有着独立理论来源的不同原则无法合理排序,因此原则主义本身不可能为化解原则间的冲突提供非常具有说服力的指导。
鉴于原则主义面对的困境,如果要通过康德式理论构建人工智能的伦理原则,首先需要回答康德式理论如何能够得出具有一致性的实践原则。所谓康德式理论是在规范性的论证方式上具有显著共识的不同理论的总和,包含多个思想家的理论。在这些理论中,并没有任何单一的理论能够为实践提供充分的指导。如学者们普遍认为,虽然格沃斯通过逻辑分析的方法很好地建立起个体行动者不得不珍视的价值,但他没有对人际关系的道德意义给出说明,因而其提出的认为行动者必须尊重彼此必要善的“道德最高原则”并没有得到充分论证。(see Williams, p.61; Korsgaard, 1996, p.134; Huckfeldt, pp.23-41)斯坎伦对于人际间的道德义务作出了非常具有启发性的论证,但他的理论主要涉及道德推理应当具有的形式以及道德论辩的方法,而没有为道德论辩明确提供经验层面的裁决标准。因而,上述两种试图提出单一的最高指导原则的理论都不能独自承担指导算法设计的任务。
既然没有单一理论能够提供充分的思想资源,依据康德式理论构建道德原则,我们就不得不综合不同理论,共同构建指导人工智能系统道德抉择的原则。同上述四原则具有不同的来源一样,康德式理论也体现了不同伦理传统的特征。罗尔斯和斯坎伦的理论显示出明显的契约主义特征,科斯嘉德的理论则在很大程度上秉承了道义论思想,格沃斯试图将伦理原则建立在逻辑推理的基础上。如果在综合不同康德式理论的基础上来建构伦理原则,我们是否可能面对原则主义所面对的那种困境,即无法在不同原则相互冲突的情况下给出权衡和解决的方案?
在当代康德式规范性理论多种多样的具体观点背后存在着相同的终极依据,即道德规范及其权威性就来自人对自身理性行动性的反思。不同理论所构建的不同原则并非是通过不同方法得到论证的。罗尔斯、科斯嘉德、格沃斯以及斯坎伦等人都在人的理性行动性的基础上建构了他们的道德哲学理论,并且都借助理性行动者的自我反思进行推理。正是这种共同的理论基础可以超越不同传统的界限,使当代康德式理论能够被归为一个具有明显特色的类别。同时,这一基本特征也能够有效推动不同传统的融合。如斯坎伦曾坦言,他的契约主义理论具有很强的道义论特征。(see Scanlon, 1998, pp.5-6)各种康德式理论之间的不同仅仅源于不同理论对理性行动性这一终极依据提供了有限的理解。它们对相同理论基础的理解有各自的局限,对相同思想方法的使用也有各自的局限。因此,康德式理论的不同理解方案所呈现出的表面上的矛盾是可以通过进一步的理性论证和相互借鉴而消除的。康德式理论构建的不同原则可以形成一个具有一致性的实践指导方案。在不同理论背后存在一个完善的、统一的理论依据的情况下,我们可以得到对不同原则进行排序的普遍性标准,因而可以为实践提供明确指导。
四.依据康德式理论建构的伦理原则及其现实意义
在康德式理论中,能够对行动者的行动提供指导的原则只能来自行动者的自我反思。通过对行动性进行反思可知:第一,理性的行动需要理由;第二,行动需要基本的自由和福利,即必要善。这是仅从行动性的概念出发就可以得出的结论,我们称之为“行动性的规范性结构”的双重内涵。道德理由抉择的过程确立了道德推理的形式,对必要善的必然欲求为道德推理提供了内容。“行动性的规范性结构”为道德原则的构建提供了充分理论资源。相比于其他康德式理论,格沃斯为行动者对必要善的必然欲求给出了逻辑上更合理的论证,而斯坎伦对道德理由及其推导方式作出了最为系统的说明。下文将通过综合斯坎伦和格沃斯的理论来构建能够应用于人工智能伦理设计的道德原则。
将格沃斯对必要善的分析合并到斯坎伦有关行动者之间基本义务的理论当中,能够解决双方理论各自面对的困难,并推进对于道德规范性的论证。斯坎伦曾提出,行动者涉及他人的行为,必须以对方不能合理拒绝的理由向对方进行论证。(see ibid., p.162)这一表述为道德规范确立了普遍化的形式,但没有提供经验性的内容。格沃斯所揭示的“存在每个行动者都不得不珍视的必要善”这一事实就提供了一种具有普遍性的经验。必要善是任何人都无法合理拒绝的,可以为斯坎伦的理由权衡提供一个具有普遍性的终极依据。同时,格沃斯的理论也可以通过借鉴斯坎伦有关理由的论述得到完善。格沃斯证明了行动者对必要善的必然需求,但并没有成功地论证,为什么一个行动者可以要求其他行动者尊重自己的必然欲求,让其他行动者因此负有一种义务。“理由”这个概念内在地包含着主体间的向度。在斯坎伦看来,理由就来自行动者与他人之间的关系。有关理由的论证可以解决格沃斯从私人理由到公共理由的推导中所遇到的障碍。
道德理由是通过理由论辩的过程确立的。斯坎伦将理由论辩的方式表述为:“在特定情境下,如果一个行为的发生不能得到任何普遍原则的允许,那么,这个行为就是不正当的。这些原则作为拥有充分信息、不受强迫的人们达成普遍一致的基础,是没有人能够合理拒绝的。”(ibid., p.153)简单地说,“没有理由拒绝”就是道德论辩的标准。采用“没有理由拒绝”的标准能够避免契约主义和某些形式的功利主义常常可能导致的集体对个体的侵犯,给予每个个体的自主性以充分尊重,并且促进个体价值的发展。一直以来,关于技术的伦理是人在对外部世界进行控制的过程中形成的,因而更加注重成本和收益。然而,当代技术在改造世界的同时也在持续构建着人的本质,指导和约束技术发展的伦理原则应是在最大程度上对人的内在价值给予尊重的原则。
综上,我们可以通过康德式理论得出建立人工智能伦理原则的基本前提:其一,我们应当就每一个行为向行为所涉及的行动者证明,该行为是由没有理由拒绝的原则所支持的;其二,行动者不得不欲求必要善。根据这两个前提,我们可以推导出以下三个原则:
其一,不侵犯原则:任何行动不能侵犯行动者的必要善。必要善是行动者不得不欲求的。在理由权衡的过程中,必要善是具有最大权重的理由。准许侵犯行动者的必要善的原则是其必然有理由拒绝的。
其二,平等原则:所有行动者的必要善平等。通过理由论辩,行动者彼此之间建立了相互认可的关系,将彼此认可为道德规范性的来源。既然所有行动者都不得不欲求自身的必要善,那么就“不可侵犯”这一性质而言,所有行动者的必要善平等。一个行动者的必要善受到伤害同其他行动者的必要善受到伤害,总是具有同等的道德上的权重。
其三,援助原则:当行动者A的必要善处于威胁之中,如果A的必要善的维护完全取决于B的援助,并且B完全有能力援助,那么,在援助行为不会导致任何行动者的必要善受到侵犯的情况下,B应当援助。
实现自身的行动性就是通过行动理由的确立而实现自我的统一。行动者B此刻据以行事的理由应是今后任何时候处于相同的情况下愿意再次据以行事的理由,应是与A角色互换之后仍愿意据以行事的理由。如果行动者B认为他不得不追求自身的必要善,那么在上述情境中,他就无法合理地拒绝援助。
当然,原则三的应用有一定界限。任何行动不应当导致必要善在不同行动者之间非对称地转移。(see Gewirth, p.104)如果援助行动必将导致某行动者必要善的丧失,那么这一援助义务就可以免除。并且,斯坎伦说明了行动理由只能来自具体情境中的经验事实。在个体对相关事实没有确切把握的情况下,例如在辛格(P.Singer)所描述的海外援助的情况中,援助义务就不能得到确认。
辛格在发表于1972年的《饥荒、富裕和道德》一文中探讨了与饥荒和贫困相关的道德问题。辛格试图在该文中论证,富裕国家的人民有义务捐出收入的大部分用于海外援助,并且他们将一直负有这一义务,直至变得和贫困国家的人民一样贫困。(see Singer)辛格文中描述的情景部分满足援助义务的成立条件:一方面,绝对贫穷毫无疑问是对于人的必要善的侵犯;另一方面,自身衣食无忧并且在个人享受方面花费颇多的人,显然可以在不损失自身必要善的前提下为那些亟需援助的贫困国家人民提供其所需要的至少部分物资。但是,辛格对于援助义务的论证还是忽略了一个重要条件,即援助义务应当结合具体情境进行论证。我们需要在具体情境中确认,一个人的必要善的维持在非常大的程度上取决于另一个人的援助。即便我确定地知道在异国他乡有人处于绝对贫困,但我不清楚他的亲属、朋友是否无法对他提供援助,也不清楚他的国家的政府是否拒绝对他提供援助。对于这些主体自身而言,为亲属、朋友或国民提供援助的行为是具有重大道德意义的。我不能默认这些主体已放弃援助,因而也就不能评判我的援助将发挥的作用。
相比之下,死后器官捐献的情境在更大程度上符合援助义务成立的条件。一方面,我们在死亡后不需要器官来维持必要善;另一方面,被捐献的器官必定被用于维护某人的必要善,并且发挥不可替代的作用。目前全球范围内器官供体短缺严重。每年有数量巨大的患者因为没有适合的器官而在本应充满活力的年纪离开人世,亦有很多人因无法得到适合的器官,日复一日忍受痛苦,无法正常生活。在这种情况下,即便捐赠者完全不知道谁是受捐者,不了解他的任何信息,也仍然可以确定,受捐者的基本善完全依赖自己捐献器官的行为。
以上原则就是依据当代康德式理论推导出的基本道德原则。这三个原则恰好是很多道德哲学理论中曾描述过的“人的道德地位”的要求。人的道德地位限定了人类成员应受或者不应受何种对待的最低标准。以符合这一标准的方式行事,是所有道德行动者的义务。有关这一义务的具体内容,人们已形成比较普遍的共识,如沃伦(M.Warren)曾经提出,所有人具有充分道德地位意味着我们不能杀害、攻击、欺骗、折磨或不公正地囚禁他人,并且,我们不能在我们能够帮助且他们需要帮助的时候不去帮助。(see Warren)在《道德之维:可允许性、意义与谴责》一书中,斯坎伦表达了相似看法,即人的内在价值要求我们对彼此持有特定态度:不能以伤害彼此的方式行事,在可能的情况下帮助他人,以及不要误导他人,等等。(see Scanlon, 2008, p.140)佳沃斯卡(A.Jaworska)等人则在《道德地位的基础》一文中列出了最高等级的道德地位要求的权利,即不被侵犯,在需要的时候得到救助,以及受到公平对待。(see Jaworska & Tannenbaum)可见,“不侵犯”“获得援助”“平等”作为人的道德地位的核心要求已获普遍认可。然而,这一共识性的观点尚未得到系统论证。上文通过康德式理论推导出三个道德原则的过程为其提供了论证。三个原则均来自具有共同思想方法的康德式理论,因而我们也能够在原则互相冲突的情况下进行合理排序。
以上三个原则能够为某些经典的道德难题提供比较合理的回答。例如,在“电车难题”中,根据“不侵犯原则”,拉动扳手使列车撞向1个人而避开5个人的行为显然是错误的,因为那是某些行动者(将会被撞到的那个人)有理由拒绝的。在此情境下,所谓“援助”的行为会导致无辜的人丧失其必要善,因而也不符合“援助原则”应用的条件。相反,如果行动者决定不拉动扳手,那么行动者的选择同任一原则都不会产生相矛盾。由此可知,无论主道和旁道上分别有几人,行动者作出拉动扳手的行为一定是道德上错误的,同时不采取任何行动则至少不是道德上错误的。
在自动驾驶的伦理问题探讨中,一个困扰人们的两难处境是:如果一辆自动驾驶汽车在接下来的时刻要么撞到一个老人,要么撞到一个儿童,系统应当如何抉择?根据“平等原则”,老人和小孩同为行动者,他们的必要善平等,因而为了一方的必要善而牺牲另一方的显然是道德上错误的。在这种情况下,系统只需判断救哪一方的胜算更大,并将这一判断作为行为依据。如果胜算相等,那么无论系统决定救谁或牺牲谁,都不是道德上错误的。
由此看来,来自康德式理论的三个原则似乎常常支持系统或行动者不主动采取行动。但这并不说明这套原则不能给予实践好的指导,因为核心原则所规定的本就应是最基本的道德义务,道德规范性的范围也仅涉及最基本的道德义务。相比于其他原则,以上原则至少不会传达例如“五个人生命的价值大于三个人生命的价值”或“儿童生命的价值大于老年人生命的价值”这种道德上错误的观念。
在确立基本道德义务的同时,以上原则也为特殊的关系和承诺留出了空间。在斯坎伦的理论中,基本的道德义务是通过人际关系得到论证的,人际关系是理由的来源。斯坎伦曾提出,道德理由反映的是个体与他人之间有价值的连接。(see Scanlon, 1998, p.337)甚至,道德原则之所以重要就因为我们与他人的关系是重要的。(see Scanlon, 2008, p.6)那么,完全的陌生人之间是否存在某种关系,可以作为限制彼此行为的道德原则的基础呢?斯坎伦提出,在所有行动者之间,无论相识与否,都存在着一种关系,即“理性存在物同伴”(fellow rational being)的关系。(see ibid, pp.139-140)同为理性存在物的我们都具有理解理由的能力,这就要求我们在作出涉及他人的行动时,应当通过理由向对方进行论证。这也是最基本的道德义务。如果说“理性存在物同伴”的关系确立了基本义务,那么进一步的关系和承诺当然可以产生进一步的义务。例如,朋友关系要求彼此发自内心的关爱。对于特殊承诺和关系的尊重并不会影响基础道德原则的普遍性,这是因为,基础性的义务和进一步的义务分别来自不同层面的关系。
余论
人工智能系统可能具有自主分析和判断的能力,可能针对特定情境自主决策或行为。(参见董彪,第2页)伦理设计问题已成为人工智能研究领域亟待推进的问题之一。当代的相关研究所面对的种种理论困难均曾在道德哲学的历史上得到过深入探讨,相关探讨对于规范伦理学的发展产生了重要影响。历史中的思想资源揭示了现实困境的来源,为理解当代问题提供了重要线索。思想史和现实困境间的相互印证向我们揭示,要为人工智能系统提供具有实践可操作性的指导原则,就不得不首先建立一种具有普遍性、客观性和权威性的道德规范。
当代的道德规范性研究对此提供了非常具有前景的解决方案。康德式理论通过揭示每个人在其自我反思中均不能否认的事实,为普遍性的道德原则确立了基础。它还通过论证道德原则所规范的并非行为本身而是理由抉择的方法,使道德原则能够在各种情境中始终保持权威性。依据康德式理论构建的伦理原则对基本道德义务给出了符合常识的阐释,对于当代人工智能技术应用所引发的伦理困境也能提供比较合理的解决方法。
总之,当代规范性理论研究为理解和应对现实困境提供了重要思想资源,同时,现实中的伦理困境也为反思道德哲学理论提供了重要视角,新技术发展所昭示的各种可能性为道德哲学的理论推演和规范的确立提供了实验场所。无论未来的人工智能是否能够成为真正意义上的充分的道德行动者,我们为此所作的理论准备终将在前所未有的程度上推进我们对于道德规范性问题的阐释和分析,并为伦理学历史上影响深远的理论难题给出意蕴深刻的回答。
【注释】
*本文系国家社会科学基金重大项目“大数据驱动下的生命科学研究范式变革研究”(编号22&ZD045)的阶段性成果。
[1]例如,对必要善的权利主张在格沃斯对于根本性道德义务的论证中是至关重要的,而这一主张恰恰全然内在于行动中的理性行动者的视角,因而格沃斯的论证揭示了道德和行动者的自我理解间的必然连接。在科斯嘉德看来,依据行动者的定义,行动者必须把自身构建为一个整体,因此,让行动者自身达到精神统一的那些原则就是行动的规范性标准。(参见科斯嘉德,2009年,第10页)
原载:《哲学动态》2023年第5期
文章来源:“哲学动态杂志”微信公众号(2021.6.19)
中国社会科学院哲学研究所-版权所有