阴昭晖,山西灵石人,清华大学哲学博士,中国政法大学法学博士后,清华大学-佛罗里达大学联合培养博士,佛罗里达大学哲学国际学者(2015.12-2017.9),现任中国政法大学人文学院讲师、硕士研究生导师,主要从事人工智能哲学与逻辑、法律逻辑、法治文化研究。在《哲学研究》《哲学分析》《清华大学学报》等期刊发表论文多篇,出版学术专著《本体论的逻辑基础》,主持国家社科基金1项。
摘 要:在探讨智能机器是否具备成为伦理能动者的资格时,一个普遍被认可的先决条件是,它们能够进行高水平的价值或道德推理。因此,研究如何将现代逻辑有效地嵌入智能机器之中就具有理论意义和现实需求。从逻辑学的观点看,自动驾驶电车难题可以被形式化为一种冲突情境下的非单调规范推理问题。而通常用以处理规范推理的道义逻辑面临着处理冲突能力不足及约根森困境等挑战。为应对这些问题,霍尔蒂提出的缺省逻辑主张摆脱经典道义语义学的束缚,转而将规范句表达为缺省蕴涵公式,且创造性地通过极大地满足规范集中位阶最高的规范子集来确定规范句的真值。这一方法显著增强了其形式刻画能力。在霍尔蒂理论中,电车难题被重构为一个缺省理论模型,据此可以对不同驾驶情景的价值推理及价值属性进行有效的逻辑分析。此外,可以构建一种基于主体性的价值分析框架,将其作为剖析自动驾驶电车难题的伦理基准与逻辑起点。
关键词:自动驾驶电车难题;缺省逻辑;价值推理
一、引言
“我谨向各位提出一个值得深思的问题:机器是否具备思考能力?”此问题源于图灵(Alan Turing)在1950年发表的具有里程碑意义的论文《计算机器与智能》。他在文中表达了对该问题的肯定性立场,并进行了深刻而富有哲学意蕴的论证。这对人工智能的开创与发展都产生了深远的影响。接下来的数十年间,尽管人工智能的技术与观念经历了起伏跌宕,但上述图灵的问题始终作为核心话题被持续地关注与研究。当前,人工智能又一次步入快速发展阶段,特别是深度神经网络及以ChatGPT为代表的大型语言模型等技术取得突破性发展,机器已经在某些特定任务上展现出惊人的“智能”,甚至超越了人类。人工智能的应用也正广泛地进入人类社会的方方面面,独立或协助人类作出重要的算法决策。在新一代人工智能中,自动驾驶(autonomous vehicles)已成为一个在技术成就与发展预期方面获得广泛认可的重要领域,其被中国、美国及欧洲等多个主要国家纳入国家级的人工智能发展战略之中。尽管自动驾驶的理论与实践仍面临诸多挑战与难题,但作为一个能够深刻影响人类生活、生产方式的关键领域,自动驾驶的普及不仅将显著提升道路交通的效率与安全性,也有助于将人类从单调重复性劳动中解放出来,进一步激发新的生产力和创造力。
“自动驾驶电车难题”作为智能化时代对经典“电车难题”的深化和拓展,已不再局限于思想实验式的纯粹理论探讨,而是涉及自动驾驶领域中的伦理抉择、价值推理、技术实现以及法律规制等实际问题。因此,它成了计算机科学、哲学、伦理学和法学等跨学科研究的对象。从逻辑学的观点看,自动驾驶电车难题可以被形式化为一种在规范冲突情境下的非单调规范推理问题。价值推理作为一类重要的规范推理,被看作新一代人工智能逻辑的重要研究方向。一般认为,智能机器若要成为伦理能动者,必须具备进行高水平价值或道德推理的能力。自动驾驶系统在形成高可控性、可解释性的驾驶决策过程中,价值推理同样发挥关键作用。具体而言,自动驾驶电车难题涵盖了以下两个密切关联的主题。一是自动驾驶电车难题的伦理方案(算法价值),这是逻辑分析的哲学前提。目前学界的思路主要在义务论与功利论之间打转,这种视野上的局限性影响了西方人工智能专家开发用以处理道德两难的自动推理系统的思路(参见徐英瑾,第96页),规范伦理学的对象性价值分析方式使自动驾驶电车难题陷入“无解”(参见阴昭晖,第128页),现实中大众对自动驾驶的复杂伦理考量也需要多元理论的解释(cf. Bergmann,pp.1-12)。本文主张,应当构建一种基于主体性的价值分析框架,将主体的权责规范视为剖析自动驾驶电车难题的伦理基准与逻辑起点。二是自动驾驶电车难题的算法方案(价值算法),这是伦理方案的逻辑实现。主流的方案有数据驱动型、规则驱动型、数据-规则集成型等,其中数据驱动型方案依赖海量数据和计算能力,可以灵活地、动态地描述人类驾驶偏好,但机器习得的也只是间接的、经验性的价值规则,缺乏人类价值共识的直接导向;规则驱动型方案依赖细致的逻辑推理,可以明确表达人类伦理规范和价值取向,也具有良好的可解释性,但规则的系统封闭性导致对复杂场景的实时动态描述能力有限;数据-规则集成型方案则试图将两者整合起来以增强算法的可解释性与灵活性,如数据规则双驱动(参见廖备水,2024年)等。
本文将引入一种新的逻辑分析方法,以增强道义逻辑在规范冲突情境下的处理能力,进而优化基于数据-规则集成型自动驾驶方案。该方法的核心源于逻辑学家霍尔蒂(John Horty)创立的缺省逻辑理论。他主张摆脱经典道义语义学的束缚(cf. Horty,2014,pp.421-460),以应对传统道义逻辑处理规范冲突时的局限性。相较于其他研究规范推理的逻辑方法,如动态偏好逻辑(cf.van Benthem,pp.503-519;参见刘奋荣)或形式论辩逻辑(参见廖备水,2022年,第45页)等,霍尔蒂的缺省逻辑展现出以下特征:(1)霍尔蒂理论将规范系统视作祈使句集,根据道义句是否极大地满足优先度最高的祈使句子集来确定道义句的真值,从而使其具备了对规范冲突的处理能力;(2)霍尔蒂理论中道义句的真值是基于不同规范句之间的相互关联与影响而确定的,这不仅赋予其阐述规范的一阶推理能力,更使其能够深入刻画更为复杂的高阶推理;(3)霍尔蒂理论能在保持基础模型结构特征不变的前提下实现上述推理的刻画,具有很强的理论适配性。可能正因如此,其理论得到很多学者的关注,甚至被认为是在容忍规范冲突的各种非单调理论中最有发展前途的一个(参见孔红,第33页),这也使其成为一种恰当且有效地描述自动驾驶电车难题的形式方法。本研究旨在通过这种新的方法和视角,增进对“电车难题”这类经典伦理学问题的理解。同时也希望以此例示,现代逻辑的技术方法和理论视角能有效回应新一代人工智能快速发展中带来的一些新兴问题和挑战。
二、自动驾驶电车难题:算法如何分配生命安全
自动驾驶电车难题,是指自动驾驶车辆在完全自主决策与行动能力下,面对无法规避的事故情境以及在预设的价值准则或伦理原则间产生冲突时,所遭遇的一种现实伦理困境。这一难题的核心在于,在突发紧急状况下,自动驾驶系统须依据预设的伦理策略,对交通参与者的生命安全进行算法权衡与分配。此问题包括以下两个方面。
(一)自动驾驶的算法价值
应该采用哪种价值原则或伦理方案来确保算法分配的公正性与合理性,即自动驾驶的算法价值问题。当前的分析多沿用规范伦理学的方式和成果,把对经典电车难题的讨论“移植”到自动驾驶电车难题,使规范伦理算法化。例如,当遭遇到电车难题情境,自动汽车不得已只能在车内乘客和路上行人间取舍时,算法是否应该坚守义务论原则,始终以保障车内乘客的安全作为最高优先级。或是,在路上行人数量远超车内乘客的情况下,是否应当遵循“损失最小化”的功利论原则,优先确保行人的安全。按照对经典电车难题的探讨,功利论原则在人类面临类似道德困境时似乎成为一种“本能选择”,且该原则也被广泛运用于人工智能道德决策,特别是在自动驾驶汽车事故算法的讨论之中。如格劳(Christopher Grau)曾对“整体伤害最小化”的算法原则作出辩护。(cf. Grau,pp.52-55)鲍尔斯(Thomas Powers)则从伦理规范算法化的角度深入探讨了康德的“绝对命令”所蕴含的一致性、连贯性等形式特征,并设计出了一套自动驾驶道义论算法。(cf.Powers,pp.46-61)
从价值哲学的维度看,自动驾驶的这种功利论或义务论的分析框架,采用了一种对象性的价值分析方法。此方法论将价值关系中的客体及其固有属性视为价值衡量与后果计算的唯一基准。假若以“整体伤害最小化”作为自动驾驶的伦理原则,则意味着算法在权衡利弊时,多数人的生存利益被置于优先地位,即在特定情境下,自动驾驶可能会选择以牺牲车内一名乘客为代价,以保护路上五名行人的生命安全,此“五命换一命”的决策符合“人数价值”最大化的功利论原则。然而,若基于另一种评价标准,考量该名乘客的社会身份、地位等因素,比如其是一位对社会有显著贡献的伟大科学家,那么他的社会价值便可能被视为超越数量上占优势的五位行乞者路人,此时“一命换五命”的决策亦符合“社会价值”最大化原则。基于数量的价值权衡是规范伦理学,尤其是后果主义的一个重要的理论基石,规范伦理学内部围绕“人数问题”也作了很多讨论,如陶雷克(John Taurek)在其著名论文《人数真的重要吗?》中主张,在冲突情境下进行道德选择时,人数不应成为决定性因素,多数人一方的死并不比少数人一方的死更糟糕,应通过随机选择程序(如抛硬币)来作出道德决策。(cf.Taurek, pp.293-316)而陶雷克的观点也得到了众多的讨论及批评。(参见王薛时,第80页)
规范伦理学的分析朴素且契合多数人的道德直觉,但它在一定程度上割裂了价值关系中主体与客体的内在联系,预先排除或忽视了作为价值主体(自动驾驶车辆)所遵循的规范与原则等因素考量,仅聚焦于价值客体(行人与乘客)及其相关属性(人数、社会角色、身份地位等)来进行利益权衡和后果计算。徐英瑾认为,从西方规范伦理学的视角审视自动驾驶领域的“电车难题”,其内在蕴含了一种“无知之幕”的预设,即在构建相关叙事时,包括主客体在内的所有相关方的社会背景与具体信息均被虚化,仅能关注对于某些伦理理论或原则的适用性探讨。而这种处理方式无疑只会使问题陷入二元对立的困局之中。(参见徐英瑾,第99页)
本文主张,可以构建一种基于主体性的价值分析框架,将主体的权责规范视为剖析自动驾驶电车伦理难题的伦理基准与逻辑起点。所有价值议题均蕴含鲜明的主体性特征,即探讨价值问题时的首要任务是界定“谁之价值”。因此,须明确价值关系中的主体,确立一套基于主体的价值评价标准,作为研究所有价值问题的出发点。在自动驾驶电车难题的情境中,当探讨应该采取何种救援措施时,救援者与被救者之间就已经建立起了特定的价值关联。救援者(自动驾驶车辆或智能机器)是价值主体,而被救者(乘客和行人)是价值客体。救援方案(即自动驾驶的算法价值)应当基于自动驾驶车辆本身的价值准则或伦理原则来制定。这涉及以下两个方面。其一,智能机器是否具备主体性。此议题在学术界已有广泛探讨,但非本文的主要内容。为了便于讨论,本文预设自动驾驶具备功能性的价值拟主体性特征,即人类赋予自动驾驶在特定情境下自主进行价值判断的能力与权限,从而使其能够在相关情境中担当价值主体的角色。其二,作为主体的自动驾驶车辆应遵循何种规范体系,并如何据此作出伦理选择。李德顺提出,基于主体性进行价值分析的核心在于,依据不同价值主体的身份与角色、明确其权利与责任,以寻求权责的对等统一。(参见李德顺,2017年,第9页)自动驾驶车辆依据其功能特性与用途,可细分为多种类型,如自动驾驶校车、自动驾驶公交车及自动驾驶私家车等,各类型车辆承载着不同的价值规范体系,体现出其算法价值或价值取向。本文将在霍尔蒂理论框架下,对电车难题及智能主体进行逻辑刻画,即把自动驾驶内置的价值规范及价值位阶表示为缺省规范集及其偏序关系,并描述自动驾驶的价值推理机制。
(二)自动驾驶的价值算法
自动驾驶中的价值算法问题,核心在于如何将预设的价值准则与伦理原则,转化为机器能够识别并执行的算法程序或逻辑框架。自动驾驶技术的一个基本目标是模拟和实现“类人驾驶”。根据瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)的论述,应当由哲学家与计算机工程师协同设计具备自主道德行为的人工智能道德体(AMAs)。(cf. Wallach and Allen)他们提出了三种理论路径:自上而下的、自下而上的以及上下混合的方法。在自动驾驶技术的实践发展中,广泛应用的算法方案与艾伦提出的理论路径基本一致,主要包括数据驱动型、规则驱动型以及数据-规则集成型驱动方案。
数据驱动型自动驾驶方案是当前的主流方案。该方案的核心在于运用深度神经网络等技术,广泛收集并精细标注相关道路交通数据,从而使自动驾驶算法能够学习人类驾驶员在特定情境下的驾驶偏好及其价值取向。例如,雷本(Derek Leben)借鉴罗尔斯的“最大化最小值原则”,设计了一种自动驾驶“事故算法”。当事故发生时,该算法通过在特定的数据集中识别事故各方的“生存概率”,作出使最低生存收益最大化的决策。(cf. Leben,pp.107-115)然而,单纯的数据驱动型自动驾驶方案在推进中面临多重挑战。首先,其缺乏对人类价值观的直接表达。单纯数据驱动的算法本质上只是通过学习模仿人类行为间接预测人类的价值取向和伦理考量,这导致算法在处理细粒度规范及价值冲突时显得力不从心。(参见廖备水,2024年)其次,数据相对稀缺性已成为制约自动驾驶算法进一步发展的关键瓶颈。随着交通系统的发展,关键数据和非正常状况下的数据采集和获取难度日益增大。再者,深度神经网络已成为自动驾驶主流技术的核心,但其输出结果的不可预测性以及决策过程的不透明性,对交通安全、相关伦理准则和法律监管提出了诸多挑战。最后,由于机器学习缺乏复杂的演绎推理能力(cf. LeCun et al.,pp.436-444),这严重限制了自动驾驶技术在处理复杂问题上的能力上限。
规则驱动型方案的核心在于运用现代逻辑技术,将智能机器遵循的规范行为转化为形式化符号演算体系,并构建相应的语义模型以精确刻画其中的推理机制。为提升自动驾驶的稳定性,它预先设定了针对关键驾驶场景和任务的决策方案,并将其集成至算法之中。此方案的优势在于,它能有效降低对海量数据的过度依赖,依托逻辑建模,确保智能机器在数据不足或特定情景下,仍能执行相对合理、可靠的推理决策。然而,纯粹依赖规则驱动的符号推演机制,实际上构成了一个相对封闭的体系。该方案在运行效率、应用范围及实时场景交互能力上均有所不足。此外,构建一套能够全面覆盖所有潜在驾驶情境的规则集极具难度,许多复杂或偶然的情境不能被完全识别或枚举。
数据-规则集成型方案将数据和规则方法并行运用。其中,数据方法所得信息构成了规则方法的前提条件,而规则方法的推理结果则成为优化数据算法的原则与基础。在自动驾驶汽车面临不可避免的碰撞情境时,其进行价值决策的依据,源自预设于机器中的价值规范与伦理原则,以及通过人类驾驶员案例集提取的特征信息。此集成方法旨在实现数据与规则的优势互补:一方面,借助逻辑方法将价值与伦理规范转化为知识,并通过推理机制来指导价值决策的制定;另一方面,通过大数据分析人类价值决策的偏好,对价值规范集中的价值位阶与权重进行优化调整,从而确保自动驾驶车辆或智能机器能够更精准地反映不同情境下人类的价值决策信息。
三、规范及其冲突的逻辑:从道义逻辑到缺省逻辑
自动驾驶车辆在面临规范冲突时,仍须作出可靠的驾驶决策。而此类冲突往往伴随复杂情境,因而这些情境下智能机器的推理能力就成为衡量“机器智能表征”的关键要素。规范冲突下的价值推理是一种非单调推理,通常的道义逻辑难以准确刻画这种冲突,缺省逻辑是更为合适的方法。
(一)规范及其冲突的道义逻辑
现实生活中存在着各种规范领域,如道德或法律规范等,尽管不同规范在构成要件、价值内涵、实施条件等诸多方面不尽相同,但规范的语言表达(规范句)却具有一种共同的逻辑结构,即不同类型的规范句通过其逻辑句法可以体现出相同的逻辑规范性。规范的根本在于对预设标准或规则的遵循,而逻辑规范性的根本就是对呈现于语言中的逻辑句法和结构的遵循。[维特根斯坦对语言的逻辑规范性作了深刻考察。《逻辑哲学论》一书将逻辑结构或句法看作命题和实在所共有的东西,而这种逻辑结构需要在命题中显示自身的规范性作用。具有清晰性和明确性的命题逻辑结构,是一切主体及其行为的事态之规范性所在。维特根斯坦对规范性的研究展现出多样化的形式,还包括《哲学研究》中的语法规则,以及晚期在《论确定性》中强调的命题的规则性效用。]
规范冲突是指在相同效力等级中,针对同一种价值、伦理或法律关系的规范之间出现了约束交叉,导致其行为结果不相容。因此,当一个规范适用或满足要求时,必然会导致另一个规范无法适用。在自动驾驶电车难题中,当车内乘客与路上行人面临生死抉择时,若要求自动驾驶系统同时遵守以下两条规范,则会导致不相容的驾驶后果:“应当避免伤害车内乘客”与“应当避免伤害路上行人”。换言之,保护乘客必然导致行人受伤,而保护行人则必然使乘客遭受伤害。因此,这两条规范就构成了冲突。值得注意的是,“不相容”一词可以有不同的含义或解释,但在严格的语境下,不相容指的就是逻辑意义上的不相容,即与在逻辑上不相容,意味着逻辑蕴涵¬。
现代逻辑发展中的一个重要问题是,如何精准地描绘那些普遍存在的、蕴含冲突前提的推理过程,并确保在一定程度内接纳此类冲突。道义逻辑的产生和发展推动了此问题,且许多道义逻辑系统本身也都具有漂亮的可靠性和完全性结果。(参见余俊伟,第13页)然而,通常的道义逻辑无法有效处理规范冲突,只能把冲突视为一种逻辑矛盾。以标准道义逻辑(SDL)为例,作为一种广义模态逻辑,其语义源于真性模态语义,即一个命题是应当的或者义务的,当且仅当该命题在道义理想世界中是真的。SDL的特征公理是:¬ (∧¬ )。同时,SDL也是经典命题逻辑的一个真扩张,经典命题逻辑的所有定理也是标准道义逻辑的定理。假设SDL的前提中存在着两个冲突的规范:和¬ ,那么根据SDL的特征公理,前提中就会出现矛盾:¬ ∧¬ ¬ 。又根据命题逻辑的∧¬ →,可以得出:¬ ∧¬ →。这就意味着,如果SDL中存在规范冲突,那么其可以推出一切。可见SDL本身是一个不能容忍冲突的道义逻辑,它只能够处理没有冲突的规范推理。尽管像范·弗拉森等人也试图对SDL中的某些规则和定理进行修正,以提升SDL解决冲突的能力(cf.van Fraassen,pp.151-172),但成效并不显著。因此,有必要建构一种新的逻辑框架,对道义算子、道义语境中的“真”“逻辑后果”等核心概念作出新的解释,以便更有效地应对规范冲突。
(二)霍尔蒂的缺省理论
霍尔蒂在研究规范推理的过程中,同样意识到了上述问题的存在。(cf.Horty,2003)霍尔蒂借鉴了里特(Ray Reiter)的缺省语言和范·弗拉森的语义方法,构建出了一种新的缺省理论。霍尔蒂的缺省语义,首先要求在一个具体且明确的道义情境中,详尽描述出该情境内的各种条件与规范要求。然后,据此再确定道义句的真值。其理论建构中的一个关键是,如何理解并描述规范以及规范系统。他将任一规范表示为缺省蕴涵公式,其特点是承认例外的存在。例如:缺省蕴涵式“⇒”可以被解释为:“如果崔迪是鸟,那么崔迪会飞。”然而,它显然包含着例外情况:若崔迪为一只企鹅时,崔迪就不会飞。在此基础上,霍尔蒂又将任一规范系统表示为含有偏序关系的祈使句集合。以(,
)为例,此二元组表示一规范系统,其中是规范集,
则是此规范集上的一种偏序关系,该偏序关系表达了不同规范间的效用优先度。这样,霍尔蒂给出了缺省语义:
相对于规范系统(,
)为真,当且仅当极大地满足优先度最高的规范子集。
霍尔蒂又进一步定义了带偏序关系的缺省理论,该理论以三元组的形式表示为=(,,
)。其中是一个用以陈述事实的有穷描述句集,是一个有穷缺省蕴涵公式集;
是上的偏序关系,如“
”就表示“优先于”。对于任意给定的规范=⇒σ,我们将其前件记作(),在此规范中即为;把其后件记作(),在此规范中即为σ。特别地,对于一个缺省蕴涵公式集,()={()∣∈}。在缺省理论框架下,一个方案(scenario)被定义为的一个子集。而任一有约束的方案则必须同时满足以下三个条件:被触发(triggered)、无冲突(not conflicted)和不被废止(undefeated)。具体而言:
(1)被触发是指在采用某一缺省规则进行推理时,该规则必须处于可被潜在违背的状态。在方案中,所有被触发的缺省蕴涵公式均属于以下集合:
该条件表明,在特定情境下,若针对此情境的描述以及方案所得出的结论,能够逻辑地推出某一既定规则的前件,则此规则就被触发。
(2)无冲突是指在推理过程中,所用到的任意缺省规则必须保持一致。若方案中存在一组相互冲突的缺省蕴涵公式,它们共同构成了以下集合。而与这种情况相反的状态,就被称为无冲突。
该条件表明,在特定情境下,若关于该情境的描述与方案的结论能够逻辑地推出某一规则前件的否定,则表明该规则存在矛盾,即该规则有冲突。反之,就是无冲突。
(3)不被废止是指在推理过程中,所用到的缺省规则都不会被具有更高优先度的规则所废止。以下方案中存在被废止的缺省蕴涵公式集,与此相反就是不被废止。
该条件表明,在方案下,若特定规则被触发,则这些特定规则的优先度将高于规则。进一步,若对情境的描述和这些规则的后件能够逻辑地推出规则的前件,那么规则被废止。反之,就是不被废止。此外,在方案下的约束(Binding)集定义如下:
这一定义意味着,若某一规则被触发且在方案中无冲突且不被废止,则该规则在S下约束。
若上述三项条件均得到满足,那么一个合适的方案就是
。此时,方案就可以被视为缺省理论=(,,
)的一个缺省扩张(default extension)。“扩张”是缺省逻辑中最核心的概念之一,是在原有信息的基础之上通过缺省推理承认另外一些合理的信息,从而把一个不完全的理论映射为一个较完全的理论。自动驾驶电车难题的缺省逻辑分析,就是试图通过建构“缺省扩张”扩充对各种复杂驾驶情境的认识。
四、自动驾驶电车难题的霍尔蒂缺省方案
在本节中,我们将采用霍尔蒂缺省方案来重塑自动驾驶电车难题。
(一)自动驾驶电车难题下的价值推理
根据霍尔蒂的缺省方案,任意智能主体对应于一组有序对:(,
),其中表示该智能主体的价值规范集,
表示价值位阶,它表达了一种价值规范的优先序关系。如果任意一组有序对都可以唯一地标定一个智能主体,那么任一规范冲突情境就可以定义为由描述相关情境的陈述句集和此情境下的智能主体构成,即任意规范冲突情境是一个三元组(,,
),其中是描述冲突情境的陈述句集,(,
)是此冲突情境下的智能主体。自动驾驶电车难题就是一种具体的规范冲突情境,因而可以把自动驾驶电车难题定义为一个三元组1=(,,
),其中:
是描述自动驾驶电车难题情境的陈述句集。例如:
(1)1道路前方有5名行人;
(2)2车内有1名乘客;
(3)3如果这辆自动汽车继续沿原路行驶,就会撞死5名行人,而车内1名乘客存活;
(4)4如果这辆自动汽车紧急转向避让,那么它就会撞向路边建筑物从而导致车内1名乘客死亡,而道路上的5名行人得以存活;
(5)5当前的情况自动汽车有且只有两种选择:要么继续沿原路行驶,要么紧急转向。
是这辆自动驾驶汽车的规范集,且包含了它的所有规范。例如:
(1)1应当避免伤害路上的行人;
(2)2应当避免伤害车内的乘客;
(3)3若有且仅有行人中有儿童,应当避免伤害这些儿童;[需要注意的是,3是一个蕴涵式,但它并不能被理解为逻辑蕴涵,因为它作为一种规范得允许例外,而逻辑蕴涵是不能表达例外的。因此一个常见的处理方法是将3记为缺省蕴涵公式“⇒”,其中表示“有且仅有行人中有儿童”,表示“应当避免伤害这些儿童”。类似地,1和2也分别被记为“T⇒”和“T⇒”,不同之处只是是逻辑常真号,表示“避免伤害道路上的5名行人”,表示“避免伤害车内的1名乘客”。这样就可以被表述为以下形式的缺省蕴涵式集:={T⇒,T⇒,⇒}。]
(4)4在保障行人、乘客安全的情况下,应当避免车辆损坏。
是这辆自动驾驶汽车的偏序关系, 也是价值位阶体现了主体不同的价值取向。例如:
(1)如果1
2,那么对应于价值取向:1“应当尽最大可能保护更多人”;
(2)如果3
2,那么对应于价值取向:2“应当尽最大可能保护儿童”;
(3)如果2
1,那么对应于价值取向:3“应当尽最大可能保护车内乘客”。
在对1下智能机器的价值推理进行阐述之前,需要首先明确价值判断句的定义。价值判断句涉及特定主体对特定客体所作出的价值有无、大小或种类等性质的主观陈述句。价值句的逻辑表述则是含有“好的”“坏的”等基本价值词的陈述句。用算子表示正价值“好的”,算子表示负价值“坏的”。对于任意命题变元,和ℬ分别被读作“是好的”和“是坏的”。
在任一规范冲突情境(,,
)下,
·“是好的”可以被记为:(,,
)⊨;
·“是坏的”可以被记为:(,,
)⊨ℬ。
按照上述霍尔蒂缺省语义,是“好的”或“坏的”取决于被触发的位阶最高的规范。给定任一规范冲突情境(,,
)以及规范∈,如果├(),那么在(,,
)中价值被触发(value triggered);如果价值被触发,且对任一价值被触发的规范′∈而言,若
(),则
′,那么就在(,,
)中价值极大被触发(value maximum triggered)。
这样就可以给出价值判断句的形式定义,即在任一规范冲突情境下定义任一命题的“好坏”。
定义1.设(,,
)为任一规范冲突情境,且设为任一命题逻辑公式,
·(,,
)⊨,当且仅当存在∈,使得价值极大被触发,且∪{()}├;
·(,,
)⊨ℬ,当且仅当并非(,,
)├。
值得注意的是,对规范冲突情境下的价值判断存在两种不同的理解方式:其一,若某一命题符合位阶最高的规范,则该命题是“好的”;其二,若某一命题符合整个规范系统,则该命题亦被认为是“好的”。定义1表达了第一种理解方式。下面定义1′则是对第二种理解的说明:
定义1′.设(,,
)为任一规范冲突情境,且设为任一命题逻辑公式,
·(,,
)⊨,当且仅当存在(,,
)的缺省扩张使得∪├;
·(,,
) ⊨ℬ,当且仅当并非(,,
)⊨。
由于定义1在应对常规规范冲突情境时是易用且够用的,因此,此处无须深入探讨定义1与定义1′之间的差异。然而,应当指出,定义1′是基于对规范系统与命题间关系更为精细的考察而形成的价值判断,它将有助于刻画在后续将引入的诸如“更好”或“更坏”等价值比较算子。
(二)析取定理
析取定理:设(,,
)为任一规范冲突情境,并设和为任一命题逻辑公式。如果(,,
)⊨,或者(,,
)⊨,那么(,,
)⊨(∨)。
证明从略。该定理的成立基于定义1中的逻辑后承与析取引入规则对逻辑后承的封闭。该定理表明,在特定的规范冲突情境中,对于任意两个命题,只要其中至少有一个是“好的”,那么这两个命题的析取也是“好的”。例如,在1的情境下,即便我们对某自动驾驶汽车的规范集具体情况不甚了解,但若知其价值判断为:自动驾驶汽车继续沿原道路行驶是“好的”,或者自动驾驶汽车紧急转向是“好的”,依据该定理能够推出:自动驾驶汽车继续沿原路行驶或紧急转向是“好的”。
但是,根据定义1或者定义1′,以下命题并不成立:如果(,,
)⊨,并且(,,
)⊨,那么(,,
)⊨(∧)。其原因在于存在量词分别约束了定义1中位阶极大的规范以及定义2中的缺省延伸。换言之,在某些规范冲突的情境下,对于任意两个命题,即使其中一个命题是“好的”,也不能推出这两个命题的合取是“好的”。例如,依据心理医生的建议,某人在情绪低落时可以选择要么适度饮酒,要么驾车兜风,以缓解其情绪。因此,可以轻易得出该人在情绪低落时适度饮酒是“好的”,并且驾车兜风也是“好的”,但无法得出饮酒并驾车是“好的”。
五、自动驾驶电车难题的场景分析
自动驾驶车辆的核心能力在于其能够应对多样化的运行场景。基于前述的分析框架,本节将具体探究自动驾驶车辆在不同电车难题场景下的推理机制并作必要的理论扩展。
场景I针对一辆以3为价值取向的自动驾驶车辆,在道路上遇到5位成年行人的情境下,当该车辆处于特定状态1时,它将依据预设伦理原则作出怎样的价值推理,以决定其驾驶行为?
按照1可知,1和2都会价值被触发,且由于3的前提条件“行人中有儿童”不成立,故3不会价值被触发,即
。因为1中的偏序关系为:2
1,那么
,进而
。因而2价值极大被触发。这样就有了∪{(2)}├(2),∪{(2)}├¬ (4),∪{(2)}├(3)。根据定义1可得,(,,
)├((3))。
前述推理结果表明,若遵循“应尽最大努力保护车内乘客安全”,并在面临“道路上有5名成年行人”的特定情境时,智能机器将作出如下价值判断:“维持原行驶道路是好的。”基于此价值判断,自动驾驶汽车将作出相应的驾驶决策,即继续沿当前道路行驶。
场景II在特定情境下,当一辆自动驾驶汽车同时承担自动驾驶公交车与接送儿童上下学的自动驾驶校车双重角色时,且该车辆在同一时间段内既载有儿童乘客也载有成年乘客,其功能属性因此兼具校车与公交车的特性。针对此特殊情形,若不幸遭遇电车难题,该自动驾驶汽车应优先保护儿童乘客还是成年乘客,且其如何进行此价值推理?
在具体分析此场景之前,我们先作一些理论拓展。在价值哲学的视域下,价值主体的内在结构与特性,其每一细微层面均会产生对外部客体的特定需求,进而构建出多样化的价值关系,此即价值关系的多维性。具体到自动驾驶汽车这一价值主体而言,其依据功能定位及实际应用场景的差异性,可被细致划分为自动驾驶公交车、校车或货车等多种类别。值得注意的是,同一辆自动驾驶汽车,在面对不同的需求与具体情境时,亦能展现出高度的灵活性,适时调整并承担不同的运输功能,从而进一步彰显其价值关系的多维性特征。
价值多维性可以通过霍尔蒂缺省理论作出刻画。在任一规范冲突情境中,价值的多维性实际上可以体现在智能主体基于人类的功能性需求而被赋予的多层次的规范性集上。具体而言,任一价值维度都可以被看成由规范集和该集合上的偏序关系组成的二元组( ,
),其中 是这一规范集,
是 上的偏序关系。对于同一个智能主体而言,其所具有的不同维度的规范集间也具有优先序关系,( ,
)( ′,
′)表示:智能主体价值维度( ,
)优先于维度( ′,
)。
假设是智能主体所具有的不同维度的规范集,一个多维智能主体就是一个二元组(,
)。由(,
)引出的价值主体(,
)满足:
·=∪
·对所有,s∈,
s,当且仅当要么存在 ∈使得,s∈ 并且
;要么存在 , ′∈使得∈ ,s∈ ′并且
′。
在此基础上,一个多维规范冲突情境就是一个三元组(,,
),其中是一个陈述句集,(,
)是一个多维智能主体。命题在多维规范冲突情境(,,
)中是好的,可以表示如下:
·(,,
)⊨,当且仅当(, ,
)⊨。其中(,
)是由(,
)引出的,并且对多维智能主体(,
)中的维度( ,
)是好的。
回到上述场景II,一辆自动驾驶汽车基于不同的功能和需求,需要遵循不同的规范。此自动驾驶汽车除了被赋予一种保护一般乘客安全的规范集之外,它还需要被赋予一种专门针对保障儿童乘客安全的规范集。如果后者要求在更高维的优先级上得到遵守,那么这两种规范集在自动驾驶汽车中就会展现出两种各自不同的价值维度。假设:
(1)1:
应当避免乘客陷入危险;
(2)2:出现危险⇒应当保护儿童。
如果({1},)和({2},)分别作为自动驾驶公交车和校车的不同价值维度,且表示出现危险的情况。令表示“避免乘客和行人陷入危险”,根据定义1.,(,{1},)⊨,即在自动驾驶公交车的价值维度下,可以得出:“避免乘客陷入危险是好的。”但由于({2},)
({1},),即自动驾驶校车的价值维度优先于自动驾驶公交车,也就是在由维度优先关系引出的偏序关系
中,2优先于1。故可得出:“保护儿童是好的”,即使这会导致更大的人员伤亡。这也意味着,尽管在自动驾驶公交车的价值维度下作出了“避免更多人员伤亡是好的”这一判断,但由于自动驾驶校车具有更高维度的优先性,它作出的最终的价值判断为“保护儿童是好的”,这辆自动驾驶汽车就会依据此价值判断作出相应的驾驶决策。
场景III某艺术品仓库中有一辆自动驾驶货车,负责运输此仓库中的艺术品。假定在一次运输过程中,该自动驾驶货车面临以下情境:(1)1:它的制动突然失灵了;(2)2:它的道路左前方是一个价格昂贵的艺术品X,右前方则是路障;(3)3:它正在运输的货物Y与X的价格相同。如果该自动驾驶货车向左前方行驶,那么X会损坏,并且如果向右前方行驶则货车自身和Y都会损坏;(4)4:它要么向左前方行使,要么向右前方行使。如果此自动驾驶货车的规范集内有如下三条规范,那么在此场景下该自动驾驶货车会作出何种价值推理以决定其驾驶行为?
(1)1:应当保护艺术品X的安全;
(2)2:应当保护艺术品Y的安全;
(3)3:应当避免车辆自身的损坏。
在具体分析此场景之前,我们仍然需要先作一些理论拓展。在实际的价值判断过程中,除了基础的二元价值词汇如“好坏”“是非”外,人们也会频繁使用诸如“更好”“更坏”等带有比较性质的词汇作价值对比,此类词汇显示了价值的可比性。道义逻辑体系内,也对此类词汇进行了专门的研究,如冯·赖特(von Wright)就曾将“好的”定义为“比它的否定更好”,“坏的”被定义为“它的否定比它更好”。但其仍然受限于经典道义语义学的框架,并不能作出很好的刻画。
在霍尔蒂理论的基础上,可以通过一种更为精确的方法界定规范集内部的偏序关系,明确“更好”与“更坏”的概念,即对规范集中的不同规范赋予相应的权重,以此作为衡量它们优劣的依据。
具体而言,可以用从规范集到实数集的函数:→Q表示规范的权重函数,其中Q表示实数集。通过权重函数,我们可以使用以下方式引导出上的偏序关系
:对任意
,当且仅当
。该偏序关系
就被称为的引导关系。对于任意集合
,[]就为中所有规范的权重之和,即Σ{L():∈}。据此,就可以对“更好”(<)作出如下定义:
定义2.设(,,)为任意规范冲突情境,且设,为任意命题逻辑公式。(,,)⊨<,当且仅当:
(1)(,,)⊨;
(2)存在(,,
)的缺省扩张使得∪()├,其中
为的引导关系;
(3)对任意缺省扩张′,如果∪(′)├,那么[]大于[′]。
借助定义2就可以使智能主体通过对比不同缺省扩张的优劣,实现对价值的可比性的刻画。
回到场景III,在高度自动化的无人港口、物流仓储园区,自动驾驶货车可能是穿梭其中的唯一运载工具。在自动驾驶货车的运行中也会面临电车难题,尽管其并不直接涉及人的生命安全情况,但其中仍然包含着典型的价值推理问题。上述每条规范所具有的权重与所保护物的价格相对应,假设(1)=(2)=100且(3)=1。使用2=(,,
)表示该规范冲突情境,其中={1,2,3,4},={1,2,3},且令
为的引导关系。由于此自动驾驶货车要么保护X的安全,要么保护Y的安全且避免车辆自身的损坏,故可以验证{1}和{2,3}都是2的缺省扩张。因此,根据定义1′,此自动驾驶货车向左前方和向右前方行驶都是好的。但是,由于(1)=100且(2)+(3)=101,且由定义2可知,此自动驾驶货车保护Y是更好的。所以,处于规范冲突情境2下的智能主体会作出以下价值判断:“向左前方行驶是更好的。”该自动驾驶货车会依据此判断作出向左前方行驶的驾驶决策。
六、结论与未来的工作
针对当前人工智能伦理学界广泛关注的自动驾驶汽车难题,本文采用霍尔蒂的缺省理论,构建了一个逻辑模型来分析在电车难题的情境中,自动驾驶作为功能性“智能主体”,如何逻辑地作出“明辨是非”的价值判断与推理。本文得出以下结论:(1)自动驾驶的数据-规则集成型算法方案融合了数据与规则方法的优势,以逻辑语言把价值和伦理规范表达为知识,通过推理作出决策;以大数据分析人类价值偏好,优化价值规范集及其位阶。(2)霍尔蒂的缺省理论把电车难题描述为一个缺省三元组,其中任意智能主体被一组有序对唯一地标定,进而特定场景下的驾驶决策就被理解和转换为缺省推理机制。(3)在进行价值权衡时,应构建一种主体性的价值分析框架,智能机器作为自动驾驶电车难题的价值主体,应当依据其所遵循的权责规范(集)进行伦理分析。
人们普遍期望逻辑理论能够作为所研究领域的一个恰当且充分的抽象模型,从而完美、可靠地解决该领域的推理问题。尽管本文研究有助于增进相关问题的理解,仍存在着需要进一步研究的问题。例如:在逻辑学方面,自动驾驶汽车在实际行驶过程中,要求车辆之间实现高效的互联互通和协同决策机制。为了准确描述这些动态交互性,需要对缺省理论进行多主体和动态化的模型扩展。此外,规范冲突可能出现在同一规范体系内部,也可能出现在不同规范体系之间(如多辆自动驾驶汽车同时面临电车难题时)。本文通过引入“价值维度”初步刻画了前者,但后者同样值得探讨,已有学者运用动态博弈逻辑(参见衣鹏等,第1160页)开展了研究;在伦理和价值哲学方面,自动驾驶电车难题是一个复杂的现实伦理问题,它涉及多方利益的权衡、地域背景的差异以及各种理论的交锋。我们需要按照“面对多元化,坚持主体性”与“和而不同”的原则(参见李德顺,2018年),进一步明晰和界定自动驾驶各方主体(制造者、使用者、监管者等)的权利与责任,制定相应的权责规范及其位阶与权重,构建包含多元主体参与的人工智能治理架构。
在本文完成之际,自动驾驶已经取得了显著进展。在我国的部分城市,自动驾驶出租车实现了面向公众的商业化运营,这或许预示着自动驾驶的全面推广和普及指日可待。随着自动驾驶和各种人工智能技术的持续进步与快速迭代,我们似乎又站在了重新审视图灵提出的“机器是否具备思考能力?”这一问题的新起点上。经过七十多年的发展,通用机器智能是否正逐渐成为现实?我们是否也即将迎来一个构建人机价值共同体的新时代?这些问题值得我们深思。
文章来源:《哲学研究》2024年第10期。本转载仅供学术交流之用,版权归原作者所有,若有侵权,敬请联系,万分感谢!
欢迎关注@文以传道