打开网易新闻 查看更多图片

编者语

试想某一天,法官不再正襟危坐于法庭之上断案,而是代之以算法程序自动生成裁判或者纠纷解决结果——这并非天方夜谭!近年来,现代科技尤其是信息技术的飞速发展,对我们的生活产生了巨大的影响,这其中也包括法律行业所经历的改变。随着智慧法院建设在全国稳步推进,诸如基于语音自动识别技术的“庭审记录改革”、裁判文书自动生成系统等智能化运用成果不断涌现,推进现代科技与司法工作深度融合,以数字正义实现更高水平的公平正义。也许在不远的将来,法律规则的适用会实现由人工智能所承载的构想。在此之前,我们有必要预先思考算法、人工智能的发展可能会给传统法律带来的影响和挑战。这也是英国最高法院赛尔斯勋爵在2019年度“布鲁克演讲”当中所选择的一个重要话题。本文对其进行了归纳和整理,供大家学习借鉴。

导师点评

上海海事大学 郑睿 副教授

传统的法律如何回应新兴的算法、数字经济和人工智能带来的挑战,是法律人已经开始面对并在不久的将来必然要应对的问题。法律如何监管人工智能行为?商业活动如何利用智能合同降低交易成本?国家如何在数字化革命中确保决策程序的合法透明?公民如何利用数字技术参与社会治理?这些都是会影响人类社会发展走向的挑战。

英国最高法院塞尔斯勋爵在2019年11月的一个演讲中,提纲挈领地思考了上述问题。总体上,他认为:第一,法律有着为社会发展提供规范框架,使之能服务社会并创造价值的功能,因此,法律应当把握算法和人工智能带来的机遇,并引导它们的发展;第二,受过专业训练的法律人应积极行动,为算法和人工智能带来的问题提供解决的法律方案,例如,国家可以考虑设立专门的算法委员会来为数字化世界提供更为统一的法律和监管标准。

上海海事法院的李啸飞和李家春两位法官助理编译了塞尔斯勋爵的讲稿,译文流畅,准确地反映了塞尔斯勋爵演讲的核心理念,对国内法律人思考类似问题有较强的启发作用,推荐阅读。

上海海事法院青年翻译员团队成员

打开网易新闻 查看更多图片

李啸飞

李家春

本文刊登于《中国审判》2021年第2期

<<上下滑动查看图片 >>

当今时代,计算程序促使整个社会运转更加迅速、高效,且朝着无人化的方向发展。然而,电脑计算程序仍然需要人为后台运作,通过编写复杂的程序,进而指导实施。法律规则如何通过人工智能适应经济社会发展趋势,由电脑自动生成解决方案,这是值得深思的问题。

人类需要预先考虑未来技术发展将会给生活带来的影响,以免产生“温水煮青蛙”的效应——人类如同青蛙,舒适地浸身于温水中。随着信息技术的发展,生活变得更为便利,但水在不知不觉中变得越来越热,直至超越了临界点。生活将发生不可逆转的变化,走向不可控制的方向。

算法是解决问题应当遵循的过程或规则,这是一个逻辑化、结构化、步骤化的过程。计算机在许多领域都发挥了变革性作用,能以极快的速度运行,同时与大数据相连,远远超出了人力所能及的范围。一种新的力量由此诞生。虽然传统意义上法律的作用是界定、规范权利和义务,并对违法行为或权力滥用予以管控。但法律还有一项功能,即为新生权力提供保护框架,使之能够有效服务社会,创造价值。从这种意义上而言,法律应当引导计算机算法的发展。

笔者将“人工智能”定义为自我引导、自我适应的计算机活动,已经超越了单纯算法分析的阶段。在某些情况下,人工智能还可以进行系统的自我提升。即算法在有限人为干预下,或自行通过大量数据总结而出的经验,优化其响应,甚至生成程序员都未曾预见的结果。其源于算法,并最终超越算法。

那么,如何对人工智能行为进行法律上的监管?是否应将法律人格赐予机器?或使用雇主替代责任?或者应针对具体情况适用不同模式?人工智能应用背后暴露出一系列问题,包括全社会对专业技术知识缺乏了解、涉及商业秘密的代码不被公开、代码与法律相互作用之间的僵化性等。这些问题随着人工智能的普及逐渐浮现,并渗透到社会生活的方方面面。

01

对计算机编码提出的更高要求

事实上,法律本身就是一门算法规则:如果存在A、B、C三种因素,那么通过逻辑步骤,将产生法律反应Z。除了立法、法律修订外,法律的发展主要来源于为适应不同时期的社会道德而产生的变化。将算法编入计算机程序并应用至法律工作中,假使法律在实施过程中发生变化,在执行过程中,计算机代码并不接受这种改变。不仅如此,算法编码是比较封闭的系统,无法捕捉到解决问题的全部有用信息。

随着法律应用逐步深入,公平和正义的价值取向也对计算机编码提出了更高的要求。正如亚里士多德提出的一个古老的法律问题:立法者无法预测法律在未来所有的适用情况,因而不能保证法律在适用时始终符合其背后的基本原理和正当性。亚里士多德的解决方案是,寻求一种公平或灵活的形式,使得法律在适用或执行时与基本原理保持一致,即其所称之“衡平”。

同法律一样,算法编码也是为了处理将来所发生的事而预先制定的规则。在当前条件下,很难在法律适用层面进行适时的调整和改变。或许在未来某个时刻,人们将开发出远超简单算法阶段的人工智能系统,使得计算机能够结合社会道德观、法律等因素,进行公正的考量,甚至可以自动对疑难案件进行识别、分类,并按照真人法官的标准,自行对案件进行裁判。但就目前来看,算法编码模式较为粗糙,达不到这样的程度。

02

算法委员会重树对数字技术的工具意识

数字程序比人工运算更为稳定和快捷。在事前设计阶段,人们需对数字系统进行评估审核;在事后阶段,需对数字系统的工作方式进行系统排查,并尽可能在不影响效率的前提下,允许事后对个别具体决策提出质疑,以纠正错误。随之而来的问题是,如何为公众提供代码的事前评估和事后审查呢?例如,如果政府部门要使用一个算法程序,应先进行评估,但由于政府缺乏这方面的专业技术知识,便会将系统的编码与设计外包给私营部门,负责审查的部门也不大可能拥有相关方面的专业知识,同样也不能指望公众能够充分履行对服务商的常规监督职能。

因此,有观点认为,应当投入一定的国家资源设立一个新机构,即由专业技术人员组成的算法委员会,同时辅之以法律工作者和道德伦理学家的理论支持。算法委员会根据公共利益审查相关程序,将成为政府、立法机关、法院和公众之间的一种公共资源。在保证机密的前提下,算法委员会有权查阅敏感的商业代码。算法委员会将邀请民间团体中有关人士和代表参与,并在最大限度内公开其审查报告,让数字程序公开透明。

更为困难的是,要找到一种方法,在保证算法程序运行速度和效率的同时,对个别决策的质疑进行整合。笔者认为,不可能对每一条质疑都进行司法审查。首先,对系统进行深层设计,对算法决策不满意的用户,可以将质疑提交至更为详尽的评估级别——一种“高级搜索选项”;其次,法院、诉讼参与人及算法委员会通过使用试点案件或群体案件检测,主动识别引发系统性问题的案件,进而进行整合。

算法委员会的创建解决了两个难题,一是以往专业技术知识的缺乏,二是涉及商业秘密的代码不被公开。算法委员会拥有专业技术及必要的相关知识,有权对代码进行审查,并为法律的制定、引导和控制提供专家意见。同时,算法委员会也可应对第三项难题——法律与代码之间的僵化性。算法委员会了解代码的不足,并向政府、立法机关和法院发出提醒。

除了作为一种信息资源外,人们还可以将算法委员会视为一类独立的公共事业监管机构。其将确保所有人都能得到重要的编码服务,并确保服务符合相关标准。甚至可以设想一种双向参考形式,即当算法委员会遇到问题时,可以向法院寻求指导;当法院发现编码问题时,可以向算法委员会寻求帮助。

所有一切都是为了试图恢复人们对于数字技术的工具意识。数字技术是人们改善事物的工具,而并非统治奴役人们的手段。编码越来越多地构建着人们的生活。尽管工业社会塑造了自然物质条件,但其已不再是生存的主要依托。法律作为管理世界的有效工具存在,而编码正变得与提供生存物质基础的自然同样重要。编码由人类设计和操作,反映人类自己的意见和利益。

面对快速变化的数字化世界,法律原则将如何应对?笔者认为,应给予立法形式上的回应,同时应加强国际间合作,以提供更为统一的法律标准和有效的跨境监管。

03

算法带来的挑战

01

商业活动领域

首先,网上缔约因格式条款垄断、数字平台访问受限。网上缔约将格式条款的适用推到了新的高度:个人要访问平台,必须先点击接受那些内容冗长且从未被认真阅读过的条款。美国密歇根大学法学院教授Margaret Radin认为,在信息化社会,缔约变得“畸形”,合同的格式条款剥夺了人们的救济权。其主张寻找一种新的方式,包括通过法律对误导性或选择性披露作出规制,将相应的合同关系转化为侵权关系,服务商应对偏离合理预期的行为承担责任。

数字世界中的信息和权力如此不对等,以至于有必要在一定范围内作出一致的战略回应。从竞争法的宏观层面出发,应防止主导地位的滥用,保证每个人公平、平等地使用数字平台的权利;从单个合同的微观层面出发,应控制不公平条款,实现权利的再平衡。

其次,在无人工干预的前提下,使用数字技术,通过智能合同降低交易成本。新加坡法院在B2C2 Ltd vQuoine Pte Ltd案中作出的裁决值得关注。该案中,货币交易者的算法交易程序与货币交易平台的程序之间产生了故障,导致交易自动以真实货币价值的1/250左右被执行。交易者由此获得了丰厚的利润。交易平台向法院申请解除交易,但未被法院支持。基于合同条款的含义、错误及不当得利的辩护也均告失败。当两个计算机程序交互发生错误时,法官应通过根据程序设定的本意和期望进行审判,即使程序员本身并不参与交易。将来,程序运行可能会变得更为先进且独立,以至于通过程序回溯设计者的本意和期望似乎并不现实。

02

公共行政、福利和司法体系

数字化政府在提供公共服务和社会福利方面有很高的效率,但也蕴含风险。因为这种数字化服务丧失了对个人境况的区别对待,可能影响社会价值观。

联合国极端贫困与人权问题特别报告员Philip Alston向联合国大会提交了一份有关数字福利系统的报告。他认为,应确保程序合法、透明,促进数字化平等,在数字化福利国家中保护经济和社会权利、公民权利及政治权利。法学家Carol Harlow和Richard Rawlings强调,新兴的数字化革命很可能在不久的将来对行政法规提出严峻挑战。在程序方面,透明度、责任制及参与度是衡量行政法规的重要参考标准。但随着政府服务的数字化趋向,行政程序面临巨大压力。鉴于数字化决策的速度要求,个人决策不得不尽快向系统决策转型。

同样,线上法院促进司法服务效率的提升,并加深了人们对个人权利的理解,使得司法救济途径的成本更加合理。新的体系须为程序性价值留出空间,从而凸显其公平正义的价值核心。

03

法律与政治、社会的互动

法律建立了一个受保护的权利能力合集,以充分实现公共意志。20世纪,立法部门在公共空间中运作,在国家新闻、电视和电台中辩论,最后就基本价值和重要事项达成广泛共识。立法可被视为通过公共空间的辩论,将公众舆论的酝酿延伸到公共空间的产物,并为政治和最终立法提供信息,从而形成具体的法律形式。信息技术使人们从公共空间退居到一种特殊化的“回声筒”中,人们尽力强化自己的观点,不再需要直面、协调他人的异见。在选举过程中,计算机平台通过获取个人详细信息,可以向选民定向传输特定偏好,不需要持续扩大传播范围。

律师Jamie Susskind认为,数字技术为民众参与形式开辟了可能性。其主张,科技公司要保证高透明度,通过结构性监管,避免大规模的权力集中,保证科技公司的权力合法。

牛津大学哲学学者James Williams认为,数字经济是在一定的商业努力基础之上建立的,而这些商业努力的目的,是为了吸引人们的注意力。在“注意力时代”,信息过于丰富,导致人们的注意力无法集中。受到威胁的还有人们对问题深入、冷静思考的能力,以及行动意志力。

04

人工智能带来的挑战

人工智能带来的挑战来自于算法编码的挑战,但两者有所不同。根本区别在于,机器在人类代理和法律事实之间的介入程度。现有的法律学说提出了一种可能的类比。欧盟层面的立法源于2017年1月欧洲议会《机器人民事法律规则报告》和《机器人民事法律规则决议》(以下简称《决议》)。在机器人和其他人工智能行为的责任问题上,《决议》提出,“从长远看,为机器人确定特定的法律地位”,包括强制保险计划、赔偿基金及在复杂的人工智能运作情况下工作。人工智能的法律人格可以与其他法律技术结合使用,如替代责任、强制保险的要求等,这些都是传统为人熟知的社会风险分摊方式。

还有一种观点,对于具有物理形态的复杂人工智能,可以像公司一样赋予其法人地位,如自动驾驶汽车。然而,不同类型的人工智能有所差异,不可一体适用。有必要将实用的普通软件与适用于复杂人工智能产品的软件区分开,对前者适用直接的产品责任。

与此相反的观点是选择传统方式。在责任问题上,即便是复杂的人工智能产品,也只将其作为产品来对待。

也有人提出了一种中间路线,即根据人工智能的自动性和社会需要,赋予一些人工智能以独立的法律人格,但“如果实际行为以及与行为相关的法律责任可以追溯到某个具体人时,则应当予以否认”。

05

保持理性应对态度

算法和人工智能为改善人类现状带来了重大机遇,同时也带来了挑战。法律需要找到合适的框架和切实可行的方法来构造这个世界。为了使算法和人工智能更好地服务人类社会,法律应当积极引导和把握,而非抵制。

法律行业从业者经过专业训练,可以谨慎而准确地分析法律关系,并区别相应的权利和义务。其拥有法律技术专长和知识,可以及时提供相应的法律手段。在面临算法和人工智能问题的法律挑战中,法律行业从业者应积极行动并参与其中。

点击 阅读原文 即可浏览英文原文