打开网易新闻 查看更多图片

作者 简介 :赵鹏,中国政法大学教授、博士生导师,法治政府研究院院长;张硕,中国政法大学法学院博士研究生。文 章来源:《山西大学学报(哲学社会科学版)》2024年第2期,转自山西大学学报哲社版公号。注释及参考文献已略,引用 请以原文为准。

摘要

近年来,自动化行政决定方兴未艾。算法与行政权力的耦合实现了对传统人工决策的赋能,但也带来显著的黑箱效应,产生了对程序理性的冲击与侵蚀。对此,应当清楚认识自动化行政决定在算法治理与行政法治下的双重定位,串联起行政法与数据法中的既有制度规范,在行政过程论的视角下明确行政机关对自动化行政决定的说明义务。同时,须考虑说明义务在不同阶段的需求、成本,以及涉及的利益冲突,在具体构建中设计由面向公众的事前系统性说明和针对相对人与利益相关方在事中的具体个案说明组成的双层说明义务架构,实现自动化决定的理由之治,全面保障公民算法权利。

引言

当下,基于数据、算法的自动化决策技术已经与社会各领域实践深度嵌合。除了利用算法向用户进行个性化推荐、差异化定价等商业实践外,传统的行政决定模式也迎来了“人机融合”与“人机转换”的范式变迁。

就我国而言,利用自动化技术提升行政效率已经成为重要的国家战略。《法治政府建设实施纲要(2021—2025年)》提出,要加强对大数据的分析、挖掘、处理和应用,善于运用大数据辅助行政决策、行政立法、行政执法工作。《国务院关于加强数字政府建设的指导意见》(国发〔2022〕14号)更是明确提出“构建数字化、智能化的政府运行新形态”,并对政务智能化运行提出了更为细致的制度设计。在此背景之下,自动化行政实践不断演进,如交通抓拍、智能化审批等,数据、算法与行政活动的嵌合日益深入。

利弊互现的是,自动化技术在提升行政效能的同时亦使传统行政程序中的各个环节被压缩、杂糅,进入一个未知的封闭空间。对于行政决定所运用的算法以何种逻辑与标准运行,在个案中认定或推定了何种事实,以及如何适用与理解相关的法律规范,当事人往往不得而知。这种算法所带来的黑箱效应将导致传统正当程序的空转以及公民知情权、参与权、监督权、异议权等程序性权利的悬置。

欲破除自动化行政的黑箱效应,直接有效的法律方案即是强化行政机关对其决定的说明、解释义务。对此,正当程序原则下的公开与说明理由制度,以及《个人信息保护法》中所规定的“告知义务”“算法解释权”均提供了相应的规范基础。然而,理论界对此尚缺乏体系化的分析。基于此,本文试图综合考虑客观法秩序和当事人主观权利保障,对自动化行政决定说明义务的内容、程度和方法等问题作出层次化的制度安排,进而消弭算法黑箱对程序理性以及相对人合法权益的冲击与侵蚀 。

一、自动化行政决定及其“黑箱风险”

“信息是燃料,没有它行政机器就无法发动”,面对不断膨胀的公共管理任务,行政机关对于信息的需求与日俱增。在信息爆炸的当下,行政机关缺乏的并非获取信息的机会与途径,而是对海量信息的处理和分析能力。对此,算法驱动的自动化技术具备赋能行政的强大功能,自动化行政决定的实践与运用也因此而不断普及。

本文所称自动化行政决定是指,基于借助数据、算法而辅助人工甚至替代人工决策过程而作出的行政决定。从实践来看,自动化行政决定分为半自动和全自动等不同类型。最初的自动化技术应用只是局部的,在整个决策环路上人工仍然占据着相当一部分的工作内容。例如,交通抓拍方面,公安机关交管部门对监控设备的抓拍记录进行审核,人工审核通过的方可作为行政处罚的依据。但是,随着技术的不断发展与完善,全自动行政决定在部分公共管理领域逐渐崭露头角。例如,部分地区和部分行政机关就特定事项推出的“秒批”“秒办”等新型智能化审批模式,全过程无需人工干预,相对人仅需要按照程序指示提交相应材料便可瞬时得到审批结果。

无论是全自动抑或是半自动,其本质均为自动化技术在行政权力运行过程中的介入,都意味着自动化技术与行政管理活动的嵌合。这既能够带来行政效能提升的红利,也可能因为程序的压缩与缺失产生一系列的问题,本文一并讨论。

在行政审批领域,新兴的“秒批”“秒办”等智能化审批实践充分体现了技术与行政嵌合的两面性。具体而言,传统行政审批的流程包括材料审查、条件审核、受理收件、批文拟定、制证签发等环节。而“秒批”则是通过无人工介入的自动化比对方式,以既定算法逻辑瞬时得出审查结果,并在数秒内对符合条件的申请人直接提供带有印章的审批意见及许可证照,极大地压缩了传统审批流程,大幅提升了行政效能。不可否认,传统的人工审批模式无法实现瞬时的审查效率,亦无法达到算法级别的审查精度。但与此同时,自动化审批系统依据外部输入数据瞬间生成审批结果的运行模式也在一定程度上牺牲了公民的程序性权利。公民被排除在审批决策的过程之外,无法获知具体的决定依据和理由,更没有机会进行陈述申辩。这意味着,利益相关者只能观测到最终决定的输出,而无法有效地观察、理解其运行的内在逻辑,产生了显著的黑箱效应。

这种黑箱效应与现代行政法所强调的正当程序追求存在严重冲突。正当程序扮演着控制行政决定合法性与合理性的重要角色,其通过设定相关的公开制度、告知制度、说明理由制度、回避制度等方式和步骤来规范行政权力的运行,进而保障行政相对人的合法权益。而自动化技术介入行政决定所带来的高效性在很多时候是以程序的压缩为代价,即剥夺了公民对于决定理由的获知,降低了行政决定的可预测性与可接受度。

在这个意义上,自动化行政的风险就是程序性风险,更确切地说是新兴程序与传统程序的冲突性风险。传统行政决定的作出往往是经过行政执法人员的现场调查,与相对人面对面的说明交流,听取其陈述申辩,最终书面送达的过程。然而,自动化行政决定中“人”的缺席使得传统正当程序的价值被侵蚀,也直接导致了政府与公民间权利义务结构的失衡,滋生了行政权力在“黑箱”内扩张与异化的风险。这可能加剧社会对“技术未知”的不安全感,消解公民与政府间的信任关系,甚至使得公众陷入“算法掌权”的社会认同危机。

因此,要确保自动化技术协助行政活动更好地服务于人,而不是让人被技术系统所支配,就需要破除这种黑箱效应,重建利益相关人对行政决策过程的参与和监督。这意味着,我们需要探寻因应数字时代内在逻辑的正当程序架构。而从现实来看,这种正当程序架构的关键就是强化行政机关对自动化决定的说明义务 。

二、自动化行政决定说明义务的意义与价值

自动化行政决定在性质上属于行政机关行使公权力就特定事项对特定主体作出具有法律效果的行政决定,但在过程当中应用了自动化技术,将传统的人工决策过程转化为通过代码设置、数据运算与机器自动化判断进行决策的一套机制。由于自动化行政决定不再单单是传统行政权力的运行,而是兼具了算法权力参与的复合行为。行政机关对自动化行政决定的说明义务也具有了在传统行政法治以及算法治理(governance to algorithm)场域内的双重意义。

从行政法治原则来看,公开、透明、公众参与、集体决策等理念已经成为行政合法与行政正确的公认原则。公民对行政活动的各种权利主张均以知情为基础,而知情又以行政机关的说明为前提。因此,行政机关对决定理由的供给构成了维持行政法律关系平衡的支点。在此意义上,“法治”实为“理由之治”,其概念已与法律决定的作出者应当提供理由证成其决定这一观念不可分离。换言之,如果一个法律体系的决定没有公开、清楚、有力的理由支持,那么这一法律体系就会被认为不符合法治。总的来看,自动化行政决定的说明义务构成了法治的一项基本要求,在行政法律关系中发挥着公民权利保障的前提性与基础性功能。

除了传统“法治”课予行政机关的说明义务外,在数字时代的算法治理体系之中,算法透明作为破除算法黑箱的主要制度也已经成为一项核心原则。与上述基于对行政权力规制而确立的说明义务不同,算法透明并不拘泥于自动化行政决定的场景,而是针对算法决策行为的规制,即要求无论是私主体抑或是行政机关,只要利用算法进行决策便需要以一定的方式和程度向受决策影响主体或公众说明自动化决策的内在逻辑,以及其他与算法相关的要素。可以说,算法透明的实质内涵就是对于算法的说明.

从规范层面来看,算法透明已经在诸多国家和地区达成了共识。我国2022年起施行的《互联网信息服务算法推荐管理规定》第十二条明确规定,“鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷”。该条款虽然只是一种表达鼓励态度的非强制性规定,且不适用于行政机关利用算法进行决策的情形,但本身已经体现了对于算法透明制度价值的肯定和承认。

从域外立法来看,部分国家对于行政机关利用算法进行决策的行为则有明确的透明度要求。例如,英国内阁办公厅中央数字和数据办公室(Central Digital and Data Office,CDDO)在2021年11月发布了《算法透明度标准》,专门为政府和公共服务部门提供有关利用算法工具支持决策的具体指导,要求算法工具在公共决策中的适用要保持适当的透明度,特别是在可能对个人产生法律或经济影响的情况下。同样,行政机关利用自动化技术进行决策的问题在美国也受到了重视。纽约市议会于2017年通过了《政府部门自动决策系统法案》(Auto Decision System Task Force Law),要求设立“算法问责特别工作组”(Algorithmic Accountability Task Fore),专门监督市政府使用算法的情况,其中一项重要的监督内容就是算法透明度。这些立法案例充分体现了当下算法治理对于算法透明的迫切需求。

总体来看,自动化行政决定的说明义务一方面是法治作为理由之治对于行政决定的必然要求,另一方面也是算法治理下算法透明原则的题中应有之义。这种说明义务贯穿行政权力运行的全过程,是法治程序性规范的重要组成部分。从程序工具主义和程序本位主义来观察,算法说明义务的价值可以归纳为“工具价值”与“内生价值”。

就工具价值来说,现代行政法治已由“命令—服从”的传统模式发展为注重沟通协商的合作模式,行政程序被视为形成人民权利与义务之有效手段。说明义务在工具价值层面体现了行政程序技术性、工具性的特点,具有形成正当程序,保障相对人知情权、陈述申辩权等程序性权利的功能,即“说明”直接满足了相对人“知”的权利,而知正是“为”的前提。

在行政决定作出前,行政机关对拟适用的算法进行公开与系统性说明,为社会公众以及行政机关内部的监督提供了条件,形成了算法问则与改进算法设计的有力工具;在行政决定作出的过程当中,行政机关就算法在个案中的具体化说明也为相对人的陈述申辩提供了基础,使其能够有针对性地提出异议,主张权利;在行政决定作出后的司法救济阶段,对算法的说明不仅是相对人提起救济的基础,也是司法审查的基础。法院如果不涉及行政主体作出行政决定的理由,即算法的具体运行过程,则无法判定受司法审查的行政决定是否具有合法性。概言之,对于算法的说明可以迫使行政机关不断地说理和论证,反思、检视算法决策过程与方式的妥当性与准确性,进而增强自动化行政决定的理性化程度。

行政程序是实现行政目标的手段和工具,但又不仅仅是实现行政目标的手段和工具。说明义务的内生性价值是程序本位主义视角下独立于结果的内在品质。因为,即便排除对最终行政决定以及相对人救济结果的影响,对自动化行政决定的说明也为公众与行政相对人创造了充分的理性价值与信任价值。“法治所要求的无非是国家无论做什么都是以一种可预期的、持续一致的方式作出并通过理由加以证成”。对此,行政机关说明义务的履行在不同程度上提升了行政过程的透明度,提升了公众对自动化行政决定的可预见性,推动了算法作为数字时代的规则,发挥指引社会主体行动的功能。与此同时,其作为一种理由的阐述,实现了政府与公民间的理性化讨论和说服,提升了行政相对人对行政决定结果的可接受度。

实际上,行政决定的作出过程也是一个公共商谈的过程,公民的参与已经是现代行政的一项基本要素。行政机关说明义务的履行能够提高公共辩论的质量。公职人员对于支持他们决定的理由的充分阐述会比不做阐述时更有可能导出正当的决定。除此之外,说明义务也能够以一种消极的方式养成行政机关的自我规训习惯。这种自我规训不同于上述工具价值中公众与行政内部的监督,而是作出行政决定的行政机关刀刃向内的自查自纠。通过算法的公开与解释能够实现算法的高度透明,进而创造出一种福柯称为“全景敞视主义(panopticism)”下的监督效果。行政机关在作出自动化行政决定的过程中会处于一种有意识的和持续的可见状态,在心理上感到时刻被监视,从而在行动上遵规守矩。

总体来说,说明义务对于自动化行政决定的法治化塑造具有重大意义,有助于公民理解决策是如何作出的,如何获得对该决策的救济,以及如何通过改变自己的行为从而获得自己期待的结果。其工具价值与内生价值共同维护了自动化行政决定的程序理性,保障了公民的权利,并且在一定程度上建立了公民与政府、人与算法间的信任基础 。

三、自动化行政决定说明义务的两个层次

行政决定的作出是具有过程性的,行政权力在不同阶段的运行具有不同的要求和内容,因此,行政机关的说明义务也是随之而动态变化的。本文以行政过程论的视角,将自动化行政决定在标准阶段和行为阶段的说明义务分为两个层次:行政机关需对介入行政决定的算法面向社会进行系统性说明,主要包括算法的基本逻辑架构、考量因素等内容(第一层);行政机关还需在决定作出前向行政相对人与利益相关方就算法的适用进行更加全面深入的个案说明(第二层)。两个层次的说明义务在自动化行政决定的语境之下均为必要,且同时具有传统正当程序的制度基础。它们勾连起了行政机关对算法说明的客观义务以及公民就算法解释所享有的主观权利,形成了差序化的递进式解释秩序。

(一)双层说明义务的分层逻辑

两个层次的说明义务实际上分别回答了自动化行政决定中所应用之算法“是什么”与“为什么”的问题,二者看似互相独立实则互相依存。特别是相较于私人部门对自动化决策的说明,公共部门借助自动化技术进行决策时,如果仅仅公开说明算法运行的基本原理与规则并不能有效实现公民权利的全面保障以及行政权力的规范行使。

首先 ,自动化行政决定不同于私主体的自动化决策,其在本质上即附有行政权力所天然蕴含的公共性与强制性。行政机关利用自动化技术进行决策,不仅无需个人同意,个人也无拒绝的可能。因此,为保障相对人能够行使相应的权利以对抗可能存在的不法行政决定,第二层的具体个案说明是一项必备的前提性工作。

就自动化行政审批来说,虽然目前部分地方政府就其审批机关所运用的智能审批系统进行了笼统的说明,但这种说明仅能够起到帮助公民了解系统基本运行模式以及使用方法的作用。对于个案中的行政相对人来说,这种程度的信息供给是明显不足的。以青岛市的“秒批”系统为例,青岛市行政审批服务局公布了“秒批”事项所需的基本材料,并说明了系统所运用的“智能比对模式”,即自动抓取审批材料中的关键数据和信息,并进行针对性提取对比核验。但在实践中,这种单层说明义务的履行仍存在较大的局限性,相对人无法充分了解和掌握系统认定申请材料是否符合审批条件的具体过程与考量因素。仅对于算法规则的系统性了解并不能满足相对人对个案决定结果的接受以及权利的主张与行使。可以说,在第一层说明的基础之上进行个案的具体说明是帮助相对人理解决定结果,提出异议,开展监督的必要条件。

其次 ,第二层说明的缺位还将造成第一层说明义务的空转,甚至引起行政权力的异化与扩张。实际上,第一层说明所对应的算法逻辑与运行规则脱离了第二层说明是无法被证实的,即便自动化行政决定未按照第一层说明之规则作出,相对人也难以洞察。也正基于此,在缺乏具体个案说明的情况下,行政权力的运行存在逸脱于第一层说明内容的可能,第一层说明义务也将面临被架空的风险。

在黑箱效应的影响下,自动化行政决定的责任认定问题尤为突出。即便行政机关在事前对其所应用之算法的逻辑方式等基本内容进行了初步的说明,但这并不能够保证所有的自动化行政决定就一定是以既定算法逻辑作出的。鉴于行政权力所天然具有的扩张属性与异化风险,完全存在行政机关在自动化行政的过程中恣意行使权力的可能。事实上,当自动化行政决定存在瑕疵或错误并对相对人造成损害时,相对人无法探知与分辨损害的背后究竟是人为因素,还是技术故障,而在此情形下,行政机关则具有充分的能力与动机将责任轻易地嫁祸于算法技术。缺乏个案中的深度解释说明义务,行政机关可利用相对人在技术上的弱势将不法行为藏匿于算法的黑箱之中推卸责任,算法黑箱也将沦为行政权力扩张与异化的温床。因此,为行政机关设定自动化行政决定的第二层说明义务,要求其在第一层说明的基础上对个案中的算法应用进行更深层次的解释说明,是有效保障行政权力在具体个案中的规范运行,以及进一步验证行政机关是否忠实地按照已公开说明的算法运行规则作出了行政决定的必要之举。

总体来看,自动化行政决定说明义务的双层架构是必要的。第一层说明不是最终目的,而只是迈向信息可理解性的过渡性步骤。行政权力在个案中的规范行使,以及公民相关权利的主张都有赖于第二层说明义务的落实。如果缺乏在个案中细致的解释与说理,个人几乎没有能力比较自动化行政决定结果的相对有效性和真实性。

(二)双层说明义务的制度基础

双层说明义务虽然体现的是法律制度对人工智能时代算法决策的一种因应性变革,但实际上也蕴含着传统正当程序的制度基础。第一与第二层说明义务分别对应了行政公开与说明理由两项既有正当程序装置,向不同对象、以不同程度,对算法进行解释说明。

就第一层说明义务来说,其对于算法基本运行原理的系统性解释实际对应着正当程序原则下的行政公开措施,即要求行政主体在行使行政权力的过程中依法将行政权力运行的依据、过程和结果向行政相对人和社会公众公开。

算法在自动化行政决定的作出过程中实际上扮演着与法律规范类似的,包括理性目标的抽象规则,其虽不具有行政规则的形式外观,但在内涵与实效方面均发挥着行政规则的功用。具言之,自动化行政决定中无论是对于事实的认定抑或是法律的适用均是依据算法既定的方式具体开展。算法是对于法律规范的数字化转译,可以被认为是一种行政机关的“二次立法”,其对于不特定对象持续产生效力,即具有普遍且反复适用的特点,同时对行政决定的过程和结果产生难以逸脱的拘束力,构成行政权力运行全过程的基本逻辑与原则遵循。

据此,依据《政府信息公开条例》第二十条之规定,自动化行政决定中所适用之算法作为行政规则应当对社会公众进行全覆盖式公开。同时,公民、法人或者其他组织也可依据《政府信息公开条例》第二十七条向相应的行政机关申请获取相关政府信息。除了原则性的信息公开要求外,部分单行法也对决定依据的公开进行了专门的规定。例如:《行政许可法》第五条、第三十条、第三十三条要求许可实施机关将有关行政许可的事项、依据、条件、程序等内容通过线下与线上的多元方式进行公示,并对公示内容进行说明、解释;《行政处罚法》第五条、第三十四条亦规定行政机关需对行政处罚的依据,包括处罚裁量基准进行公布。总体来看,未经公布的规范不得作为行政决定的依据已经成为一项普遍意义上的原则。

需要强调的是,公开并不仅限于对相关事实信息的披露,而是要附带相应的解释说明,使信息转化为行政决定参与者所必需的知识,有效促进政府和公众的双向交流与反馈,让公众不仅知道是什么,还知道为什么、怎么做,从而加强规范遵从的自觉性。因此,公开在本质上构成一种解释说明,只是这种说明是一种较低程度的说明。

就第二层说明义务来说,其聚焦于个案,对算法在事实认定、法律适用以及整个行政决定的涵摄过程中所发挥的作用进行相对全面和具体的说明,对应了正当程序原则下的说明理由制度。

说明理由作为正当程序原则的重要组成部分,是现代行政法治的必然要求,更是贯彻落实法治作为“理由之治”的实践根基,其要求行政机关在作出行政决定时,除法律有特别规定外,必须向行政相对人说明其作出该行政决定的事实因素、法律依据以及进行自由裁量时所考虑的政策、公益等因素。《全面推进依法行政实施纲要》明确提出,行政机关行使自由裁量权的,应当在行政决定中说明理由。《行政许可法》第三十八条、《行政处罚法》第四十四条亦将说明理由规定为行政机关在作出不利于相对人决定时的刚性义务。这种附条件的说明理由制度实际上已经在部分地方的行政程序立法实践中得到了加强,如《湖南省行政程序规定》第七十八条、《山东省行政程序规定》第八十六条,均取消了“不利决定”与“裁量权行使”的说明前提,规定了行政机关在行政决定作出时的普遍性说明义务,并对说明理由的内容做了进一步细化,具体包括证据采信的理由、依据选择的理由和行政裁量的理由。在自动化行政决定之中,算法决策很大程度上替代了人工决策,因此,对行政决定的理由说明主要就是对算法运作的具体解释。在正当程序的总体框架内,过程性控制机制是多元的,如回避制度、听证制度、告知与听取意见制度等,但所有程序保障机制发挥功能的基本前提均为行政机关对理由的说明。相对人与利益相关方只有知悉并理解了行政决定的理由,才能够真正有效地参与决策,提出异议,开展监督。由此可见,第二层说明义务所对应的说明理由制度在正当程序中占据核心地位,并发挥着广泛的前提性作用。

除了行政法律规范,《个人信息保护法》作为领域法,既含有私法色彩,也具有公法属性,同样适用于行政机关。《个人信息保护法》第七条确立了个人信息处理的透明性原则,要求个人信息处理者公开个人信息处理规则,明示处理的目的、方式和范围;第十七条也是将个人信息的处理方式纳入了告知的范围。而为了杜绝“告而不知”,在告知的规范要求中应当内含着解释说明的成分,以实现实质而非形式上的告知。与此同时,《个人信息保护法》还赋予了个人与行政机关算法说明义务相对应的算法解释权,实现了说明理由制度的双向实现机制,加强了公民相对于行政机关的积极地位。虽然此类规定的直接规制对象为个人信息处理行为,但实际上对个人有实质性影响的算法决策一般也是基于个人信息的处理。因此,算法说明义务可谓一般意义上的个人信息处理者说明义务在算法决策场合的推演。

总体来看,在行政法与数据法的既有规范之中,双层说明义务已有相对成熟的制度基础,两层说明分别以行政公开与说明理由为制度基础,二者对于行政决定的理由供给虽各有侧重但却也一脉相承。从行政过程的视角观之,第一层是针对标准阶段的系统性说明,即保证社会公众对算法系统的技术原理具备必要的理解和判断能力;第二层则是对行为阶段的个案具体说明,即保障相对人与利益相关方的程序权利。二者的结合能够对于算法与行政权力的全过程耦合进行相对周延的解释说明 。

四、自动化行政决定双层说明义务的具体构建

双层说明义务在算法治理以及行政法治之中均已形成了基本的规范基础与价值立场,但具体的说明内容、说明方法、说明边界仍缺乏细致的制度安排。两层说明的运行机理、制度目的,以及其中涉及的客观限制与利益考量均存在明显的差异。第一层说明为事前说明,侧重于解释抽象化的系统功能,而无法就一个特定决定的理由依据进行说明;第二层说明为事中的说明,其内容则可囊括个案中特定决定的理由依据。因此,对于二者的具体构建不可武断且不加区别地笼统定之,需要从说明的对象、内容、重点与程度等方面入手,结合行政权力运行的特定阶段以及特定场景下不同主体对算法说明的具体需求进行精细化的分层建构。

(一)第一层:事前的抽象化系统性说明

自动化行政决定是算法与行政权力的全过程耦合,为实现对算法的充分解释以及相对人权利的无漏洞保护,需以行政过程论的视角对自动化行政决定进行全过程观察,进而突破行政行为形式论截取决定最终时点进行静态考察所带来的局部化、片段化、静态化偏狭。

按照行政过程论,行政权力运行过程的阶段性法律构造大致包括标准阶段、行为阶段、执行阶段、救济阶段,而整个过程的最前端即为标准阶段。据此,对算法的解释说明应尽可能提前,在“标准阶段”开展实施,以最大程度降低算法侵害的系统性风险。

第一层说明所扮演的角色是对算法的事前抽象化系统性说明。其所负担的使命是抽象性的理由供给,是一种经由规范逻辑进行演绎推理的结构,例如,“如果某人违反某法律规定,而违反该法律规定的人都要受到处罚,那么此人应受到处罚”。由此,第一层说明的内容是一种普遍的逻辑化理由,即对算法作为行政规则的解释说明。

第一层说明的目的在于保障公众对于算法的知情,该义务指向关于算法技术及其应用方面的有用信息,但无须涵盖算法的技术细节和复杂的数学解释。与此同时,鉴于第一层说明是向社会公众进行的一种在算法适用于行政决定之前的解释,行政机关需要公开的内容是一种对算法的精炼和概括,作出的解释说明能够使公众基本了解算法运行机理并作出大致准确的预判即可。具体而言,第一层说明所需涵盖的内容大致包含以下三项:

其一 ,行政机关需要披露在各类行政决定中算法的存在,以及介入行政权力运行的具体环节,初步打破算法决策的秘密性,使得相对人和利益相关方知道该行政决定的作出是有算法介入的。

其二, 行政机关应对算法运行的基本机理与逻辑进行解释。例如,“算法对决策过程中的贡献程度和贡献模式”“算法所依赖的数据及其来源”“算法对个人信息的具体配置模式”“算法对参数的处理方式以及对各项指标的加权幅度”“算法决策的范围及可能产生的后果”等关键技术要素。只有实现了技术的公开,才有可能建立社会公众对行政决定的预期,以及在个案中相对人对行政决定作出理由的理解。

其三 ,算法公开应当包含个人信息保护影响评估的内容。根据《个人信息保护法》第五十五条、五十六条之规定,行政机关利用个人信息进行自动化决策应当在事前进行个人信息保护影响评估。评估的具体事项包括:个人信息的处理目的、处理方式等是否合法、正当、必要;对个人权益的影响及安全风险;所采取的保护措施是否合法、有效并与风险程度相适应。可以看出,该制度的目的主要在于围绕个人信息权益的保护对信息处理行为的风险治理进行前移以规避算法问责的滞后性问题。然而,在自动化决策的语境之下这种个人信息保护影响的评估实际上也是对算法影响的评估。具言之,我国个人信息保护影响评估制度系借鉴自欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)第三十五条规定的数据保护影响评估制度(Data Protection Impact Assessment,DPIA),二者在具体规定以及实质内涵上高度趋同。但随着算法广泛嵌入公权力的运行,欧美国家已经将DPIA发展为算法影响评估(Algorithm Impact Assessment,AIA)。就自动化行政决定来说,其适用的算法直接涉及处理个人信息的合法性、正当性、必要性,同时构成影响个人信息权益乃至社会公共利益的主要因素。因此,即便《个人信息保护法》第五十五条并未要求评估的强制公开,但行政机关基于行政公开之基本原则,应当对评估内容与结果予以公开。

总体来说,第一层说明义务的具体构建需侧重于算法相关内容的公开,面向公众就算法的介入情况、运行机理,以及可能产生的影响三个面向的内容进行一种抽象化的系统性说明。

(二)第二层:事中的具体化个案说明

在第一层初步系统性说明的基础之上,第二层说明义务承担着在事中对自动化行政决定进行个案语境下的具体化解释职责,即将特定事实带入某一法律要件作出决定的原因说明。

在说明对象方面,基于说明理由制度的内涵构造以及《个人信息保护法》第二十四条对于解释权主体的限定,第二层说明仅针对行政相对人以及利益相关方,而不及于公众。在说明内容方面,第二层说明相比于第一层说明更加侧重于对算法在个案中对行政决定的作出以及相对人权益所产生的影响与程度,具有较强的场景性和针对性。从既有实定法规范来看,我国行政法律体系中说明理由的主流规定模式大致可以分为两种:一种是“采选式”,即对个案中“证据采信理由”与“依据选择理由”进行说明;另一种是“事情法”模式,即对行政决定的事理、情理、法理进行解释。结合两种模式之要点以及自动化行政决定中的算法特征,可以大致将第二层说明的内容归纳为三个方面:其一,算法识别案件事实,即主体资格、行为主体、行政决定构成要件等与决定作出相关的所有事实的理由。简言之,就是要对个案中每一个输入算法的元素进行解释。其二,算法选择适用法律规范的理由。其中可能涉及一般法与特别法的选择、不同位阶规范的选择,以及规范冲突情形下的选择等问题。其三,算法在涉及裁量的场景之下所适用的裁量基准、考虑的案件背景、具体情节等因素。当然,解释要注重行政权力运行过程中的整体涵摄逻辑,将行政决定置于连续的动态的行政过程中加以考察。行政决定仅仅是位于行政过程末端的一个静态的点,行政机关单纯地列举事实、所适用的法律以及相应的法律结论并不足以支持其所作出的行政决定。

对于说明方法,应当考虑相对人的理解能力,以清晰平实的语言以及可视化、示例解释等“用户友好”的方式进行。还可以考虑通过反事实解释的方式,更改原始的输入数据,以观察结果的相应变化,来让相对人更加直观地验证决定作出的正确性。从实用主义解释理论的立场出发,“解释的优劣在于是否满足接受解释者的兴趣,它是心理学的和场景论的”。面对算法,相对人所关心的并非算法在抽象意义上的参数与逻辑函数等,而是算法在行政决定作出过程中所发挥的具体作用,以及如何影响了自身的权利与义务。在相对人普遍缺乏算法知识、理解能力有限的情形之下,对算法细节进行生硬的技术化解释是无益于提升相对人对自动化决策的可预见性与可接受度的,显然也不会满足其对此类算法解释的兴趣。

(三)双层说明义务的适用边界

需要强调的是,行政机关对自动化行政决定的说明义务并非是无限的,两层说明的适用同样存在边界。这一方面缘于实定法之既有规定,另一方面实际也是均衡性原则作为行政法基本原则的题中应有之义。

就第一层说明义务来看,其存在法定的豁免情形。依据《政府信息公开条例》第十四条、第十五条之规定,公开后可能危及国家安全、公共安全、经济安全、社会稳定的政府信息,是被无例外禁止公开的;涉及商业秘密、个人隐私等公开会对第三方合法权益造成损害的政府信息,可由行政机关裁量决定是否公开。因此,对于涉及“三安全一稳定”的政府信息公开豁免是无需讨论的。而对于“涉及个人隐私与其他第三方合法权益的政府信息”是否公开则需要进行相应的利益衡量。实际上,涉及个人隐私的政府信息往往是直接包含个人信息的拆迁方案、征收补偿方案等,而在自动化行政决定的语境之下,算法作为实质意义上的行政规则并不涉及个人隐私,对其进行公开说明仅有可能与私主体所享有的商业秘密权益之间产生冲突。通过简单的利益衡量便可得出结论,对商业秘密的保护并不能阻止行政机关对算法进行公开和解释说明。具体而言,自动化行政决定中所适用之算法涉及重要的公共利益,且这些系统多是利用公共财政资金开发或采购的,向公众开放并进行系统性说明的必要性足以压倒对商业利益的考量。同时,对算法规则的知情权既是一种人权,也是可依据我国宪法推导出的公民权利。相对于私营公司的商业秘密保护,显然价值位阶更高。可见,在算法公开说明与商业秘密保护的博弈之中,胜负只有一种结果,行政机关在是否公开说明自动化行政决定中所应用之算法的问题上裁量空间实际已被压缩为零。

第二层说明的适用同样存在一定的边界。在地方行政程序立法中,说明理由的豁免条款已经屡见不鲜。其不同于《政府信息公开条例》中公开豁免之规定,并未设定“不得说明理由”的刚性限制,而仅列举了“可以不说明理由”的部分情形,即当行政决定存在以下三种情形时行政机关可以不说明理由:一是授益性行政决定,且第三人未提出异议的;二是情况紧急无法说明理由的;三是涉及国家秘密、商业秘密、个人隐私的。前两种情形实际上并不构成实质上的义务豁免,当事人可通过提出异议来获得行政机关的理由说明,而在决定作出当时无法说明理由的也需要在事后补充说明。重点在于第三种情形,其规定即便是涉及国家秘密的行政决定也不必然免除行政机关说明理由的义务,而是需要行政机关加以裁量判断。对此,可以从风险的角度加以理解。将涉及国家秘密的信息对公众进行公开与对具体当事人进行告知解释相比,前者可能造成的国家安全风险要远远高于后者。同时,在个案中的解释,也可通过多种方式对涉密信息进行控制,避免扩散。因此,虽涉及高位阶的国家利益也并不阻碍算法在个案中的解释说明。

从规范层面观之,第二层说明并不存在刚性的适用边界,然而,不存在刚性的适用边界不代表其适用完全不受限制。从比较法的视角来看,不少国家的行政程序立法均规定了行政机关可以不说明行政决定理由的若干情况,而其背后的立法考量便是行政机关在每一个具体案件当中对当事人解释说明决定的理由需要花费高昂的成本,同时还会丧失应有的行政效率。程序正义固然重要,但行政效率同样是现代行政法治所需考量的重要因素。同时,均衡性原则作为比例原则的核心子原则也对第二层说明的适用施加了限制。具体而言,均衡性原则并非只关注权利损害成本,不当地耗费财政支出成本同样是一种损害,是对纳税人权利的损害。尽管在个案中的算法解释可能对第三方权利损害成本很小,但实施算法解释的财政支出成本过大同样是不符合均衡性原则的。因此,对于第二层说明的适用,我们需要探究程序正义核心的道德边界,在这个边界以内,对于算法的解释说明无关成本;在这个边界之外,即需要结合个案中当事人权利保障的重要性与解释的成本,以及解释可能对其他权益产生的限制进行综合性考量。

总体来说,自动化行政决定中的算法以公开说明为原则,不公开说明为例外。两层说明义务因各自的制度目的与运行机理不同所面临的适用限制也不尽相同。第一层说明义务的适用边界是由“三安全一稳定”所形成的刚性边界;第二层说明义务的适用边界则是由均衡性原则下程序正义与行政效率间的博弈所形成的可伸缩的弹性边界 。

五、结束语:走向自动化行政决定中的“理由之治”

虽然法治作为一种“理由之治”已经是现代民主政治所公认的价值准则,但鉴于我国行政程序法尚付阙如,相应的公开制度与说明理由制度并未在法律层面实现体系化的建构。在数字时代,算法与行政权力的耦合掀起了传统行政程序的变革浪潮,这既是挑战也是机遇。目前,对私主体利用算法实施的商业行为,立法已经作出了反应,互联网信息服务中的算法备案、算法解释等机制已经有了相对明确的规范依据,但对于行政机关利用算法开展的自动化行政活动,还未出台专门的法律规范予以回应。这不仅不利于自动化行政背景下行政合法性与行政合理性的落实与监督,更是对相对人之合法权益构成了直接的威胁。应加紧行政程序立法,融合并优化算法治理与传统正当程序中与算法解释相关的制度措施,促进行政过程中理性化的讨论和说服,推动自动化行政理由之治的构建,破除公民与政府、人与算法间的信任危机。