李安 中南财经政法大学知识产权研究中心博士研究生

摘要:算法是智能社会的基础设施。打开算法黑箱,提高算法透明度,可以防止算法权力恣意,能够维护智能时代的民主自由价值。但是,算法主体常以商业秘密保护为由拒绝披露算法信息,且为获得商业秘密保护而强化算法信息的保密力度。冲突的解决之道在于利益衡量,两者的利益衡量不是算法透明背后的社会公共利益对商业秘密私人财产利益的位阶压制,而是算法透明背后的社会公共利益与商业秘密背后的制度性利益(竞争秩序和激励创新)的价值衡平。两者的制度建设应在比例原则的指导下相互协调:一方面,选择适当的算法透明机制,推行基于有限信息公开的算法原因公开;另一方面,诉求适度的算法商业秘密保护,引导算法专利保护并完善商业秘密的权利限制制度。

关键词:人工智能;算法透明;商业秘密;利益衡量;比例原则

一、问题的提出

自上世纪中叶以来,随着计算机和软件技术的不断发展,算法正逐步地走进人类生产生活的各个方面。尤其是近年来,人工智能技术推动人类社会发展成为一个“算法泛在”且“算法主导”的智能社会。算法技术是一把“双刃剑”,在助力人类社会智能化革命的同时,也催生了一系列诸如算法黑箱、算法偏见、算法杀熟、算法共谋等技术风险和社会问题。也就是说,算法有力量改变世界,但却不一定正确且正当地改变世界。

如何规制算法?这成为智能社会治理的重大议题。在算法规制的众多讨论中,算法透明是最受推崇的一项举措。算法透明,顾名思义,要求算法主体(设计者或使用者)打开算法黑箱,将与算法运作原理、算法决策过程有关的信息或公之于众,或报送主管部门。一般认为,算法规制分为事前规制和事后规制,前者以算法透明为代表,后者以算法问责为典型。有观点认为,算法透明不等于算法可知(seeing without knowing),也不等于算法可信(seeing without believing),因此算法透明并算法规制的理想方案,算法规制应侧重于事后的算法问责。尽管如此,算法透明作为算法规制的事前手段仍然是必要的,原因有二:(1)经过改良后的算法透明可以从形式透明(算法信息公开)走向实质透明(算法可知和算法可信)。具体改进措施如建立“算法影响评价”制度,以及后文将要提到的以“算法原因公开”为核心的算法透明机制。(2)在实践中,算法透明是算法问责的前提。 2019年4月,欧盟议会发布报告《算法问责与透明的治理框架》,同时强调算法事前透明和事后问责的重要性,并指出:如果我们不知道一个系统在做什么,我们就无法追究它的责任,进而不能对其进行有效地规制。总之,算法透明虽有不足,但仍是算法规制的“一般化原则”。

然而,算法透明在实践中常常遭遇算法商业秘密保护主张的抵制,而且算法主体为获得商业秘密保护往往强化算法信息的保密力度。算法透明与商业秘密之间的这种紧张关系,已被国内外多个学者提及;但遗憾的是,现有研究文献对两者紧张关系的讨论重冲突而轻协调,鲜有文献在制度建设层面深入讨论两者冲突的解决方式。智能社会的可持续性发展,要求我们直视并重视算法透明与商业秘密之间的冲突,并协调好各方利益。本文拟对此进行系统研究,以期对我国人工智能社会的发展有所裨益。

二、人工智能社会为什么需要算法透明

之所以要提高算法透明度,是因为算法黑箱滋生算法权力,而算法权力的恣意庇护或催生算法偏见、歧视、共谋等不公正行为。已有学者认识到这一点,指出算法“宰客”的治理重点应从消费者权利的保护转向经营者算法权力的规制。算法规制实质上是算法权力的规制,规制算法权力需要算法透明。算法权力指算法主体影响或操作他人生产生活的能力。具体而言,算法权力既是一种公共权力,也是一种规训权力,算法透明规制算法权力是对智能社会民主自由价值的维护。

(一)民主的价值诉求:算法透明约束算法公共权力

在人工智能时代,算法无处不在、无时不有,一个突出表现是基于算法的自动决策正在逐步地替代或补充人类决策。譬如,警察局利用算法进行警情预判,网络平台借助算法向用户推荐产品。如此大范围地使用算法进行社会性和商业性决策是一个关于权力的叙事,这种权力是一种“准国家权力”性质的公共性力量。因为,在人工智能时代,算法正以前所未有的广度(算法泛在)和深度(算法主导)介入人类社会的方方面面,而如此“广度和深度”的社会影响能力在算法时代之前是国家才拥有的权力。算法作为一种公共性力量,既覆盖公法领域,也涉及私法领域:(1)算法公共权力体现为算法系统对政府公权力行使的辅助,如投票系统、福利发放系统、警情预判系统等等;(2)算法公共权力表现为私人企业(以互利网企业为代表)的算法系统在事实上对我们社会生活的重要方面拥有一种类似于主权的普遍性控制。譬如,网络平台的内容推荐算法决定着新闻资讯的排名和曝光度,就像一只看不见的手操纵着内容的分发和传播,影响着用户的信息消费甚至是价值观的塑造。

透明原则是现代政府法治的重要组成部分,是规制政府公权力的重要措施。算法权力是公共权力在人工智能社会的延伸,因此,算法透明原则也是透明原则在人工智能时代的延伸,目的在于监督算法权力并使算法问责成为可能。学者埃兹拉(Ezra)称广泛且普遍存在的算法权力是“民主社会中的非法权力来源”,因为算法在“黑箱”中运作,人们不能对算法决策过程进行有效地讨论、审查和监督,违背了正当程序原则。也就是说,具有公共性质的算法权力只有通过民主机制特别是正当程序,才能够正当化、合法化。“民主是一种社会管理体制”,主要内容包括多数决定、保护少数和正当程序。现代民主价值实现的基础是“充分了解、充分参与”。算法权力恣意催生的算法不公正问题,很大程度上是因为社会公众在算法设计和使用过程中的缺位,是算法研发者和使用者在追求自我利益的理性行为所造成的一种社会非理性后果。在算法社会,提高算法透明度,推动公众在充分了解算法信息的基础上,充分参与对算法系统的监督、批评和建议,通过民主机制加强社会内聚力,有助于构建一个有人文温度的智能社会。

(二)自由的价值要求:算法透明制约算法规训权力

算法权力的产生于算法黑箱密切相关。算法语境中的“黑箱”有两层含义:(1)“黑箱”指一种信息记录装置,就像飞机、火车、汽车上面的数据记录仪器,俗称“黑匣子”;(2)“黑箱”指一个神秘地运作的系统,人们能够观察到系统的输入和输出,但是不清楚输入到输出的转换机制。在这个意义上,算法黑箱如同一个“暗室”,暗室里面的算法主体(以互联网公司为代表)可以向外监视社会公众的日常行为,并将这些信息记录在案;而暗室之外的社会公众却无法向内监督算法主体,对其使用用户信息进行决策的过程一无所知。在算法主体与受众之间的这种“观察/被观察、不可见/可见”关系中形成了一种重要的权力形式,福柯(Foucault)称其为“规训权力”,此种权力“是通过自己的不可见性来施展的。同时,它却把一种被迫可见原则强加给它的对象”。培根(Bacon)的格言“知识就是力量”(Knowledgeis Power)还存在另一种解读——“信息就是权力”,即信息优势者具有监视、干涉和操纵信息劣势者的能力。算法主体可以通过算法黑箱获得此种权力,并借此隐秘地影响或控制其“服务”对象,实施不公正行为。

算法规训权力的基础是算法黑箱以及由此产生的信息不对称。因此,规制算法规训权力的核心在于缓解这种信息不对称,具体路径有二:一是强化用户的个人信息保护,限制算法主体对用户信息的获取;二是提高算法透明度,保障算法受众从算法主体处获取算法信息。后者是本文讨论的主题。提高算法的透明度,规制算法规训权力,有助于自由价值在人工智能社会的实现。这里的自由既包括消极自由,即摆脱某种外在的束缚;也涉及积极自由,即强调主动地追求自由、实现自我发展和解放。算法透明对自由价值的促进体现为:(1)提高算法的透明度是对算法规训的反抗,是对消极自由的捍卫。如果说在算法主体与算法受众之间建立起信息不对称是算法规训的基础,那么强调算法透明就是对算法规训权力的反抗。尽管算法透明不能完全地消除这种信息不对称从而摆脱算法规训,但它尽量将之缩小到最低限度。(2)算法透明保障了社会公众对算法的知情权以及基于充足信息自由地作出理性抉择的权利,这是积极自由的实现。“在理性的社会中,公民只有充分地享有和行使了知情权,才能据以合理地安排自己的生活,并最大限度的保护自己的权利和权益”。比如,在充分了解算法相关信息的情况下,消费者可以对不同算法产品/服务进行比对分析,进而选择更加负责任、更为安全的算法产品/服务。

三、商业秘密:算法透明的法律障碍

算法透明要求算法主体公开与算法相关的信息。这些被公开的算法信息资可能是不同权利或利益指向的对象:算法受众对其享有知情权、算法用户对其享有隐私权或个人信息权、算法持有者对其享有知识产权(包括商业秘密)等权益。同一客体之上不同权利或利益的主张有发生碰撞的可能,如算法透明和商业秘密之间的冲突。

(一)商业秘密与算法的商业秘密保护

商业秘密权是知识产权的一种重要类型。TRIPS协议第39条规定,成员国有保护“未披露信息”(undisclosed information)的条约义务,任何人未经许可不得违背商业道德披露、获取、使用他人合法拥有的“未披露信息”。该“未披露信息”需具备三个特性:(1)秘密性,即该信息不为公众所知或不容易被公众获悉;(2)经济性,即该信息能够给信息持有人带来商业价值或市场竞争优势;(3)保密性,即信息持有人对该信息采取了合理的保密措施。我国1993年《反不正当竞争法》第10条,2017年、2019年《反不正当竞争法》第11条对商业秘密的法律保护做了详尽的规定。2020年《民法典》第123条将“商业秘密”列为知识产权法定客体之一。

商业秘密经常被用来保护算法技术特别是算法源代码及相关信息。算法,顾名思义,是从输入到输出的计算方法。算法有许多种存在方式,可以是以流程图表示的计算程序,也可以是供计算机操作运行的代码程序,后者就是我们通常所说的软件,包括程序员可阅读的源代码(source code)和机器可阅读的目标代码(objectcode)。也就是说,软件代码是算法的一种文本表述方式;在数字化时代,算法是软件技术创新的核心要素。在上世纪70年代软件知识产权保护模式的早期争论中,就有学者主张采用商业秘密对软件创新活动提供法律保护,并指出商业秘密是软件技术最合适的知识产权保护模式。具体而言,受商业秘密保护的软件要素主要是算法的源代码,以及与源代码相关的文档。软件权利主体通常将软件程序转化为目标代码形式在市场上发行,而算法源代码通常保留在权利人手中,从目标代码出发反向分析源代码需要成本较高的投入。因此,在软件市场发行之前,软件权利主体将源代码转化为目标代码是为了努力维持秘密信息,符合商业秘密保护的秘密性和保密性要件;而软件源代码的经济性价值,不言而喻。综上,源代码及其相关信息具有秘密性、保密性和经济性,可以受到商业秘密保护。

在我国,《反不正当竞争法》第9条第4款规定商业秘密是具有秘密性、商业性、保密性的技术信息、经营信息等商业信息,算法在理论上可归类为技术信息受到商业秘密保护。在司法实践中,非法披露、获取、使用他人的算法源代码及相关信息,被判定承担相应的民事责任甚至刑事责任。2020年8月发布的《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》(下文简称“最高人民法院2020年《商业秘密司法解释》”)第1条规定与技术有关的“算法、数据、计算机程序及其有关文档”等信息构成《反不正当竞争法》商业秘密定义条款(第9条第4款)所称的技术信息。该司法解释进一步明确了商业秘密法对算法的保护。

在实践中,算法技术采取商业秘密保护有两种情况。第一,商业秘密为算法技术提供全程的知识产权保护。第二,商业秘密为算法技术提供临时性的知识产权保护:算法技术最终选择专利权保护模式,但是专利申请的授权审查程序耗时较长,因此在专利文献公开之前,研发主体往往采取商业秘密对该算法技术进行保护,这样研发主体可以保留撤回专利申请(或在保持新颖性的情况下修改专利申请,或放弃专利权申请转采商业秘密保护)的行动余地。在这两种情形中,算法透明和商业秘密保护的冲突都有可能发生。

(二)算法透明与商业秘密冲突:原因和类型

商业秘密是算法透明的一个重要法律障碍,原因在于:(1)商业秘密保护禁止他人未经授权披露、获取、使用相关信息。算法主体据此拒绝披露算法信息,社会公众因此不愿意积极获取算法相关信息。(2)获得商业秘密保护的前提是信息不为公众所知且采取合理保密措施。算法主体为获得商业秘密保护会进一步强化算法信息的保密力度。学者安德鲁(Andrew)指出,“每一个算法问责方案(实质上是所有的技术问责)最终都会涉及怎么处理商业秘密这一问题”,因为只有掌握了充足的算法信息方能进一步判断算法的可责性。算法透明与商业秘密保护之间的这种冲突,在私法和公法领域中均有体现。

1.私法领域中的冲突:Viacomv. YouTube

Viacom是一家主营电影、电视剧、音乐唱片的传媒集团,拥有大量影视作品版权。YouTube是Google名下的一个著名视频分享平台。2007年,Viacom起诉YouTube侵犯其版权,理由是YouTube平台上存在有大量的未经其授权的音视频内容,且YouTube知晓这些侵权内容,并在信息搜索排名、内容推送等算法设计方面促进这些侵权内容的传播。为了举证证明上述主张,原告Viacom向法院申请要求被告Google公开谷歌搜索程序和YouTube平台上“VideoID”程序的源代码,以便查证Google是否在算法设计层面故意地促进侵权内容的传播。对此,被告Google辩称源代码为受法律保护的商业秘密,拒绝提供。最终,法官驳回了原告的诉讼请求,并解释到,原告的这些搜索软件和内容管理软件的程序源代码是数千个工程师多年的工作成果,毫无争议,代码之上的秘密具有巨大的商业价值。他人获取这些代码会得到程序的基本设计框架,可以在没有研发投入的情况下编写出与谷歌软件产品相似的软件,从而对谷歌产生竞争损害。因此,虽然原告主张被告披露源代码并接受检测,是查清YouTube检索算法是否显著地提高侵权内容的搜索排名和可见度的最好方式,法院否决了原告的诉讼请求——要求被告公开源代码,因为公开源代码会导致被告丧失其商业秘密权利。

2.公法领域中的冲突:Statev. Loomis

智慧司法产品“罪犯替代性惩教管理分析系统”(Correctional Offender Management Profilingfor Alternative Sanctions,简称COMPAS)是一款用于判例管理和判决辅助的算法系统,由一家私人企业“Northpointe”研发,如今被美国纽约、加利福尼亚、威斯康辛、佛罗里达等地区的多个法院采用。COMPAS使用算法来计算评估待决犯罪嫌疑人再次犯罪的风险,陪审团和法庭以COMPAS出具的风险评估报告为参考对罪犯进行量刑。针对COMPAS的一种重要批评是,该系统由私人开发,其算法受商业秘密保护,因而社会公众特别是受其影响者不能检测该算法系统的公正性,因此损害了他们的正当程序权益。这种利益冲突集中体现在2016年的“State v.Loomis”案中:在该案中,COMPAS出具的评估报告显示刑事被告人Loomis再次犯罪的风险较高,法庭以此为参考给Loomis判了两项最高刑罚;对此,Loomis上诉称,法院参考私人开发的且未充分公开其计算过程(如算法源代码、不同因素在风险计算中的权重等)的风险评估算法对自己进行量刑,侵犯了其正当程序权利。不过,法院驳回了Loomis的诉求,指出“虽然被告不能复查或挑战COMPAS算法如何进行风险计算,但是他有机会修改COMPAS系统风险评估中所列问题的不正确回答”。换句话说,法院认为Loomis对COMPAS系统的复查和挑战只能限于该算法系统的输入数据,而不涉及算法本身,这种主张遭到了学界的广泛批评。

四、算法透明与商业秘密的利益衡量

算法透明与商业秘密之间的冲突实质上是利益冲突。利益冲突的解决是对不同利益主张进行衡平,我们称之为利益衡量,或法益衡量。算法透明与商业秘密冲突的解决之道就在于两者的利益衡量。

(一)利益衡量:内涵与方法

利益衡量是法学中的一项重要思维工具,其具体内容是:从法律冲突中解析并展示出不同样态的利益,进而对这些利益进行对比和排序,权衡其背后的基本原则和价值,由此得出冲突的解决之道。国内关于利益衡量的学术讨论多集中于个案的司法裁判领域。不过,张新宝教授指出利益衡量“应当是立法者的使命,而不是司法者的任务”,即便是司法领域中的利益衡量,也多属于衡平法院(如最高法院、宪法法院)进行的“法官造法”,即美国大法官卡多佐(Cardozo)所谓的“立法性司法活动”。综上,利益衡量作为一个方法论,是法律适用的方法论,也是法律创生的方法论。相对于下文利益协调方案(相关制度的建立和完善)的提出,在本文中算法透明与商业秘密的利益衡量更多地倾向于立法层面的利益衡量。

概括而言,利益衡量的具体方法有两类:一是围绕利益分类和排序展开的事实进路,二是立足基本原则和价值判断的规范进路。这两种方法在“泸州遗赠案”的相关争论中有着集中体现。该案的基本情况是:黄某生前将自己的财产遗赠给婚外同居者张某,张某与黄某妻子蒋某就该财产的继承问题产生纠纷并诉至法院,一二审法院均判决黄某遗嘱违背公序良俗因而无效,张某不能依此继承财产。之所以如此判决,一种通行的解释是:在该案中相冲突的利益是婚外同居者张某的财产继承利益和公序良俗这一社会公共利益,后者在位阶上优于前者。对此,有学者表示异议,指出该案中相冲突的利益应该是遗嘱自由、法的安定性等制度性利益和表征为公序良俗的社会公共利益,因此不能通过简单的利益位阶排序得出裁判结果。这两种方法的争论,同样出现在算法透明和商业秘密的利益衡量中。

(二)透明VS秘密:从位阶压制到衡平共存

1.位阶压制:算法透明优于商业秘密?

从利益分类排序这一事实进路出发,算法透明与商业秘密的利益衡量似乎很容易得出结论,即算法透明优于商业秘密。一般而言,利益可从主体角度分为个人利益和社会公共利益,也可从内容视角分为财产利益和人身利益、经济利益与政治利益等。社会公共利益优于个人利益,人身利益优于财产利益,宪政性的基本利益优于一般的民事利益,这是较为通行的利益位阶关系。

循此思路,算法透明和商业秘密的利益解析如下:(1)算法透明背后是人工智能时代的知情权,代表着广大算法受众诉求的信息利益,也事关算法的监督和问责。就利益主体而言,相对于某个算法主体,算法受众是广泛且不特定的,也就是说,算法透明表征的信息利益和算法监管利益是一种针对不特定算法影响者的社会公共利益。就利益内容而言,作为一个概括性的社会公共利益表述,“信息利益”在具体层面有多种利益样态的可能,如在前文所述的Loomis案中表现为被告的自由权益和正当程序利益,在前文所举的Viacom案中表征为原告的版权财产利益;“信息利益”在抽象层面,如前文所述,表现为民主价值和自由价值等对现代社会具有“结构性意义”的宪政利益。(2)商业秘密由算法主体持有,就其利益主体而言,商业秘密属于私人利益;就其利益内容而言,商业秘密代表的是商业性的财产利益。(3)在利益位阶上,算法受众的信息利益(以及算法监管利益)这一社会公共利益应优先于算法主体的私人利益,算法受众的信息自由、信息民主等等宪政利益应优先于算法主体的财产利益。综上,算法透明应优先于商业秘密保护。学者多以上述利益衡量方法作为说理逻辑,主张商业秘密保护应让位于算法透明和算法问责;有观点更是直言算法的商业秘密保护相对较弱,“只要祭出公共利益或者它的道德形式——共同善(public goods)”就可以在特定情况下将其否定。

上述关于算法透明优于商业秘密的利益衡量,重点在于“利益”解析,而非价值“衡量”。学者蔡琳对这种分析进路提出批评,指出利益的解析不只有横向维度的利益划分和识别、纵向维度的利益比较和排序,还存在第三个维度——不同利益之间理由层级的考察。英国学者拉兹(Raz)将行动理由分为一阶和二阶两个层次,二阶理由是针对一阶理由的理由;同一位阶的理由冲突可以通过份量轻重的排序来予以解决,但这不适用于不同位阶的理由冲突,因为二阶理由总是优于一阶理由。借用拉兹的理由阶层理论,利益也有一阶和二阶的区别,二阶利益是支持(或否定)一阶利益的理由。学者梁上上指出利益具有一定的层次结构,即个人利益、群体利益、制度利益和社会公共利益,前两者较为具体,后两者较为抽像。在法律实践中,某一具体利益往往由某个抽象的制度性利益或社会公共利益作为背书。

2.价值衡平:算法透明与商业秘密理应共存

不同位阶的利益(理由)冲突不能通过份量轻重的对比排序予以解决,真正的利益“衡量”往往发生在多个二阶利益(理由)之间,这些二阶利益(理由)通常表现为某项法律原则或价值,也可能采用某种抽象的利益表述。譬如,在“泸州遗赠案”中,支持张某财产继承利益(一阶利益)的制度性利益(二阶利益)是意思自治和法的安定性,因此,在该案中相冲突的利益不是张某的财产继承利益和表征为善良风俗的社会公共利益,而是张某继承利益之后的制度性利益(意思自治、法的安定性等)和善良风俗这一公共利益。不仅司法层面的利益衡量如此,立法层面的利益衡量更是倾向于具体利益背后法原则和法价值的衡平。

同样地,在本文的讨论主题中,算法主体的商业秘密利益也有一个制度性利益作为二阶理由。法律为什么要保护商业秘密?这里的“为什么”就是商业秘密法律保护的二阶理由。美国联邦最高法院在1974年“Kewanee Oil v. Bicron”判例中明确指出“维护商业道德和鼓励商业活动中的创新创造是商业秘密法的基本宗旨”。在我国,商业秘密保护主要规定在《反不正当竞争法》第9条,该法第1条和第2条规定制止包括侵犯商业秘密在内的不正当竞争行为旨在维护商业道德和市场竞争秩序。同时,作为《民法典》第123条所列知识产权法定客体之一,商业秘密保护承载着知识产权激励创新的制度价值,具体而言,商业秘密的法律保护属于典型的“支援型激励机制”。法律体系所认可、培育和保护的价值是制度化价值,这即制度利益。因此,可以说,市场秩序和创新激励是算法主体之商业秘密利益的制度性利益,是算法主体主张商业秘密保护的二阶理由。

由此反观上文算法透明和商业秘密之间的利益衡量,“表征为不特定算法受众信息利益的社会公共利益”与“算法主体的财产利益”之间的比较是不是刻意地忽略了算法主体商业秘密财产利益背后的市场秩序利益和创新激励利益呢?恰如学者们对“泸州遗赠案”判决的检讨,算法透明与商业秘密之间相冲突的利益,应是算法受众信息利益背后的社会公共利益和算法主体商业秘密财产利益背后的制度性利益(市场秩序和创新激励),其利益衡量更多的是算法透明的二阶理由(民主、自由价值)与商业秘密的二阶理由(秩序、效率价值)之间的价值衡量。

可以认为,算法透明与商业秘密的利益衡量,不是单纯地通过利益比较和排序得出“算法透明优于商业秘密”(或商业秘密优于算法透明),而是通过利益、原则和价值的衡量来更好地“平衡算法透明和商业秘密”。这一点认识很重要,它可以指导我们从利益冲突走向利益协调。正如拉伦茨所言,“为重建法律和平状态”,有时候“两者在某一程度上必须各自让步”。也就是说,算法透明与商业秘密间的利益衡量结果不再是一方全败或全胜,不再是一方完全压制或排斥另一方,而是要走一条中间的协调道路:各自让步、互相协调。

五、比例原则指导下的利益协调方案

在科斯(Coase)看来,相冲突的利益具有相互性,即保护甲种利益的同时会侵犯乙种利益,而避免乙种利益受损则会影响到甲种利益。在算法透明与商业秘密利益衡量之后,面临的问题是,该以何种“尺度”来处理各方的利益保护与利益牺牲(利益让步)关系?对此,应遵循“比例原则”予以处理,比例原则在一定程度上是利益衡量的另一种表达,其要义正如拉伦茨所言是“目的与手段间应有适切的关系,侵越受保护的法益,不能逾于被认可的目的所必要者”。

具体而言,比例原则由三个子原则组成:一是妥当性原则,强调所采取的手段必须有助于目的之达成;二是必要性原则,要求在达成目的之诸多手段中选择对他人利益损害最小的手段;三是均衡性原则,也称狭义比例原则,指采取该手段对他人利益造成的损害要与该手段所欲达成之目的(增进的公益)相均衡。比例原则,虽然源自宪法和行政法理论,但是其“手段/目的”分析框架也广泛地适用于包括知识产权法在内的民法领域。

立足比例原则,本节所要探讨的问题是:(1)为保障算法受众的信息利益进而实现有效的算法监管和问责,我们需要何种方式的算法透明,才能对算法主体的商业秘密利益造成最小的损害?(2)为维护市场竞争秩序以及提供创新激励,我们需要何种程度的商业秘密保护,才能对算法受众的信息利益以及算法监管活动带来最小的影响?可以说,算法透明与商业秘密相协调,就是要求我们在比例原则的指导下选择适当的算法透明和适度的算法商业秘密保护。

(一)适当的算法透明:信息公开转向原因公开

1.算法透明的类型:鱼缸型透明与原因型透明

何为算法透明?学者喀利(Cary)指出算法透明包括“鱼缸型透明”(fishbowl transparency)和“原因型透明”(reasoned transparency)两类:鱼缸型透明,顾名思义,指社会公众可以像观察鱼缸中的鱼一样清晰地透视算法的内部情况,也就是说,鱼缸型透明强调人们能够获取充足的算法信息;原因型透明,强调算法所公开信息的实用性,即算法主体应该公开算法运作的原理,对算法如何决策进行说明,算法受众可以据此更加直接地了解和监督算法系统。与此相似,学者帕斯夸莱也有区分“算法透明性”(transparency)和“可理解性”(intelligibility),这里的算法透明性在学者喀利的语境中是狭义的。在很大程度上可以说,学者帕斯夸莱所说的“算法透明性”和“算法可理解性”大致等于学者喀利所谓的“鱼缸型算法透明”和“原因型算法透明”。

总体来讲,鱼缸型透明是一种简单的信息公开,最彻底的信息公开就是公开算法源代码。这是一种形式意义上的算法透明,仅要求算法主体尽可能地披露算法信息,而不要求算法主体对算法信息作出解释。与之不同,原因型透明是一种原因公开,不要求算法主体完全披露算法信息,但要求算法主体向社会公众解释算法如何运作和决策,这是一种注重实际后果的算法透明。本文主张采取原因公开这一算法透明方式来保障算法受众的知情权利、强化算法监管和问责。因为,在比例原则的分析指导下,相比于算法信息公开,算法原因公开更有助于在算法透明和商业秘密之间实现利益协调。

具体分析如下:(1)从比例原则之妥当性原则来看,原因公开相比于信息公开更有助于达致算法透明目的,即保障算法受众的知情权进而实现算法监管和问责。算法信息公开的不足,体现为以下两点:第一,算法信息具有技术性,分析理解算法信息需要相当程序的专业知识水平,因此即使是算法主体完全地披露了算法信息,算法受众对于算法及其决策机制仍然一无所知。第二,算法的信息公开可能会异化为信息干扰,算法主体会“以信息公开之名,行信息隐藏之实”:被公开的算法信息越多,算法受众获取并解读有用信息的可能性就越小。相比之下,算法原因公开对于算法受众而言更为友好:一方面,原因公开是非技术性的算法运作解释和算法决策说明,技术性算法信息的理解分析任务不再由普通的算法受众负担;另一方面,原因公开是有中心主题的算法信息公开,与算法运作和决策无关的信息不在公开范围,这在很大程度上是对被公开信息的“降噪”。(2)从比例原则之必要性原则来看,相比于算法信息公开,算法原因公开在达致算法透明目的的同时,对算法主体商业秘密权利的损害更小。算法信息的完全公开意味着算法源代码及其相关信息的公开,这势必会损害算法主体的商业秘密权利。算法原因公开可以在算法源代码及其他商业秘密信息有限公开(仍保有其秘密性)的情况下,向社会公众解释算法如何运作和决策。(3)从比例原则之均衡性原则来看,算法原因公开在算法透明方面的增益要大于对商业秘密权利的干预损失。

2.建立以“算法原因公开”为核心的算法透明机制

主张算法原因公开不是说要完全舍弃算法信息公开,“原因型透明”需要一定程度的“鱼缸型透明”作为基础。基于此,以算法原因公开为核心,本文提出算法透明两步走框架:第一步,算法主体向一个范围较小的且签署保密协议的专家小组披露包括算法源代码在内的算法信息;第二步,专家小组对算法主体披露的算法信息进行分析和核验,形成一份关于算法运作和决策过程的原因说明,该份算法解释报告面向社会公众公开。算法透明两步走框架,以及算法信息透明和原因透明的关系,如图1所示。总之,可以说,基于算法信息有限披露的算法原因公开,既可以有效地保障社会公众知情权利,同时又最大程度地降低对算法主体商业秘密权利的干预。

图1

算法原因透明的另一种形式是“算法解释权”,该权利概念源自欧盟2016年通过、2018年生效的《通用数据保护条例》(简称GDPR)。GDPR没有明文规定“算法解释权”,该权利是学者们从GDPR前言第71条、正文第22条等条文中解释出来的,即用户有权获得关于算法决策如何作出的解释,进而据此对算法决策提出异议。用户的算法解释权与前文所述的原因型算法透明的主要区别在于:GDPR中的算法解释权是一个算法决策后的解释,是算法主体依用户要求而作出的个案性解释;而前文所述的原因型透明是一个算法决策前的解释,是算法主体主动作出的一般性解释。总体来看,用户的算法解释权属于算法原因透明的一种具体形式,完整的算法原因透明包括算法决策前一般性的算法原因说明,也涵盖算法决策后个案性的算法原因解释。

(二)适度的算法商业秘密保护:替代与限制

一项法律制度由两个部分构成:一是制度所欲实现的目的,这是制度利益之所在;二是实现该目的所欲采用的具体手段。根据比例原则,制度目的的实现也即制度利益的获取,应当采取适当的手段。就知识产权制度而言,其制度目的(制度利益)是激励创新,实现这一目的的具体制度方式可以是商业秘密权,也可以是专利权。我们可以采用比例原则来检视算法商业秘密保护方式和专利保护方式的优劣:从适当性原则来看,算法的商业秘密保护方式和专利保护方式都能够促进算法技术的创新发展;不过,从必要性原则来看,算法专利保护的前提是技术信息的充分公开,其对算法透明的实现干预较小,而算法商业秘密保护的前提是技术信息的秘密性和保密性,其对算法透明的实现干预较大。

经比例原则检视,似乎可以得出,算法的专利权保护方式在算法透明场景中要优于算法的商业秘密保护方式。但是,在实践中,算法技术不可能完全采取专利权保护方式,原因有三:(1)商业秘密保护的门槛要比专利低的多,特别是算法是否是适格的可专利主题一直都存在争议。(2)如上文所述,即使是申请专利权来保护算法技术,在专利申请审批程序中算法技术通常处在商业秘密权的保护之下。(3)只要符合法定条件,算法主体有自由选择何种知识产权保护方式的权利,法律没有理由剥夺该项自由。综上,算法技术可以采用门槛较低但与算法透明相冲突的商业秘密保护方式,同时也有机会采用门槛较高、适格与否争议但对算法透明干预较小的专利保护方式。基于此,算法商业秘密保护的“适度”在本文中可具体化为以下两点。

1.算法技术商业秘密保护的选择要适度

商业秘密保护方式的选择要适度,指可以引导算法主体采用专利而非商业秘密保护方式。算法的商业秘密保护和专利保护之间有着互为替代的密切关系,美国学者丽贝卡(Rebecca)指出美国联邦最高法院2014年的Alice案判决,使得算法取得专利保护变得非常困难,这是算法知识产权保护模式偏向商业秘密的一个重要原因。

引导更多的算法主体采用专利保护方式,有以下两个努力方向:(1)为算法技术设定较为宽松和明晰的专利保护规则,这样可在一定程度上吸引算法主体从商业秘密保护方式转向专利保护方式。计算机程序算法的可专利性,以美国判例法为例,从否定(1972年的Benson案)逐渐走向开放(1981年Diehr案和1998年StateStreet Bank & Trust案),又转向限缩调整(2010年Bilski案和2014年的Alice案)。尽管道路曲折,但是总的方向是肯定计算机程序算法作为可专利主题。《专利法》第25条第1款第2项将“智力活动的规则和方法”作为专利客体排除主题之一,这是算法专利申请的主要法律障碍。但严格来讲,“程序算法是运行独立于人脑的物理系统(计算机)的具体方法步骤,并非抽象的思维规则”。为回应人工智能领域专利申请的新形势,国家知识产权局2019年12月对《专利审查指南》作出最新修订,多处涉及算法,其中在第6.1节“审查基准”部分强调不能简单地一概否定包含算法的专利申请,而是要对专利申请中的算法特征、技术特征等作整体性考虑,这为我国的算法专利申请和审查提供了指引。(2)设立算法技术专利申请的快速审查通道,这样可以将审查程序中受商业秘密保护状态的算法技术尽早地转向专利权保护。

总而言之,选择什么种类的知识产权保护方式,是算法主体的自由,但是一个便捷且清晰的专利权保护机制的存在,将会鼓励一部分算法主体选择从算法商业秘密保护转向专利权保护,毕竟专利权要比商业秘密权更具法律专有性。

2.算法技术的商业秘密保护力度要适度

算法技术的商业秘密保护力度要适度,指建立和完善商业秘密权利限制制度。如同著作权、专利权、商标权等,商业秘密权也不是绝对的,算法的商业秘密保护的有限制的。商业秘密权规制秘密信息的非法获取、披露和使用行为,前两者是权利限制的主要落脚点。一般而言,通过反向工程和独立研发获取与算法有关的商业秘密是合法的,为了保护公共利益等披露与算法相关的商业秘密也是合法的。如美国2016年《保护商业秘密法案》第2条规定了反向工程获取商业秘密的合法性,第7条规定了“告密人”免责制度,即为了揭露涉嫌违法的行为,告密人以密封的方式向法院、政府或律师披露他人商业秘密,可以免责。无独有偶,欧盟2016年《商业秘密保护指令》前言部分第16条规定了反向工程的合法性,正文第5条规定为“保障言论、信息和新闻自由,维护公共利益,保护员工权益”等披露他人商业秘密可以免除法律责任。欧洲学者玛利亚特雷萨(Mariateresa)指出,欧盟2016年《商业秘密保护指令》第5条关于商业秘密披露的限制可以适用至算法透明,即如果算法信息的披露符合第5条,那么商业秘密权利人无权对信息披露人提起诉讼。

目前,我国已经对商业秘密的获取作出了一些例外规定,如最高人民法院2020年《商业秘密司法解释》第14条规定了反向工程的合法性;但是,我国对商业秘密披露的例外规定,尚付阙如。基于权利相对性理论和域外法治经验,我国应尽快建立商业秘密披露例外制度,至于制度设计问题,本文主张采用美国式的“告密人”制度。美国2016年《保护商业秘密法案》第7条和欧盟2016年《商业秘密保护指令》第5条都有商业秘密披露的公共利益(揭发违法行为)例外,但是在比例原则的检视下,前者的制度设计要优于后者。

具体而言,美国2016年《保护商业秘密法案》第7条对披露的方式和对象做了特别设计,即由“密封式披露”和“对可信主体披露”为权利人构建了一个“安全港”。这种设计的合理性在于:实践中披露人可能会对违法行为产生误判,此种情况下,如果贸然公开秘密信息,权利人将会因为商业秘密之秘密性要件的破坏而永久丧失权利。这是一种不可挽回的损害,必须予以慎重考虑。侵越商业秘密权利来揭发不法行为、维护公共利益,要遵循比例原则,禁止“为达目的而不择手段”。因此,商业秘密披露的公共利益例外制度设计,应采用对商业秘密权利最低限度干预的披露手段来揭发不法行为,实现手段与目的之间的平衡。基于此,我国可参考美国的立法例来构建商业秘密披露的公共利益例外制度,把信息的披露方式规定为密封或加密信件,将披露信息的受众限定为可信赖的特定主体,如政府监管部门、法院、检察院或代理律师。

六、结语

提高算法透明度有助于防止算法公共权力和算法规训权力的恣意,有利于维护人工智能社会的民主自由价值,因此算法透明是算法规制的一般化原则。但在实践中,算法透明面临商业秘密保护这一法律障碍。两者冲突的解决之道在于利益衡量,即算法透明背后的社会公共利益与商业秘密权背后的制度性利益(竞争秩序和激励创新)的价值衡平。经此利益衡量,算法透明与商业秘密之间应各自让步、互相协调,具体而言,就是在比例原则的指导下选择适当的算法透明和适度的算法商业秘密保护:(1)适当的算法透明分两步走,首先算法主体向封闭的专家小组完全披露算法信息,然后专家小组将所披露的算法信息分析转换成为算法决策的原因说明,向社会公众公开。(2)适度的算法商业秘密保护,一方面指算法知识产权保护模式采取商业秘密方式要适度,我们要引导算法主体采用专利保护方式;另一方面指算法的商业秘密保护力度要适度,应建立和完善商业秘密的权利限制制度。

原文载于《电子知识产权》2021年第4期

来源:《电子知识产权》

本公众号定期推送知识产权及竞争政策相关的法律政策与政府文件、最新全球行业信息、国外国防产权动态、原创文章与专家观点、业内高端活动消息、《电子知识产权》(月刊)&《竞争政策研究》(双月刊)文章节选及重磅全文、专利态势发布、中心最新成果发布及相关新闻报道等诸多内容,欢迎各界人士关注!