作者:傅宏宇 阿里研究院AI治理中心主任

AI立法在AI治理体系中具有举足轻重的作用,在欧盟AI法案率先亮相的背景下,AI产业对AI立法的中国方案有较多的期待,希望在以下方面作出制度性回应:一是衔接AI总体发展要求和落实机制,在发展和安全、创新和风险等多元目标之间做出有确定性但又保持灵活性的制度选择;二是识别AI技术前沿化发展和通用化应用中的风险变化特征,在现有制度约束、监管资源限制、治理路径依赖的语境下,明确风险共识,建立符合AI发展应用特征的风险管控模式;三是厘清AI技术体系中多元的主体关系,制度化地解决主体身份边界模糊对法律责任认定带来的挑战,在保障AI生态体系内自发秩序的同时通过他律进行有效的法律管控。如何定位好我国的AI立法,使其符合我国AI发展目标,能够调动资源要素禀赋,保障社会伦理安全,在全球积极推进AI立法进程中提出包容创新发展、保护人类价值、有效管控风险的中国法治方案?对此,近期发布的《中华人民共和国人工智能法(学者建议稿)》(下称“《建议稿》”)对于产业侧核心关注的问题给出了有针对性的解答。

1

通过全面性立法,有效处理了AI发展政策和安全规范相冲突、AI权利保护不明确的问题

我国AI政策经历了从促进发展到强调安全并进入两者兼顾的多个周期,积累下来的诸多制度存在内生性的矛盾,发展政策和安全规则脱节失配,在具体适用中造成诸多实践性困难。《建议稿》尝试构建统一的制度框架,对发展促进、权利保障和安全治理三大议题进行系统性回应。对于促进发展的要求,除了通过专章总结政策方案外,也在治理义务章节中通过风险限定、责任分担等具体制度得以体现。此外,《建议稿》探讨了知情、解释、拒绝等程序性权利以及公平、保障等实质性权利,在隐私、版权、数据等传统权利基础上,面向AI的新型权利体系浮出水面。

全面性立法能够更加系统性地回应和解决目前我国AI发展面临的制度困境。例如就目前各方关注的训练数据知识产权侵权问题,《建议稿》从发展、权利和治理三个角度进行了体系化的回应。在发展与促进章第24条,其明确了训练数据版权合理使用规则,即在满足特定条件下将享有著作权的数据用于模型训练,构成著作权法下的合理使用,其同时也提出开发者应以显著的方式标注数据来源;在第三章使用者权益保护第35条中,则确认了根据使用者对AIGC最终内容的贡献程度按照版权法的规定判断AIGC生成物是否受版权保护的原则,并明确版权归属于自然人或法人而非AI系统,同时贡献程度的判定应聚焦于“最终呈现”的版权法意义上的作品“内容”;为了有效监管版权内容,在第四章开发者与提供者义务规范第48条则衔接了上述第24条的规定,重申了内容标识制度的安全要求。基于此,《建议稿》在促进侧提出了训练数据版权合理使用制度,但也明确了水印等安全治理要求,同时在权利保护中确认了AIGC生成物的版权归属。上述方案既保证了人工智能技术进步的关键要素——高质量训练数据的获取和使用,又通过引入技术手段实现了治理层面下的义务要求,同时还明确了AIGC内容和人类创作的基本关系,这种体系化的立法回应为解决我国AI实践中的数据利用问题提供了一站式解决方案

2

明确了符合AI技术应用特点的风险判断思路,建立鼓励创新的风险容错机制

“基于风险的AI治理”在部分形式上(如分类管理、多方参与等)获得了初步共识,但作为风险治理的前提,AI风险是什么、如何在高度动态的研发和应用中识别AI风险,各国、各界存在较大分歧。虽然没有采取欧盟AI法案在定义部分明确风险概念的形式,但是《建议稿》在第41条提出,AI风险的应对措施“应当与风险大小、发生概率、技术发展水平以及实施成本相适应”,构建了符合技术理性的风险概念,即AI风险是伴随AI技术发展而必然存在的负面效应。从外生的视角来看,风险是AI对国家、社会、个人权益造成的危害程度和发生概率的乘积,基于此可以对风险进行分级分类,《建议稿》第61条要求根据AI在经济社会发展中的重要程度以及可能造成危害的程度进行分级分类监管,即为此视角的体现;从内在的视角来看,风险既会伴随着AI技术发展而产生,也会因为技术进步而减弱,同时风险管理也存在边际效益递减、边际成本递增的特点,寻找到最优化的解决方案才能保证AI风险管理体系的可持续,《建议稿》第61条也提出分级分类评估机制要根据技术发展、行业领域、应用场景等因素制定标准并“动态调整”,即为此可持续思路的延伸。

在理性认知AI风险的基础上,《建议稿》基于AI技术创新性强、普及速度快、研发应用不确定性大的特点,在治理风险的制度安排中融入了鼓励创新的风险容错机制。如第66条提出的因进入监督管理试点而在法律责任等方面给予开发者、提供者的相应激励或者责任减免,以及第83条在行政处罚考量因素中加入减轻或处理违法行为采取的措施、配合主管部门调查的情况和此前遵法的情况等。在技术日新月异的时代,适当的风险容错设置将有助于减轻AI开发者和提供者面对未知合规风险的压力,在激发AI领域的积极探索和创新的同时,鼓励其主动参与监督管理,从而促进发展与治理的良好互动与并进。

3

设立避风港规则,回应因大模型技术发展而重启的关于技术中立性原则的探讨

大模型技术的快速发展是专用AI走向通用AI的标志,AI摆脱了场景单一、目的限定的限制,而对大模型的使用则体现了“实质性非侵权用途”的特点。大模型的基础性和通用性功能带来了两个方向治理要求,一是因为大模型本身的能力超越了传统AI,需要在安全技术和管理方面高标准、严要求,二是大模型将成为智能社会的技术底座,需要解绑束缚大模型的责任压力,让大模型更好地应用于千行百业。对于前者,《建议稿》吸纳了我国和其他国家关于生成式人工智能的相关治理要求,在关键人工智能和法律责任章节对基础模型设置了较高的安全要求。但同时,其也确认了大模型代表的通用人工智能所具备的技术中立属性,将避风港规则应用于AI技术生命周期之中,在保障模型安全性的基础上设立了与通用AI相适配的责任分担机制。

《建议稿》第87条设置了基于“通知-删除”规则原理的避风港机制,对各方需承担的注意义务进行了合理分配,其要求权利人承担主动发现和通知、提供侵权初步证据及真实身份信息等前置义务,同时也将使用者纳入共同责任的承担中,而非仅由提供者进行独立的责任承担。此外,在权利人通知的情况下,该机制将服务提供者应承担的连带责任限定在损害的扩大部分,而在权利人未通知的情况下,该条也采用了过错原则来判定服务提供者应承担的连带责任。这样的避风港机制安排在为第三方提供合理的权利保障机制的同时,也有效提高了技术开发和服务提供端的责任预判性,在利益权衡中充分考虑了通用AI的技术特征,符合我们对于拥抱技术中立的期待。

4

通过合理的分层机制,确立符合AI生态特点的主体责任分配原则

《深度合成算法服务管理规定》提出将深度合成服务中的主体拆分为技术支持者、服务提供者、服务使用者,对三类主体分别确定了对应的安全保障义务,形成了主体分层的归责原则。采用此种主体分层机制的核心原因在于分层治理让法律责任的设定更为贴近产业实际运行,符合各类主体根据其实际功能对应当履行的安全保障义务区间的合理期待。在此基础上,《建议稿》进一步明确了使用者责任,平衡了使用者与研发者、提供者的义务分配,比如从原则上要求使用者正当使用AI技术(第8条)、规定主管部门应当针对使用者进行宣导监督(第60条),在责任分配中引入了使用者过错责任制度(第86条),在新闻人工智能(第71条)、社交机器人(第73条)、自动驾驶(第75条等)等特殊应用场景中,强调了使用者合规使用的义务。

值得指出的是,分段式的主体责任安排在适用于大模型开源生态时,也存在一定的困难。基于开源大模型构建的合作开发应用生态所涉主体复杂,因果关系多元,和基于明确身份构建的主体责任分配机制存在一定的矛盾。对此,《建议稿》在第90条按照基础模型——衍生利用初步界分了基础模型和后续优化模型、垂类模型以及服务应用的关系,虽然各类研发者、服务者、使用者的身份依然存在交叠,但该条对于近期更为多样化的大模型生态的制度回应值得肯定。同时,该条也明确开源基础模型不需要对衍生利用承担连带责任,而如何根据我国大模型开源的实际情况和发展需要,采用技术保障、负责任研发规约、安全评测等自律和他律相结合的手段保障大模型开源生态在安全、健康的状态下持续创新,期待进一步讨论。

大模型革命以来,AI研发和应用受到了更多关注,承载了新的期待。适逢其时的一部综合性立法,如果能够解决技术演进迭代和制度稳定可预期之间的张力,构建顺应AI技术发展、符合AI应用特点的制度框架,在强调外力约束的同时引导负责任AI的自发秩序,并为技术完善、政策创新、国际合作等议题预留制度接口,用包容、平衡、理性的法律规则在高度不确定的AI发展中保存各方所期待的制度确定性,则将在全球人工智能立法竞赛中贡献有制度价值、可复制实践的中国方案。

责编|崇修(转载及媒体合作请评论区或邮箱留言)